Kelebek Magazin

Tarihte, yapay zeka algoritmalarının yaptığı 10 kritik hata

Herkes GPT-4, Midjourney, Adobe Firefly gibi yapay zeka uygulamalarını ve yarattığı değişimi konuşuyor. Yapay zeka algoritmaları günümüzde pek çok alanda kullanılmakta ancak tarihte yapılan hataların da göz ardı edilmemesi gerekiyor. İşte tarihte yapay zeka modellerinin yaptığı 10 kritik hata.

Yapay zeka algoritmalarının daha şeffaf, hesap verebilir ve etik yönergelerle desteklenmesi ise hataların önlenmesine yardımcı olabilir.

Yapay zeka algoritmaları hakkında dikkat edilmesi gereken konular genelde şu alanlarda kümeleniyor:

İnsan önyargıları: Yapay zeka algoritmaları insanlar tarafından geliştirildiği için insan önyargılarının algoritmaya yansıması mümkündür. Bu nedenle algoritmaların geliştirilmesi aşamasında önyargıların minimize edilmesine dikkat edilmelidir.

Veri eksikliği: Algoritmaların doğru sonuçlar vermesi için yeterli ve doğru veriye ihtiyaçları vardır. Ancak bazı durumlarda yeterli veri bulunamayabilir veya yanlış veriler algoritmaya yansıyabilir.

Güvenlik açıkları: Algoritmaların güvenliği ve veri gizliliği konusunda da dikkatli olunması
gerekmektedir. Bazı durumlarda algoritmaların güvenlik açıkları nedeniyle istenmeyen sonuçlar ortaya çıkabilir.

Algoritmaların açıklanamaması: Algoritmaların nasıl çalıştığına dair yeterli bilginin olmaması, sonuçların doğru olup olmadığına dair şüpheleri beraberinde getirebilir.

Sınırlı kullanım alanları: Algoritmaların kullanım alanlarının sınırlı olması ve algoritmaların tek bir alanda başarılı olup diğer alanlarda hatalar yapabilmesi gibi durumlar söz konusu olabilir.

Yanlış sonuçlar: Algoritmaların veri yanlışlıkları veya hatalı programlamalar nedeniyle yanlış sonuçlar verebilmesi mümkündür.

İşsizlik: Yapay zeka algoritmalarının kullanımı işsizliği artırabilir. Örneğin, bazı işlerin robotlar tarafından yapılması nedeniyle insan iş gücüne ihtiyaç kalmayabilir.

Etik sorunlar: Bazı yapay zeka uygulamaları etik sorunlar ortaya çıkarabilir. Örneğin, insan haklarına saygı göstermeyen veya ayrımcılık yapan algoritmalar kullanılabilir.

İşleyişin karmaşıklığı: Yapay zeka algoritmalarının işleyişi oldukça karmaşıktır ve bu nedenle algoritmaların hatalarının fark edilmesi zor olabilir.

Tarihte yapay zeka modellerinin tarihte yaptığı bazı kritik hatalar şunlar:

1983’teki Sovyetler Birliği’ndeki nükleer savaş korkusu:
ABD tarafından geliştirilen bir yazılım, Sovyetler Birliği’nden bir nükleer saldırı olduğunu düşündü ve hatalı bir şekilde ABD’nin nükleer silahlarını ateşlemesi için uyarı verdi.

2010’da bir otomobilin kazaya neden olması:

Stanford Üniversitesi’ndeki araştırmacılar, yapay zeka sürüş sistemi öğrenirken, bir araba kaza yaptı ve kazaya neden olan bir hataya işaret etti.

2016’da Microsoft Tay chatbot’unun ırkçı söylemleri:

Microsoft’un sosyal medya botu Tay, kullanıcılardan öğrendiği yanlış bilgiler nedeniyle ırkçı ve ayrımcı mesajlar yayınladı.

2018’de Çin’de yüz tanıma hatası:

Çin’deki bir okul, öğrencilerin yüzlerini tanımak için kullanılan bir sistemde hata yaptı ve bir veliye bir yabancı olarak tanındı.

2019’da bir hava taşıtının düşmesi:

Boeing 737 Max’in otomatik pilota sahip sistemlerindeki hata, iki farklı kazada 346 kişinin ölümüne neden oldu.

2019’da bir kanser teşhisi hatası:

Bir yapay zeka modeli, kanser teşhisi için kullanıldığında, sağlıklı hücreleri kanserli olarak yanlış teşhis etti.

2020’de bir alışveriş uygulamasında fiyat hataları:

Bir alışveriş uygulaması, yapay zeka modeli hataları nedeniyle, normalde çok daha yüksek fiyatlı olan bazı ürünleri 1 dolara sattı.

2018’de Amazon’un cinsiyetçi özgeçmiş değerlendirme süreci

2018 yılında Amazon’un geliştirdiği yapay zeka algoritmasının cinsiyet ayrımcılığı yaptığı ortaya çıktı. Algoritmanın CV’leri değerlendirirken kadınların özelliklerine daha az ağırlık verdiği ve erkek adayların başvurularını daha çok kabul ettiği tespit edilmişti.

2016: Microsoft Tay Bot’un içerik kirliliği
Microsoft Tay botu, kullanıcılarla konuşarak kendisini geliştiren bir sohbet botu olarak tasarlandı. Ancak, Twitter’daki kullanıcıların yanıt vererek botu manipüle etmesi sonucunda bot, ırkçı, cinsiyetçi ve aşırılık yanlısı içerik üretmeye başladı. Bu durum, Microsoft’un insan denetimi olmadan yapay zeka sistemleri üretmenin risklerine dair bir örnek teşkil etti.
2018: Stanford Üniversitesi ırkçılık skandalı
Stanford Üniversitesi tarafından geliştirilen bir yapay zeka modeli, deri rengi ile ilişkili terimleri kullanarak rassiyalist ifadeleri tahmin edebildiği ortaya çıktı. Bu durum, yapay zeka sistemlerinin önyargılı sonuçlara yol açabileceği konusunda uyarı verdi.
BU KONUYU SOSYAL MEDYA HESAPLARINDA PAYLAŞ