Facebook'tan 'yapay zeka' skandalı!
Facebook'un yapay zeka destekli algoritması, İngiltere'de bir grup siyahi kişinin polis memurlarıyla yaşadığı tartışmanın yer aldığı videoyu izleyenlere "Primatlarla(maymun) ilgili videoları görmeye devam edin" önerisinde bulundu.
Sosyal medyada tepki toplayan olay üzerine Facebook cuma günü bir açıklama yayımlayarak kullanıcılarından özür diledi. Bunun "kabul edilemez bir hata" olduğunun belirtildiği açıklamada, bir daha benzer bir durumun yaşanmaması için algoritmanın geçici olarak durdurulduğu ve yeniden gözden geçirildiği ifade edildi.
Facebook sözcüsü Dani Lever, "Yapay zekamızda iyileştirmelere gitsek de mükemmel olmadığının farkındayız. Daha kat etmemiz gereken aşamalar var. Bu nahoş önerileri gören herkesten özür diliyoruz" dedi.
GOOGLE VE TWITTER ÖZÜR DİLEMİŞTİ
Benzer bir olay ABD'li teknoloji devi Google'ın yapay zeka sisteminde de yaşanmıştı. 2015'te şirketin Photos adlı uygulamasında siyahi kişiler "goril" olarak etiketlenmiş, gelen tepkiler üzerine Google özür dilemişti.
Microsoft'un yapay zeka destekli sohbet botu Tay ise 2016'da ırkçı hakaretler içeren tweetler atmaya başlamış, bu nedenle lansmanından sadece 16 saat sonra devre dışı bırakılmıştı.
Twitter da benzer bir algoritma sebebiyle eleştirilmişti. Siyahi ve beyaz insanların fotoğraflarını öne çıkartma noktasında yaşanan problem, bir güncellemeyle çözülmüştü.