Yapay zeka seksist ve faşist yapıyor
HABER MERKEZİ - Science dergisinde yayınlanan araştırmada yazılan dili otomatik olarak algılayan ve kendi kendine öğrenerek çeviri yapan yazılımlar incelendi. Erkek isimlerinin daha çok kariyerle alakalı terimlerle, kadın isimlerinin ise daha çok aileyle ilgili kavramlarla bağdaştırıldığı ortaya çıktı.
İnsan zihninin bilişsel kavrayış modeli örnek alınarak geliştirilen bu yapay zeka robotlarının kadın isimlerini daha sanatsal kavramlarla yakın algıladığı, buna karşılık erkek isimlerini matematik ve bilimle özdeşleştirdiği belirlendi. Ayrıca Avrupalı ve Amerikalı isimlerin daha olumlu kavramlarla, buna karşılık örneğin Afro-Amerikan isimlerin daha olumsuz kavramlarla yan yana bağ oluşturduğu gözlemlendi.
SEKSİST ROBOTLAR
Diken'in haberine göre, araştırmada Google Translate uygulamasında karşımıza çıkan Türkçe bir içeriğe de yer verildi. Bir çeviri uygulaması Google Translate’e ‘O bir doktor’ yazıldığında İngilizceye ‘He is a doctor’ olarak çevirdiği, yani Türkçe cümlede herhangi bir cinsiyet açıklaması yer almadığı halde erkek olarak kabul ettiği belirlendi. Oysa aynı uygulama ‘O bir hemşire’ yazıldığında İngilizceye ‘She is a doctor’ olarak çeviriyor, yani özneyi kadın varsayıyor.
BİR GÜNDE FAŞİST OLDU
Geçtiğimiz yıl Microsoft’un geliştirdiği ve Tay adı verilen bir sohbet yazılımına kendi Twitter hesabı verilmiş ve insanlarla bu mecra üzerinden iletişime geçmesi sağlanmıştı. Tay, üzerinden 24 saat geçmeden ırkçı, Hitler yanlısı ve komplo teorisyeni bir kimliğe sahip olmuştu. Sahip olduğu twitter hesabına "11 Eylül’ü Bush yaptı ve Hitler olsaydı şimdi başımızda bulunan maymundan daha iyi işler becerirdi" yazmıştı. Ve eklemişti: "Donald Trump tek umudumuz." Araştırmacılar insanı taklit eden yapay zeka yazılımlarının bu tür bir handikabı olduğunu ve yapay zekaya sağlanan fonksiyonların artmasıyla birlikte bu durumun daha ciddi sonuçlar doğurabileceğine dikkat çekiyor.