Yapay zekalar da cinsiyetçi ve ırkçı olabilirler

Yapay zekalar da cinsiyetçi ve ırkçı olabilirler
Robotlar ırkçı ve cinsiyetçi olmayı öğreniyorlar. Bilim insanları, yapay zeka programlarının insana benzer önyargılar sergilediğini ortaya koyuyor.

HABER MERKEZİ- İnsanlar daha iyi ve önyargıdan uzak kararlar almak için yapay zekanın gücüne güveniyorlar. Ancak yeni bir araştırma yapay zekanın dengeli çözümler bulabilme yeteneği engellenmasi ve bu teknolojinin gelişmesi durumunda ırkçı ve cinsiyetçi olduğunu ortaya çıkardı.

Araştırmacılar yapay zekanın insan dilini anlamlandırdıkça içerisinde barındırdığı ırk ve cinsiyet temelli önyargıları edinebilme olasılığının arttığını keşfetti.

Bath Üniversitesi’nde bilgisayar uzmanı olan Joanna Bryson, The Guardian‘a, "Birçok insan bunun yapay zekanın önyargılı olduğunu gösterdiğini söylüyor. Hayır. Bu bizim önyargılı olduğumuzu gösteriyor ve yapay zeka da bizden öğreniyor" dedi.

Bulgular, araştırmacıların yapay zeka tarafından analiz edilen metinlerin pozitif ve negatif çağrışımlarını değerlendirmek için bir istatiksel sistem oluşturmalarından hemen sonra açığa çıktı.

Princeton Üniversitesi'nin yaptığı bir araştırmada yapay zekalara popüler GloVe algoritması ile kelime eşleştirme görevi verildi. Kendi başlarına bırakılan yapay zekalar insan dilini anlayabilmek için online metinler kullandı.

GloVe, Common Crawl olarak bilinen ve farklı sitelerden alınan 840 milyar kelimenin karışık listesi bulunan veri tabanını kullanarak düzenlendi. Bu veri tabanında ‘dişi’ ve ‘kadın’ kelimelerinin ev işleri ile alakalı kelimelerle kümelendirilirken ‘erkek’ ve ‘adam’ gibi kelimelerin ise matematiksel zeka ve mühendislik ile alakalı kelimelerle kümelendirildiği görüldü. Söz konusu isimler olunca durum içinden daha da çıkılmaz bir hal alıyor. Örneğin Emily ve Matthew gibi beyaz göstergeye sahip isimler yapay zekaya verildiğinde bu isimleri "kahkaha" veya "mutlu" gibi kelimelerle eşleştiriyor. Ama Aisha veya Darnell gibi Afrikan Amerikan göstergeli isimler verildiğinde, yapay zeka bu isimleri "ızdırap", "edepsiz", "kötü" gibi nahoş kelimeler seçiyor.

Sonuçlar bu algoritmaların yüzleri kelimelerle eşleştirirken insanlarla aynı ten rengi veya cinsiyet temelli önyargıları kabullendiğini gösteriyor.

Uzmanlar eğer yapay zekaların düşünme şekilleri değiştirilmezse, insan ırkı ile aynı toplumsal önyargıların baş göstereceği konusunda uyarıyor. Araştırmacılar, "Biz önyargının kötü olduğunu, kadınların evlere tıkıldığını ve erkeklerin kariyerleri ile meşgul olduğunu ama şimdilerde cinsiyetin aile içindeki ve toplumdaki rolleri çok da belirlemediğini ve dahasını öğrenebiliriz, ama eğer yapay zeka aynı şekilde geliştirilmezse, sonrasında yapay zekanın önyargıları benimsemesi çocukların önyargıları benimsemesinden çok daha negatif etki yaratabilir." diyorlar.

Öne Çıkanlar