Habertürk
    Takipde Kalın!
      Günlük gelişmeleri takip edebilmek için habertürk uygulamasını indirin

        Tehlikeli bulunan yapay zekâda kabahat yok, çünkü ne biliyorsa insandan öğreniyor; insanoğlunun ne kadar cinsiyetçi, ırkçı, önyargılı habis huyu suyu varsa hepsini taklit etmeye başlıyor. Emareler mi? LinkedIn’in arama motoru bile kadın isimlerini bırakıp erkekleri seçiyor. Daha ne olsun.

        Elon Musk’ın vizyonu hem doğru hem yanlış. Doğru, yapay zekâ (AI) tehlikeli olabilir; insanoğlunun kıyameti olabilir. Robotlar dünyayı ele geçirdiğinde, Musk’ın da SpaceX projesinde tasarladığı gibi Mars’taki kolonilere kapağı atmamız gerekebilir. Peki insanoğlu Mars’a taşındığında sosyal bunalımları biter mi? Unutmayalım, başta Robincon Crusoe ve Sineklerin Tanrısı hiçbir “ada romanı” insanın eşit ve adil bir dünya düzeni kurmasıyla bitmez. Özlem duyulan eşitliktir ama insanoğlunun güç ve iktidar ihtirası törpülenemez.

        Neticede yapay zekâdaki tehlikenin kaynağında da insanın ta kendisi var. Makinelere ırkçı ve cinsiyetçi önyargılarımızı yansıtan verileri yüklediğimiz zaman, yapay zekâ yazılımlarının da bunları birebir taklit etmeye başladığı yönünde çok kuvvetli emareler var.

        Irkçılıktan başlayalım. Amerikan adalet sisteminde, eski hükümlülerin toplum içinde yeniden suç işleme riskini de hesaplayan “Compas” programının siyahilere karşı önyargılı olduğu tespit edildi. Beyazlarda yüzde 24 risk oranına karşı siyahilerde yüzde 45 risk veriyordu program - sehven! Yargıç ve diğer adli yetkililerin kararlarını, ikamet adresi, toplumsal aidiyet ve gelir kalemlerini veri alan bu ve benzeri programlar ABD çapında yüzlerce adliyede kullanılıyordu. Irkçı önyargı gütmekle suçlanan Amerikan adalet sistemi, teknolojiden yardım alayım derken algoritmaların da önyargılı olduğunu hayretle fark etmişti. ABD’de muhtemel suç mahallerini tespit etmek üzere polisin kullandığı PredPol programının da siyahilerin yoğun olduğu yerleşimlere yöneleceği uyarısı var. Çünkü program yapacağı işi, mevcut sabıka kayıtlarından öğreniyor.

        Google’ın görsel tanıma özelliği de feci sonuçlar veriyor; siyahi yüzleri gorillerle eşleştirmek gibi! Arama motorunun “AI” yazılımından kaynaklanan bu hata üzerine Google özür diliyor ve “Programı mükemmelleştirmek, farklı cilt tonlarını doğru tarayabilmek için daha yapılacak çok iş var” demekle yetiniyor. Google haritalarda ise geçen yıl Tayvan’daki “Nigger King” mağazası arandığında sonuçlarda “Beyaz Saray” da çıkıyor ki, o dönemde evin sahibi Barack Obama! Google yine özür diliyor.

        Flickr’ın otomatik etiketleme sisteminde de bazı siyahi yüzler “maymun” ve “hayvan” etiketleriyle görünüyor. Flickr yetkililerine göre yanlış etiketler ayıklandığı takdirde algoritma da doğrusunu öğrenecek.

        VE CİNSİYETÇİ

        Yapay zekâda antisemitzm de mevcut. Microsoft’un geliştirdiği Twitter sohbet botu “Tay” bir gün içinde sosyal medya ortamında öyle nefretle doldu ki, küfürlü antisemitik mesajlar vermeye başladı ve 24 saat içinde kapatıldı.

        Hani şu arama motorlarının “Aslında şunu mu demek istediniz?” faslı var ya, işte o alan da cinsiyet ayrımcılığından geçilmiyor. Kadın adı soruyorsun, “Aradığın erkek adı mı?” diye soruyor ukalaca. Profesyonel profil ağı LinkedIn’den örnek: Stephanie Williams adı arandığında “Stephen Williams mı demek istediniz?” diye soruyor. Seattle Times Gazetesi’nin yaptığı araştırmada “Andrea, Danielle, Michaela ve Alexa” isimleri “Andrew, Daniel, Michael ve Alex” erkek isimleriyle soru şeklinde karşılık buluyor. Amerika’da çok yaygın 100 erkek ismi yazıldığında ise “Aradığınız bu mu?” diye kadın ismi sürülmüyor ortaya. LinkedIn, programın eski aramalardaki eğilimleri analiz edilerek sonuç getirdiğini belirtiyor. Araştırmacılara göre algoritma yazılımları da iş dünyasındaki erkek egemen düzenden bağımsız değil. Kelimeler arasındaki ilişkiyi öğrenmek üzere geliştirilen bir program test edilirken, internetteki milyonlarca sayfa yükleniyor, kadın isimleri ön sırada “resepsiyonculuk” ve “hemşirelik” gibi mesleklerle eşleşiyor. Çıkan bu sonuç ABD’deki cinsiyet uçurumunu yüzde 90 oranında yansıtıyor.

        Microsoft’un araştırma uzmanlarından Kate Crawford, New York Times’taki yazısında şöyle diyordu: “Belleğimizdeki cinsiyet ayrımcılığı dijital platformlarda yaşayacaktır. Ve bu gidiş sorgulanmadığı takdirde gündelik algoritma sistemlerindeki zihniyet haline gelecektir.”

        Elon Musk’ın dediği gibi yapay zekâ tehlikeli ama kadınlar için daha tehlikeli galiba.

        Yazı Boyutu

        Diğer Yazılar