Habertürk
    Takipde Kalın!
      Günlük gelişmeleri takip edebilmek için habertürk uygulamasını indirin
        Anasayfa Özel İçerikler Ayşe Özek Karasu Yapay zekanın felaket tellalları! O halde icat etmeseydiniz

        Gün geçmiyor ki, birileri çıkıp yapay zekanın geleceğine dair kıyamet uyarısında bulunmasın. Hayır, komplo teorisyenleri veya aşırı evhamlılar değil, bizzat teknolojinin erbabından geliyor bu uyarılar. Silikon Vadisi’nde dünyanın sonu geliyormuş gibi bir hava esiyor. Bu tayfanın kıyamet düşüncesi iklim aktivistlerinin karanlık gelecek muhayyilesinin de ötesinde. Kaygıları öyle derin ki, nükleer silahlar kadar tehlikeli olabilir gerekçesiyle yapay zeka teknolojisinin aynı Uluslararası Atom Enerjisi Kurumu gibi bir üst kurum tarafından denetlenmesini istiyorlar.

        Yapay zekanın (AI) insanlık için yaratabileceği riskleri pandemi ve nükleer savaşla bir tutanlar kimler mi? Mesela AI öncülerinden olup, insanlığı tehlikelere karşı tetikte tutmak için Google’daki görevini bırakan Geoffrey Hinton, en moda sohbet botu ChatGPT’nin yaratıcısı Open AI’nin CEO’su Sam Altman ve şirketin teknoloji şefi Mira Murati (CTO) ve Open AI finansörü Microsoft’un kurucusu olarak Bill Gates

        Yapay Zeka Güvenliği Merkezi (Center for AI Safety - CAIS) örgütlenme çatısı altında bir araya gelen yapay zekanın akademi ve iş piyasasındaki güç simsarları geçenlerde AI marifetiyle yok oluş tehlikesine dikkat çekmek için bir açık mektup yayınladı. MIT, Stanford ve Cambridge üniversitelerinden bilim insanları, Oxford Üniversitesi’nden Atılım Güneş Baydin ve Imperial College London öğretim üyesi Tolga Birdal dahil makine öğrenimi uzmanlarının imzası var mektupta.

        YAPAY ZEKA SİLAHA DÖNÜŞEBİLİR

        CAIS grubuna göre, çok hızlı gelişen yapay zeka teknolojisinin potansiyel riskleri siyaset tarafından yeterince dikkate alınmıyor, güvenlik meselesi ihmal ediliyor. Tehlikeleri sekiz başlık altında toplamışlar.

        Birinci sırada yapay zekanın silah kapasitesi var. Bir takım kötücül odaklar dünyada yıkıcı bir siyasi kaos yaratmak için yapay zekayı kullanabilirler. Örneğin Maryland’deki küçük bir şirketin girişimiyle yapay zekaya hava muharebesi öğrenme yöntemleri uygulandı ve simülasyon ortamında F-16’yla it dalaşında makine, insanları yenmeyi başardı; bir pilotun gerçekleştiremeyeceği hassas manevraların üstesinden geldi. İlaç endüstrisinin keşiflerinde kullandığı yapay zeka da kimyasal ve biyolojik silah üretmek üzere alete dönüşebilir.

        AI eliyle dezenformasyon da toplumsal risk barındırıyor. CAIS’e göre günümüzün en önemli tehlikelerinden biri. Devletler, siyasi partiler ve çeşitli örgütler, kitleleri kendi inanç ve ideolojileri doğrultusunda yönlendirmek için bu teknolojiye başvuruyor. Yapay zeka günün birinde tamamen kişiye özel kampanya aracına dönüşebilir ve insanların etki altında kalmadan özgür iradesiyle fikir edinme ve karar verme yeteneği ortadan kalkabilir.

        Diğer bir risk, insanların önemli işleri yapay zekaya devretmesi sonucu kendi kendini yönetme kabiliyetini yitirip tamamen makineye bağımlı hale gelmesi. Aynı WALL-E filminin senaryosunda olduğu gibi.

        Ve nihai risk: Yapay zeka modelleri, giderek daha rekabetçi davranış geliştirdiklerini gösteriyor. Günün birinde insanlık, gelişmiş AI sistemleri üzerindeki kontrolünü kaybedebilir!

        İşte bu tehlikeler bağlamında bütün AI laboratuvarlarına, GPT-4’ten daha güçlü yapay zeka sistemlerinin eğitimini altı ay süreyle durdurmaları çağrısında bulunuyorlar. Bu işlem çabucak başarılamadığı takdirde hükümetlerin devreye girerek moratoryum ilan etmesini istiyorlar. Böylece uzmanların devreye girmesiyle güvenlik protokolü oluşturulabileceği düşüncesindeler.

        Fakat bu önlemi yeterli görmeyenler var. Örneğin AI araştırmacısı Eliezer Yudkowsky, Time’daki makalesinde önlemi yetersiz bulduğu için bildiriye imza koymadığını belirterek “Altı aylık moratoryum hiç moratoryum olmamasından iyidir. Ancak bilgisayar işlemcileri yapay zekayı kontrol altına alamadığı takdirde tek çare veri merkezlerini havadan bombalamaktır” diye yazıyor.

        TALİHSİZ BİR DOĞUM GÜNÜ

        ChatGPT geçen yılın kasım ayında piyasaya çıkışında milyonlarca kullanıcıyla büyük sükse yapınca biz sosyal bilim eğilimliler arasında bambaşka kaygılar hasıl olmuştu. Her soruya cevap verip bir çırpıda makale, şiir filan yazan alet yüzünden çocukların eğitimi ne hale gelecek, eyvah sanat ve edebiyatın sonu gelecek gibi endişelere kapılmıştık.

        Fakat işin erbabından gelen uyarılara bakılırsa tehlike çok daha büyük. En can alıcı alarmı veren kişi de ChatGPT’yi çıkaran ve GPT-4’le el yükselten Open AI’nin başındaki Sam Altman; yapay zekanın avantaj ve dezavantajlarını anlatmak için dünyayı turluyor, siyasi liderlerce baş köşelerde ağırlanıyor. Macron, Sunak, Von der Leyen vs, Altman’ın vizyonundan ne kadar etkilendiklerini sosyal medyadan duyuruyorlar.

        Altman, şirketinin üstlendiği tarihi misyonu, ABD’nin İkinci Dünya Savaşı sırasında atom bombasını geliştirdiği Manhattan Projesi’yle kıyaslıyor. Projenin başındaki fizikçi Robert Oppenheimer, Hiroşima ve Nagazaki’yi yok eden bombanın babası kimliğiyle eli kanlı katil damgasını yese de insanlığın teknolojik gelişimine hizmet eden bir bilim insanı olarak görülür ya, Altman da “Yapay zeka ne kadar tehlikeli olursa olsun insanlığın bilgi birikimi adına gelişmek zorunda” diyor. Oppenheimer’la aynı doğum gününe (22 Nisan) sahip olmalarını ise kaderin cilvesi olarak tanımlıyor.

        ChatGPT’yi geliştiren ekibin teknik şefi mühendis Mira Murati’ye gelince, o daha düşük profilli yürüyor. Yer yer medyada görünüyor, “yapay zeka sayesinde insanların daha yaratıcı olduğunu” söylüyor ama röportaj taleplerinin çoğunu yanıtsız bırakıyor. Hakkında çok az bilgi var; Arnavutluk’ta dünyaya geldiği, eğitimini Kanada ve ABD’de tamamladığı, Tesla’dan Open AI’ye transfer olduğu biliniyor. Öyle gizemli ki, ChatGPT “Mira Murati kimdir” sorusuna “Bilmiyorum. Dünyadaki herkesi tanımam mümkün değil” cevabını veriyor.

        KORKU GERÇEK Mİ – YOKSA SEBEP PARA HIRSI MI

        Aslında Altman’ın kıyamet kuruntusu, daha ChatGPT cininin şişeden çıkmadığı günlere dayanıyor. New Yorker’a 2016’da verdiği bir söyleşide, o güne nasıl hazırlandığını anlatmıştı; silah, antibiyotik, batarya, su deposu, gaz maskeleri ve radyasyon tehlikesine karşı potasyum iyodür tabletleriyle yığınak yaptığını söylemişti. ABD’de Trump’ın en büyük tehlike görüldüğü o günlerde henüz yapay zeka korkusu hakim olmadığı için Altman’ın kıyamet inancı izole kalmıştı. Ancak canlı sohbet botlarının bu denli hayatımıza girdiği ortamda Silikon Vadisi’nden yükselen panik havası şunu düşündürüyor: Yapay zekayı geliştirenler kendi eserlerinden mi korkuyor?

        Pek öyle olmayabilir, işin içinde fitne görenler var. Distopik uyarılarla bezeli bu AI furyasıyla “Yapay zekasız hayat düşünülemez” algısı pompalanmak suretiyle şirketlerin yatırımcı çekerek kasaları doldurmayı hedeflediği öne sürülüyor mesela.

        Virginia Tech’ten bilim ve teknoloji uzmanı Lee Vinsel, reklam bombardımanı sonucu yeni bir teknoloji balonu oluştuğunu, şirketlerin yeni teknolojik devrimin gerisinde kalmamak uğruna yapay zeka yatırımlarını artırdığını yazıyor, rakamları da vererek.

        Yapay zeka furyasına felsefi eleştiri de geliyor. Alman nörolog Joachim Bauer, yapay zekanın dayatılması ve sürekli varlığımız ve aklımızla kıyaslanması sonucu insanların giderek özgüvensiz kılındığını belirterek “Aydınlanma Çağı öncesine dönüş tehlikesi görüyorum. İnsanın kendi başına kayıtsız şartsız değer ve onur hakkına sahip olduğu Aydınlanma fikri, yapay zekanın tehdidi altında” diyor.