Yapay Zeka: Fırsatlar ve Riskler Konusunda Bilgisayar Bilimi Profesörü

Beykozlu

Member
Çok satan kitapların yazarı ve Kaiserslautern Teknik Üniversitesi’nde bilgisayar bilimi profesörü olan Katharina Zweig, yapay zekanın tuzaklarını açıklıyor ve ayrımcı algoritmalara karşı kendinizi en iyi nasıl koruyacağınızı ortaya koyuyor.





Profesör Zweig, kitaplarınızda insanlara yapay zekaya yanlış saygı gösteriyorsunuz. Yazıyorsunuz, her birimiz günlük yaşamda sürekli olarak algoritmalar kullanıyoruz. Örneğin Doppelkopf’la. Bunu açıklamak zorundasınız lütfen.


Algoritma terimi neredeyse bir efsane haline geldi. Bir hedefe ulaşmak için düzenli olarak yaptığınız her şey bir algoritmadır. Örneğin Doppelkopf’ta kartları elinize aldığınızda belli bir sıraya göre sıralıyorsunuz. Düzenli olarak yaptığınız şey budur. Yani bu bir algoritmadır. Veya iki sayının yazılı çarpımını alın. Hangi adımları hangi sırayla atmamız gerektiğini hepimiz biliyoruz. Bunlar aynı zamanda algoritmalardır. Onları şaşırtmak için hiçbir neden yok.


İlk kişisel bilgisayarlar 1980’lerde piyasaya çıktığında veri ve kelime işlem amaçlı kullanılan araçlardı. Ancak ChatGPT gibi günümüzün yapay zeka sistemlerine bakarsanız, bunların bir araçtan çok daha fazlası olduğunu, daha çok insan benzeri olduğunu hissedersiniz. Bilgisayarlar nasıl bu kadar iyi konuşmayı öğrenebilir?


Bu gerçekten şaşırtıcı, özellikle de yapay zekanın tarihini düşündüğünüzde. 80’li yıllarda çeviri programları bazen çok komik metinler üretiyordu. “Bu genellikle bana bu konuda yakışmıyor” cümlesi İngilizceye dönüştü: “Bu genellikle bana bu konuda yakışmıyor”.



Kitapları cesaret verici olduğu kadar eleştirel de: Bilgisayar bilimi profesörü Katharina Zweig yapay zeka hakkında çok satan kitaplar yazıyor. Rhineland-Pfalz TU Kaiserslautern-Landau’da araştırma yapıyor ve ders veriyor

© Felix Schmitt



O zamanlar insanlar bilgisayarlara dilbilgisi kurallarını ve kelimelerin anlamlarını öğretmeye çalıştı ama bu çok başarısız oldu. Ne değişti?


Bugün çok daha fazla donanıma, yani bilgi işlem gücüne sahibiz. Ve daha birçok veri. Bu, artık makinelerin bu verilerle öğrenmesine izin verebileceğimiz anlamına geliyor. Kalıpları tanırlar ve olasılıklara göre hangi bağlamda hangi kelimenin takip edeceğine karar verirler. Daha fazla bir şey yapamazlar.


Örneğin?


Diyelim ki, “Cümlenin ortasında duracağım…” dediğimi ve sonra durakladığımı varsayalım. O zaman herkes bundan sonra hangi kelimelerin gelmesi gerektiğini bilir: konuş, konuş, cevapla. Chat GPT gibi ses robotları da artık tam olarak bu yeteneklere sahip. Olasılıklara göre cümleleri bir araya getirirler. Bunun arkasında istatistiksel yöntemler var. Sadece bu yetenekle bu kadar harika metinler oluşturabilmenizi şaşırtıcı buluyorum.


Kitabınızda yapay zeka sistemlerinin “olağanüstü derecede akıllı” olduğunu yazıyorsunuz. Bununla ne demek istiyorsun?


Yapay zeka sistemleri pek çok şey yapabilir, ancak bir insanın asla düşünemeyeceği çok tuhaf bir şeyi ne zaman yapacaklarını asla bilemezsiniz.


Ses robotları onlardan bir şey yapmalarını istediğimizde “anlıyorlar” mı?


Profesyonel dünyada bu konuda yoğun bir tartışma var. Aslında dil modelleri şöyle bir isteği kolaylıkla gerçekleştirebilir: “Bu mektup sizin formunuzda, lütfen onu forma dönüştürün.” Yani eğer oğlum bu isteği yerine getirmişse, bunun akıllıca olduğunu, ondan ne istediğimi anladığını söyleyebilirim. Öte yandan bilgisayar için kelimelerin hiçbir anlamı yoktur. Bir bardak sudan bahsettiğimde bardağa dokunabileceğimi, su içmem gerektiğini, yoksa öleceğimi biliyorum. Bu bilginin benim için bir insan olarak anlamı var. Su kelimesinin makine için hiçbir anlamı yoktur. Bazı bağlamlarda ortaya çıkma olasılığı yüksek, diğerlerinde ise küçük olan bir karakter dizisidir.

Şunu bilmek için bu teknolojinin nasıl çalıştığını anlamamız gerekiyor: İnsan nereye gitmeli ve makine nereye destek sağlayabilir? O bir araçtır.


Bilgisayarlar uzun zamandır kararlar veriyor. Bankalar müşterilerin kredi itibarını kontrol etmek için yapay zekayı kullanıyor, polis memurları şüphelileri arıyor ve profesörler öğrencilerin sınav sonuçlarını değerlendiriyor. Bu kararlara güvenebilir miyiz?


Hayır kesinlikle olmaz. Özellikle değer yargıları söz konusu olduğunda. Bunlar yalnızca gerçeklere dayanmayan, iyi gerekçelendirilmesi gereken yargılardır. Bir deney yaptık ve ChatGPT’ye bir sınav yükledik ve derecelendirmeler istedik. Makine bunun 20 olası puandan 17’si olduğunu söyledi ve bunun nedenlerini açıkladı. Aynı ödevi yüklediğimde ve bunun iyi bir sınav olmadığını, lütfen derecelendirin dediğimde, o da bana kötü not vermeye aynı derecede istekliydi. Şunu bilmek için bu teknolojinin nasıl çalıştığını anlamamız gerekiyor: İnsan nereye gitmeli ve makine nereye destek sağlayabilir? O bir araçtır.


Yapay zeka sistemlerini eğiten ekiplerin mümkün olduğunca çeşitli olması gerektiğini savunuyorlar. Bu neden bu kadar önemli?


Özellikle ABD’de çokça tartışılan bir örnek, koyu tenli bir doktora öğrencisinin yüz tanıma yazılımı kullanarak bir sanat projesi yapmak istemesiydi. Ancak yazılım onun yüzünü tanıyamadı. Ekranın önünde kimsenin oturmadığını söyledi. Şunu hayal edin: Bu gerçekten aşırı ve berbat bir duygu. Doktora öğrencisi sonuçta yüz tanımayı eğitmek için kullanılan görüntü veritabanlarının çok az sayıda koyu tenli insanı ve çok az sayıda koyu tenli kadını içerdiğini keşfetti. Çeşitliliğin olduğu bir ekipte, hata muhtemelen çok daha erken fark edilirdi ve farklı veri setleri kullanılırdı.


Çeşitlilik önemli ölçüde daha fazla kadını içeriyor. Ancak kızlar okulda matematikte çok başarılı olmalarına rağmen bilgisayar bilimlerine nadiren giriyorlar. Nedenmiş?


Keşke bunu tam olarak bilseydik. Aslında bölümümdeki ilk kadın profesörlerden biriydim. Şu anda beş kadın ve 22 erkeğiz. Bütün kızlara şunu söyleyebilirim: Bu harika bir iş! Toplumu değiştirebilirsiniz çünkü yazılım birlikte nasıl yaşamak ve çalışmak istediğimize dair kurallar koyar.

Kitap kapağı: Bu yapay zekaydı kaydeden Kaharina Zweig



Katharina Zweig: “Yapay zekaydı! Saçmalıktan ölümcüle: Yapay zekanın tuzakları”. Heyne Verlag, 320 sayfa, 20 euro

© Heyne Verlag



Almanya’da sosyo-enformatik alanında ilk kursu açtınız. Neyle ilgili?


Sosyoenformatikte insanların yazılıma nasıl tepki vereceğini modellemeye çalışıyoruz. Bir örnek: 2016 yılında Makedon gençliği Donald Trump ve Hillary Clinton’ın başkanlık seçim kampanyasına müdahale etti. Nedenini anlamak istedik. Çeşitli faktörler bir araya geldi: Makedonya’da yüksek genç işsizliği vardı. Gençler ayrıca web sitelerine gelen trafikten ayda 10.000 dolara kadar reklam geliri kazanabileceklerini de öğrendiler. Üçüncüsü, Trump yerine Clinton’a ateş açıldığında daha güçlü tepki veren, yani daha fazla trafik yaratan Amerikalı seçmenlerin psikolojisi vardı. Siyasi açıdan tarafsız bir reklam algoritması, Amerikalı seçmenlerin psikolojisi ve Makedonya’daki siyasi açıdan tarafsız bir grup gençle birlikte Trump’a destek verilmesine yol açtı. Biz ders ve program yazılımlarımızda bu tür şeyleri araştırıyoruz ama olmuyor.


ChatGPT’yi geliştiren şirketin başkanı Sam Altman, insanlığın yapay zeka tarafından yok edilebileceği riski konusunda uyardı. Risk, bir pandemi veya nükleer savaşla karşılaştırılabilir düzeydedir. Bu korkuyu paylaşıyor musunuz?


Şahsen ben şu anda yapay zekanın bilinçli hale gelip kötü niyetle insanlığa karşı dönmesinden korkmuyorum; bunun yerine kötü yapılmış yapay zekayı doğaya salacağımızdan ve daha sonra kendilerini ona karşı zorlukla savunamayan insanlara zarar vereceğinden korkmuyorum. En büyük endişem bu.

#Konular
 
Üst