Çok değil, yaklaşık yedi yıl önce başlayan ve geleceğin teknolojilerini yapay zekâ ekseninde yapılandırmaya odaklanan çalışmaların bir sonucu olarak günümüze ulaşan mevcut yapay zekâ uygulamalarının dünya çapında yaygın bir şekilde benimsendiğini görüyoruz.
Oysaki bundan sadece bir buçuk yıl kadar önce aralarında Elon Musk ve Steve Wozniak gibi isimlerin de yer aldığı 1800’den fazla teknoloji lideri ve araştırmacı ortak bir bildiriye imza atarak "toplum ve insanlık için derin risklerbarındıran” yapay zekâ araştırmalarının hukuksal altyapı oluşturulana kadar en az altı ay süreyle duraksatılmasını istemişlerdi.
Yapay zekânın tehlikeleri konusunda uzun süredir uyarılarda bulunan ‘Future of Life Institute’ adlı kâr amacı gütmeyen bir STK tarafından koordine edilen bu girişim ile yapay zekâ sistemleri tamamen kontrolden çıkmadan bu konudaki araştırmaların yasal bir statüye kavuşması gerektiğine işaret ediliyordu.
Bu girişim pek başarılı olamadı ancak kısa süreliğine de olsa bireylerin ilgisini çekmeyi başardı. Takip eden süreçte ise Avrupa Birliği tarafından öncü bir Yapay Zekâ Yasası çıkartılarak, yapay zekâ uygulamalarının tehlike derecelerine göre sınıflandırılmasına ilişkin kapsam ve sınırlar çizilmeye çalışıldı.
Bu ön bilgiler ışığında, geçtiğimiz hafta kaldığımız yerden devam edelim. Önceki yazılarda, ivedilikle üzerine kafa yormamız gereken konulardan birisinin, “Yapay zekâ sistemlerinin günümüzde ve gelecekte insanları ne ölçüde aldatabileceğine yönelik endişeler” olması gerektiğine işaret etmiştim.
"Yapay Zekanın Vaftiz Babası" olarak bilinen Geoffrey E. Hinton’un yapay zekâ sistemlerinin yetenekleri konusunda endişelerini açıkladığı bir röportajında şöyle bir ifadesi yer alıyor:
“Yapay zekâ bizden çok daha zeki olursa, manipülasyon konusunda da çok iyi olacaktır… ve daha zeki bir şeyin kendisinden daha az zeki olanlar tarafından kontrol edilebildiğine dair çok az örnek mevcuttur!”
Farklı anlamlara da çekilebilen ‘aldatma’ kavramını konumuz açısından tanımlamamız gerekirse, “yapay zekâ uygulamaları tarafından insanların (ya da daha sonra göreceğimiz üzere diğer sistemlerin) gerçek dışı ya da eksik bilgilere inandırılarak, yanlış inanış ya da davranışlara teşvik edilmesine yönelik sistematik davranış örüntüleri sergilenmesi” olarak ifade edebiliriz.
Burada önemli olan husus ise bir davranışın aldatma olarak nitelendirilebilmesi için belirli bir amaca ulaşılmak üzere sistematik olarak gerçekleştiriliyor olması gerektiğidir. Diğer bir ifadeyle, özellikle yapay zekâ uygulamalarının eğitim süreçlerinde karşılaşılan ve ‘halüsinasyon’ olarak adlandırılan, bilinmeyen sebepler ya da teknik sıkıntılar sonucu mükerrer olmayan bir şekilde gerçekleşen yanıltıcı davranışlar bu kapsamda değerlendirilmiyor.
Detaylara girmeden önce, son olarak “Yapay zekâ aldatır mı?” sorusunu cevaplayabilmek için öğretilmiş ve öğrenilmiş aldatma kavramları arasındaki nüansa da dikkat çekmek gerekiyor. Eğer bir yapay zekâ sistemi, belirli bir amaca ulaşmak için kullanıcıları aldatmaya yönelik eğitimden geçiriliyor ya da teşvik ediliyorsa burada ‘öğretilmiş aldatma’ durumu söz konusudur. Kendisinden bir amaca ulaşması istenilen yapay zekâ sisteminin bu amaca ulaşmak için yöntemler geliştirirken kendi tercihiyle kullanıcıları aldatma eğilimine yöneliyor ise bu durumda ‘öğrenilmiş aldatma’ davranışı ortaya çıkıyor ki kontrol dışı bir davranış olan bu durumu çok daha ciddi bir problem olarak daha sonra inceleyeceğiz.
Yukarıdaki bilgiler ışığında, önümüzdeki haftadan itibaren, sistem geliştiriciler ve yapay zekâ uygulamalarının kendileri tarafından gerçekleştirilen öğretilmiş ve öğrenilmiş aldatma davranışlarını örnekler eşliğinde değerlendirerek karşı karşıya kaldığımız tehlikeleri işaret etmeye çalışacağız.