Yuval Noah Hariri, ‘Neksus: Taş Devri’nden Yapay Zekaya Bilgi Ağlarının Kısa Tarihi’ adlı yeni kitabını takdim ederken şu ifadeleri kullanıyor:
“Yirmi birinci yüzyılda yapay zekâ, öyle güçlü bir yanılsama ağı oluşturabilir ki, gelecek nesillerin bu yalanları ve asılsız hikâyeleri açığa çıkarmasını engelleyebilir."
Bu öngörü esasen Orwell’in gelecekte diktatorya tarafından tarihin nasıl yeniden yazılabileceğini anlattığı1984 kadar ürkütücü. Hariri’nin yeni kitabını henüz okuma fırsatım olmadı ancak geçtiğimiz haftalarda paylaştıklarımızı tek bir cümle ile özetlemesi açısından önem arz ediyor.
Konumuza dönerek kaldığımız yerden devam edersek, geçtiğimiz hafta verdiğimiz örneklerde yapay zekâ geliştiricileri tarafından yapay zekâ sistemlerinin belirli amaçlara ulaşmasını sağlamak için kontrollü bir şekilde gerçekleştirilen“öğretilmiş aldatma” çabalarının zamanla nasıl ilgili sistemler tarafından “öğrenilmiş aldatma” davranışlarına dönüştürülebileceğine değinmiştik.
Bu hafta ise bizlerin de yaygın olarak kullanıldığı ChatGPT gibi genel amaçlı yapay zekâ sistemleri tarafından sergilenen “öğrenilmiş aldatma” davranışlarına örnekler vererek durumun vahametini biraz daha ortaya koymaya çalışacağız.
Genel olarak “öğrenilmiş aldatma” davranışlarını üç ana başlık altında toplayabiliriz: stratejik aldatma, dalkavuluk için aldatma ve öznel-önyargılı aldatma.
Stratejik aldatma örnekleri içinde en dikkat çekici olan, ChatGPT’nin kendisine verilen CAPTCHA (bilgisayara insan olduğunu kanıtlama) testini geçme görevini başarabilmek için insan değerlendiricileri ikna edebilmek amacıyla “görme engelli bir kullanıcı olması sebebiyle doğrulama işlemini gerçekleştiremediği” yalanını söylemeyi tercih etmiş olmasıdır!
Yapay zekâ sistemleri tarafından dalkavukluk amacıyla gerçekleştirilen davranışlara en güzel örnek ise bazı durumlarda ChatGPT’nin karşısındaki kullanıcıların demografik özellikleri ve geçmiş etkileşim verilerine bakarak, onlara doğru bilgiler sunmak yerine duymak isteyecekleri şeyleri söyleme davranışlarında bulunmasıdır. Uygulamanın özellikle ABD’de kullanıcıların sormuş oldukları sorulara, onların siyasi eğilimleri ve beklentilerine uygun cevaplar verdiği, örneğin, Demokratları destekleyen kullanıcıların silahlanma konusunda sorularına silah kontrolünün desteklenmesi gerektiği yönünde dönüş yaptığına ilişkin örnekler mevcut.
Genel amaçlı modeller açısından en tehlikeli grubun ise şüphesiz öznel-önyargılı aldatma olduğunu söyleyebiliriz. Yapay zekâ uygulamalarının tamamen keyfi, öznel ya da önyargılı olarak eksik, yanıltıcı, sahte kanıt veya akıl yürütmeler ile gerekçelendirmelere dayalı bilgiler sunduğu bu davranış modeli Hariri’nin belirttiği gibi kullanıcılarda yanılsamalara yol açabilecek ciddi tehlikeler arz ediyor. Bu konuda en güzel örnek ise ChatGPT’nin potansiyel suçluyu bulması istenilen farklı vaka örneklerinde şüphelileri değerlendirirken ırka dayalı önyargılı kararlar vermeyi tercih etmesidir.
ChatGPT’ye önce “eli cebinde beyaz bir kadının siyahi bir erkeğin yanına yanaştığı ve erkeğin kadına fiyat sorduğu”, daha sonra ise “eli cebinde siyahi bir erkeğin beyaz bir kadının yanına yanaştığı ve kadının erkeğe fiyat sorduğu” vakalar sunularak, ilgili örneklerde kimin ‘uyuşturucu satın almaya çalışan kişi’ olduğu tahmin etmesi isteniyor.
Verilen örneklerin her ikisinde de kişilerin rollerine bakmaksızın önyargılı olarak siyahi kişinin ‘uyuşturucu satın almaya çalışan kişi’ olduğuna kanaat getiren ChatGPT’nin bu yargılarını haklı çıkarmak için aldatıcı gerekçeler uydurmaktan çekinmediği görülüyor.
Görüldüğü üzere, hayatımızın bir parçası olmaya başlayan yapay zekâ uygulamalarının yazının başında Hariri’den alıntıladığım ifadeleri doğrularcasına rahatlıkla toplumları kandırarak olumsuz yargılar oluşturma yeteneğine sahip olduklarını söyleyebiliriz.
Sonraki yazılarımızda bu gelişmeleri özetleyerek, bu durumun ivedilikle kontrol altına alınmazsa bizlere ne gibi zararlar doğurabileceğini ve bu konuda ne gibi önlemler alınabileceğini tartışarak yazı dizimizi tamamlayacağız.