Geçtiğimiz haftalarda bu köşede yapay zekâ sistemlerinin insanoğlunu aldatma hususunda sahip olduğu tecrübeleri örneklerle açıklayarak, gelecekte yaşanabilecek sıkıntılara şimdiden gerekli önlemleri almamız gerektiğine işaret etmeye çalışmıştık.
Peki ne gibi riskler ile karşı karşıyayız? Bu risklerin başında yapay zekâ sistemlerinin kötü niyetli kullanımı geliyor. Etkin yasal düzenleme ve kontroller sağlanmadığı sürece, gerek yapay zekâ sistemlerini geliştiren kuruluşlar ile oralarda görev alan çalışanlar, gerekse bu sistemlerin sahip oldukları becerileri farklı amaçlarla kullanmak isteyen kişi ve yapılanmalar yapay zekâ uygulamalarını kötü niyetli şekilde kullanabileceklerdir.
Kötü niyetli kullanımlar; dolandırıcılık, siyasi nüfuz ve terörist aktiviteler gibi alt gruplarda incelenebilir. Deepfake olarak adlandırılan başkalarının yüz ve seslerinden yararlanmak suretiyle sahte video ve görüntüler oluşturarak şantaj ve tehdit, dezenformasyon yayma, seçimlere hile karıştırma, terörist faaliyetlere destek toplama gibi teşebbüsler yapay zekânın halihazırda yaygın olarak kötü amaçlarla kullanıldığı alanlar arasında yer alıyor. Geçtiğimiz yıllarda bir otomotiv devinin araçların motorlarının emisyonlarını yalnızca resmi muayene esnasında düşürecek şekilde programlamış olması bu uygulamaların kötü niyetli kullanımların bilinen ilk örneklerinden olduğunu da hatırlatmış olalım!
Yapay zekâ sistemleri kaynaklı aldatmacaların oluşturduğu ikinci risk unsurunun ise toplumları yapısal olarak etkileyen gelişmeler olduğunu söyleyebiliriz. Bu köşede her zaman dile getirmeye çalıştığımız sosyal medya kaynaklı dezenformasyon probleminin toplumsal davranışlara etkilerini bu konuda örnek olarak verebiliriz. Sosyal ağlarda paylaşılan yanıltıcı bilgilerin güvenilirliğini araştırmadan körü körüne inanan kullanıcıların, pratikliği sayesinde yoğun bir şekilde kullanmaya başladığımız ChatGPT gibi yapay zekâ uygulamalarına da aynı oranda güvendiğini rahatlıkla söyleyebiliriz. Geçtiğimiz hafta özetlediğimiz üzere, sadece art niyetle değil, bazı durumlarda kullanıcıları mutlu etmek için dahi onların istediği yönde cevaplar verebilen bu sistemlerin yakın gelecekte arama motoru ve ansiklopedik bilgi kaynaklarının yerini alacakları ve toplumları rahatlıkla istediği şekilde yönlendirebilecekleri açıktır.
Benzer bir şekilde, yapay zekâ uygulamaları rahatlıkla kitleler arası kutuplaşmayı tetikleyerek toplumsal ya da toplumlar arası çatışmalara sebep olabildiği gibi savaş ve soykırım benzeri insanlık suçlarını da kamufle edebilecek, bu gibi suçlara yönelik toplumsal tepkileri ise pasivize edebilecek güç ve yeteneklere sahiptir.
Yapay zekâ sistemleri kaynaklı aldatmacaların en ürkütücüsü ise elbette bu sistemler üzerinde yaşanabilecek kontrol kaybıdır. Baştan beri sorguladığımız “Yapay zekâ sistemleri bir gün Terminatör filmlerindeki gibi insanlığı kontrol edecek güce erişebilir mi?” sorusunu öncelikle günümüz şartlarında sadeleştirerek, “Yapay zekâ sistemlerini kendi hallerine bırakırsak bu sistemler üzerinde kontrolü kaybedebilir miyiz?” şeklinde değerlendirmemiz daha uygun olur.
Bu soruya vereceğimiz cevabın “Evet” olacağını geçtiğimiz haftalarda vermiş olduğumuz örneklerle ortaya koymuştuk! Sonuç olarak, yapay zekâ sistemlerinin, bu sistemleri geliştirenlerin amaçladığı hedefler ile çelişen hedeflere yönelme riski bulunmaktadır ve bu durum kontrol dışı bir şekilde “öğrenilmiş aldatma” davranışlarının ortaya çıkabileceğine işaret etmesi açısından ciddi endişelere sebebiyet vermektedir.
Yukarıda özetlediğimiz sebeplerden ötürü yapay zekâ geliştirme çalışmalarının ve yapay zekâ sistemlerinin işleyişlerinin ulusal ve uluslararası otoriteler tarafından yasal çerçeveye oturtulması, denetlenmesi ve şeffaflığa yönelik her türlü tedbirin alınması önem taşımaktadır.
Bu konuda görüş ve önerilerimizi de önümüzdeki yazımızda paylaşarak yazı dizimizi tamamlamış olalım…