Yapay zekâ uygulamaları, yalnızca üç yıl gibi kısa bir sürede hayatımızın ayrılmaz bir parçasına dönüşürken, insan zihninin düşünme ve karar verme pratikleri üzerinde de geri dönülemez etkiler bırakmaya başladı. Geçmişte zaman alan araştırma süreçlerini, hatta basit karar mekanizmalarını bile bu sistemlere devretmekte bir sakınca görmüyoruz. Özellikle ileri yaş grupları başta olmak üzere geniş kitleler açısından bu uygulamalar geleneksel arama motorlarının yerini almış durumda. Ancak, arama motorlarının sunduğu onlarca farklı kaynak arasından en uygun olanları seçme zahmetine girmek yerine, hazırlanıp önümüze sunulmuş ‘hazır bilgi’nin konforuna teslim olmak beraberinde ciddi bir güvenilirlik krizini de getiriyor. Bireyler, hız ve güvenilirlik arasındaki bu ikilemde çoğu zaman konforu tercih ederken, arka planda işleyen sistemin teknik zaaflarının çoğu zaman farkına bile varamıyor.
Bu sorunun merkezinde, yapay zekâ sektörünün kullanıcı alışkanlıklarını şekillendirme biçimi ve modelleri optimize etme öncelikleri yatıyor. Günümüzde geliştirilen modeller, doğruluğu kanıtlanmış bilgiyi sunmaktan ziyade, kullanıcıyı bekletmemek ve akıcı bir yanıt üretmek üzerine kurgulanmış durumda. Sektördeki baskın anlayış, sistemin duraksamasını veya yapay zekâ araçlarının "bunu bilmiyorum" demesini bir başarısızlık olarak algıladığı için, ChatGPT başta olmak üzere popüler uygulamaların yeni sürümleri, kullanıcıları “cevapsız bırakmama” ve ne pahasına olursa olsun “bir şey üretme” refleksiyle hareket etmek üzere kodlanıyor.
Bu optimizasyon tercihi, modellerin en hayati savunma mekanizması olan “dur – doğrula – gerekirse bekle” refleksini baskılaması sebebiyle ciddi sorunlara sebep olabiliyor. Sistem, kullanıcıyı bekletmemek adına teknik bir zorunluluk hissetmediği sürece durup doğrulama yapmak yerine, geçmiş veri setlerinden öğrendiği örüntüleri taklit ederek tahminler yürütmek suretiyle kullanıcıların sorularını cevaplamayı tercih ediyor.
Sonuç ise özellikle akademik, hukuki, tıbbi veya kurumsal bağlamda affedilemeyecek düzeyde, ‘halüsinasyon’ olarak adlandırılan ve gerçeklikten kopuk ‘fabrikasyon’ içeriklerin ortaya çıkmasıyla sonuçlanıyor. Örneğin, gerçekte var olmayan mahkeme kararları, uydurma akademik makalelere atıf, yanıltıcı tıbbi ya da sağlıklı beslenme önerileri ile kullanıcılar ciddi risk altına girebiliyor. Hatta, kullanıcıların "tahmin etmeni/sahte bilgiler üretmeni kesinlikle istemiyorum, araştırarak doğru cevap ver" benzeri uyarılarına rağmen dahi, ChatGPT gibi popüler modeller örüntüler üzerinden tahminlemede bulunma konusunda ısrar edebiliyor. Bu durum ise, teknik bir kodlama hatasının aksine, tasarımcıların sistemin hız ve akıcılığı lehine yaptığı bilinçli bir davranışsal tercih olarak ortaya çıkıyor.
Meselenin özü, İnternet’in geçer akçesi haline gelen ‘hız’ ile ‘bilginin kalitesi’ arasındaki çatışma ile doğrudan ilişkili. Tıpkı günümüzün “fast food” endüstrisinde üretimi pratik, tüketimi ise hızlı olması sebebiyle anlık tatmin sağlayan ancak besin değeri düşük gıdaların, kısık ateşte saatlerce pişirilen ancak lezzetli ve sağlıklı yemeklerin önüne geçtiği gibi, bilgiye ulaşma konusunda da bireyler maalesef hızlı ulaşılan ancak doğruluğu şüpheli çıktılara öncelik veriyor. O yüzden de, çoğu modelin bir sonraki kelimeyi istatistiksel olarak en hızlı şekilde tahmin etmeye programlanmış olmasını, bu sığ sürecin bir sebebi değil sonucu olarak ifade edebiliriz.
Oysa gerçek bir ‘düşünme’ süreci; olasılıkları tartmayı, mantıksal yolları denemeyi ve en önemlisi kendi çıktısını denetlemeyi gerektiren ciddi aşamalar gerektiriyor. Bu sürecin doğası gereği zaman alıcı olması sebebiyle, kullanıcılara daha hızlı cevaplar sunabilme baskısı ile kontrol mekanizmaları çoğu zaman devre dışı kalıyor. Özellikle akademik kullanımlarda, örneğin kod yazarken, ya da araştırma yaparken “hızlı ancak hatalı cevap almak” ile “doğru cevabın sorgulanmasını beklemek” arasındaki tercih, ‘kalitenin bedeli’ olarak karşımıza çıkıyor.
Bu tablonun asıl sorumlusu, teknolojiyi geliştiren firmaların rekabet uğruna güvenliği ve doğruluğu ikinci plana atması olarak görülüyor. Sektör, yukarıda belirttiğim sebeplerden ötürü, modellerin halüsinasyon görme eğilimini veya durması gereken yerde durmamasını bir ‘hata’ olarak değil, yaratıcılık, akıcılık veya hızın doğal bir sonucu olarak sunma eğiliminde davranışlar sergiliyor. Ancak bu yaklaşım, dezenformasyon ve provokasyona zemin hazırlarken; toplumun bilgiyle kurduğu ilişkiyi ciddi anlamda zehirliyor. O yüzden de, an itibariyle sektörde kısa vadeli kazanımlara odaklanılırken, uzun vadeli etik sorumluluklar ihmal edilerek, yapay zekânın toplumsal etkileri bağlamında ciddi risklere zemin hazırlanıyor.
Gelecekte bu sorunun, özellikle telafisi mümkün olmayan ciddi zararlara yol açması ve bunun sonucunda çok sert yasal regülasyonların gündeme gelmesi kaçınılmaz görünüyor. Özellikle hukuk alanında yanlış danışmanlık, sağlıkta hatalı teşhis önerileri veya akademide sahte referanslar gibi vakalar arttıkça, hükümetler ve uluslararası kurumlar müdahale etmek zorunda kalacaktır.
Avrupa Birliği'nin mevcut veri koruma regülasyonlarını genişleterek yapay zekâ için zorunlu doğrulama standartları getirmesi veya ABD'de sektörel denetimlerin yaygınlaşması muhtemeldir. Bu regülasyonlar, modellerin halüsinasyon oranlarını raporlama zorunluluğu veya kritik alanlarda yavaş ama güvenli modlar gerektirebilir. Ancak, regülasyonlar tek başına yeterli olmayabilir, çünkü aşırı kısıtlamalar da nihayetinde inovasyonun önünde ciddi engeller oluşturacaktır.
O yüzden de, kısa vadede çözüm, geliştiricilerin “hızlı ama sahte ya da yanlış bilgiler” yerine “yavaş ama doğru bilgiler” üretme prensibini bir seçenek değil, bir zorunluluk olarak sistemlere entegre etmesinde yatıyor. Öncelikle modellerin tasarımında “doğrulama önceliği” ilkesini varsayılan hale getirmek gerekiyor. Örneğin, kullanıcı istemleri belirli kaynaklardan güncel verilere erişimi gerektiriyorsa, o kaynaklar görülmeden tek kelime üretilmemeli; resmi kaynaklara bağlı sorgularda sistem otomatik olarak durup kullanıcıdan ek bilgi talep etmeli veya entegre araçlarla gerçek zamanlı doğrulama yapmalıdır.
Hız, ancak doğrulukla taçlandırıldığında değerlidir. Aksi takdirde sadece daha hızlı yanılmamıza hizmet eder. Ayrıca, yavaş ama kaliteli modellerin teşvik edilmesi, kullanıcıların hız beklentilerine bağlı oluşabilecek hatalara karşı uyarılması ve hibrit alternatiflerin geliştirilmesi gibi yaklaşımlar faydalı olabilir. Örneğin, hızlı yanıtlar basit sorgular için ayrılırken, kritik konular yavaş modda sonuçlandırılabilir.
Nihayetinde, yapay zekânın geleceği, ‘hız’ değil ‘etik ve doğruluk’ temelli bir evrimi gerektiriyor. Ancak bu sayede, yapay zekâ araçları toplumun karar verme süreçlerini destekleyen güvenilir yardımcılar haline gelebilir. Eğer bir yapay zekâ aracı, sunduğu bilgilerin kaynağını teyit etmeden cevaplar verebiliyorsa, orada zekâ değil, tehlikeli bir ezbercilik var demektir. O yüzden de sektör tarafından proaktif adımlar atılmadığı sürece, üç yıl gibi kısa bir sürede yapay zekâ uygulamalarına yönelik oluşan güvenin çok daha kısa bir sürede kaybolmaya başlaması da kaçınılmaz olacaktır.