Yapay zekâ her yerde. Genellikle pek farkına varmadan da olsa yapay zekâ ile zaten pek çok alanda uzun yıllardır karşılaşıyorduk. Üzerinde oldukça uzun zamandır çalışılan bir teknoloji bu. Ancak geçtiğimiz son birkaç yıl içerisinde gösterdiği ciddi gelişim hızı, insanların ağzını açık bırakacak şeyleri kolaylıkla yapabilir hale gelmesi, günlük hayatı oldukça kolaylaştırabilir olması ve kullanımının kolaylığı ile beraber günümüzde popülerliği hiç olmadığı kadar artmış durumda. Bu bağlamda, yapay zekâ ile bağlantılı bazı terimlerin ne olduğu hakkında fikir sahibi olmak faydalı olacaktır diye düşünüyorum. Bu yazı serisinde, bu terimlerin üzerinden teknik detaylarda boğulmadan, olabildiğince sade bir dille geçiyor olacağız.

Hallucination

Hallucination ya da dilimizdeki karşılığı ile halüsinasyon, yapay zekâ modellerinin olmayan bir bilgiyi varmış gibi anlatmasıdır. Bunu genellikle çok emin bir dille yaptıkları için de inandırıcı olabilmekteler. Lütfen yapay zekâ modellerinin hata yapabildiğini, saçmalayabildiğini ve her söylediklerine inanılmaması gerektiğini unutmayın. Özellikle kritik bilgileri güvenilir kaynaklardan kontrol edin.

Yapay Zekânın Halüsinasyonu

Bir yapay zekâ modeli, elindeki verilere bakarak en olası cevabı tahmin eder. Eğer elinde yeterli veri yoksa veya sorulan soru çok belirsizse boşluğu mantıklı görünen ama yanlış bilgilerle doldurabilir. Verdiği cevabın, elindeki verilere göre sorulan sorunun en olası cevabı olduğunu düşündüğü için de bunu çok emin bir dille yapabilir. Günlük hayattan bir örnek olması açısından birisine bir soru sorduğumuzu düşünelim. Bu kişinin sorulan soru hakkında bilgi sahibi olmadığı halde “bilmiyorum” dememesi ve kendince tahminde bulunarak bir cevap uydurması benzer bir durumdur.

Halüsinasyona Karşı Ne Yapılabilir?

-Soruların net ve sınırları belli şekilde sorulması daha iyi olacaktır.

-Emin değilsen söyle ve benzeri gibi ifadelerin kullanılması daha iyi olacaktır.

-Kritik bilgiler güvenilir kaynaklardan mutlaka doğrulanmalı.

Barış Baran ÇİÇEK