“Yarım hekim candan eder, yarım hoca dinden eder” atasözü, içinde bulunduğumuz yapay zekâ çağı için oldukça anlamlı bir karşılık buluyor. ChatGPT gibi araçlar, doğru kullanıldığında hayatı kolaylaştıran ve bilgiye hızlı erişim sağlarken, onları tek ve mutlak doğru kaynağı olarak görmeye başladığımızda, hakikat arayışımız da benzer şekilde tehlikeye girmeye başlıyor.

Günümüzde pek çok kişi, haber okurken, ödev yaparken, sağlıkla ilgili meraklarını giderirken veya dinî sorulara yanıt ararken artık ChatGPT gibi sistemlere başvuruyor. Bu araçların gücü, akıcı ve etkileyici cümleler kurabilmelerinden kaynaklanıyor. Hâl böyle olunca, kendinden emin bir tonla bu sistemler tarafından sunulan yanıtlar da genellikle ikna edici oluyor. Fakat şöyle de bir gerçek var ki, yapay zekâ sistemleri her şeyi "biliyormuş gibi" cevaplar vermelerine rağmen, doğabilecek olumsuz sonuçlara yönelik hiçbir şekilde sorumluluk üstlenmezler.

Sağlık alanındaki güncel örnekler bu durumun tehlikesini gözler önüne seriyor. Yakın zamanda yaşanan "bromizm vakası", bir kişinin ChatGPT'nin tavsiyesiyle sofra tuzunu sodyum bromürle değiştirmesi ve ciddi şekilde zehirlenmesiyle sonuçlanmıştı. Bu vaka, ChatGPT başta olmak üzere yapay zekâ uygulamalarının dijital olarak "yarım hekim"e dönüşümlerinin en güzel örneklerinden birisidir.

Benzer bir sorun din alanında da gözlemlenmektedir. Özellikle ChatGPT, dini konularda hiç tereddüt etmeden, adeta bir "e-fetva" makinesi gibi cevap verebilmektedir. Kullanıcı bir ayet, hadis veya dua hakkında soru sorduğunda, sistem gerçek kaynakların aralarına uydurma ifadeler serpiştirebilmekte; bu da sıradan bir kullanıcının hakikat ile dezenformasyonu ayırt etmesini zorlaştırmaktadır. Ayrıca, sistem tarafından sunulan uygulama ile özelleştirilmiş yüzlerce dinî GPT modeline erişim imkânı sunulmasına rağmen, bunların arka planında herhangi bir ilmî heyet veya yetkili kurum yer almadığı, çoğu projenin meraklı yazılımcı ya girişimciler tarafından amatörce geliştirildiği görülmektedir. Bu durum, denetimsiz dijital "yarım hocaların" yaygınlaşmasına yol açmaktadır.

Sorun sadece münferit olarak hatalı cevapların varlığı değil, aynı zamanda gerçek ile kurgu arasındaki sınırın bulanıklaşmasıdır. Yapay zekâ tarafından, ikna edici bir üslup ile gerçek bilgiler arasına serpiştirilmiş olan, gerçekte var olmayan uydurulmuş kaynaklar, kitaplar veya akademik referanslar, kullanıcıların düzgün formatlanmış ve ciddi görünen bu metinlere inanmasını kolaylaştırmaktadır. Bu durum, zamanla hangi bilginin gerçek, hangisinin sahte olduğuna dair güven duygusunun zedelenmesine sebep olabilecektir.

Günümüzde yapay zekâ araçlarından tamamen uzaklaşmanı mümkün olmaması sebebiyle, bu araçların kullanım amaçlarını ve sınırlarını doğru belirlemek önem taşımaktadır. ChatGPT gibi popüler yapay zekâ araçları, bir konu hakkında pratik bir şekilde temel bilgilere erişmek veya araştırma öncesi genel bir bakış elde etmek için faydalı olabilir. Ancak sağlık, din ve hukuk gibi hayati önem taşıyan alanlarda asla nihai referans kabul edilmemelidir. Sağlıkla ilgili bir konuda son söz daima bir uzman hekime ait olmalıdır. Benzer şekilde, dinî meselelerde güvenilir ilmî otoritelerin ve kurumsal yapıların rehberliği vazgeçilmezdir.

Özetle, "Yarım hekim candan eder, yarım hoca dinden eder" sözüne, dijital çağda "yarım yapay zekâ da hakikatten eder" ifadesini eklemek mümkün görünüyor. ChatGPT ve benzeri araçlar, doğru kullanıldığında değerli birer yardımcıdır; ancak onları başköşeye koyup mutlak otorite haline getirdiğimizde, sahte bir otorite taklidinden öteye gidemezler. Yapay zekâ, bilgiye erişimi kolaylaşmış olsa da, hakikati arayışımızda sorgulama, emek ve uzmanlara danışma zorunluluğu devam etmektedir.