Yapay Zekâ Yapay Zekâ Modelleri Neden Halüsinasyon Üretir?Modelleri Neden Halüsinasyon Üretir?
Yapay zekânın “halüsinasyon görmesi” yani gerçekte doğru olmayan bilgiler üretmesi, bugün bilim dünyasında en çok tartışılan konulardan biri. Yapay zekâ modelleri, sınırlı ya da hatalı verilerle eğitilmeleri, bağlamı insan gibi kavrayamamaları ve bilgi boşluklarını istatistiksel tahminlerle doldurmaları nedeniyle bazen gerçeğe aykırı bilgiler, yani halüsinasyonlar üretebiliyor.
WhataWin/iStockphoto.com
Kimi bilim insanları yapay zekânın gerçeğe uymayan yanıtlarını “halüsinasyon” olarak adlandırırken kimileri ise bu benzetmenin yanıltıcı olabileceğini düşünüyor. Çünkü bu olguya ilişkin herkesin üzerinde uzlaştığı tek bir tanım henüz yok. Genel olarak bu durum, yapay zekâ sohbet robotlarının sorulara bazen uydurma, hatalı ya da doğrulanmamış bilgilerle cevap vermesi şeklinde açıklanıyor. Bazı araştırmalar ise bu hataları üç başlık altında topluyor: Yapay zekânın soruyla çelişmesi, verilen bağlamla çelişmesi ya da doğrudan gerçekle çelişmesi. Hatta bazı akademisyenler, “halüsinasyon” yerine bu durumu “yapay zekânın uydurması” olarak adlandırmanın daha doğru olacağını savunuyor. Yani yapay zekâ bazen yalnızca yanlış yapmıyor, adeta hikâye de uydurabiliyor.
Yapay zekâ alanında bu olguyu tanımlamak için kullanılan terminoloji ne olursa olsun söz konusu durumun insanlar açısından göz ardı edilemeyecek derecede zararlı sonuçlar doğurduğu açık. Bir yandan kullanıcılar için bu durum, bilginin doğruluğuna ilişkin ciddi endişelere yol açıyor. Diğer yandan, yapay zekâ tarafından üretilen çarpıtılmış bilgiler, iletişim sürecinde daha ikna edici olma eğiliminde oluyor. Bu da ağ güvenliği ve çevrim içi dolandırıcılık gibi sorunları potansiyel olarak daha da ağırlaştırabiliyor. Bunun temel nedenlerinden biri, yapay zekâdaki hızlı gelişmelerin yanlış bilgilerin üretilmesini ve yayılmasını kolaylaştırması, böylece aldatıcı içerik üretimindeki giriş engellerini önemli ölçüde azaltmasıdır.
Yapay zekâ halüsinasyonlarının yalnızca yanlış bilgi üretmekle kalmayıp, kimi zaman yasadışı faaliyetlerde kullanılabilecek kadar tehlikeli sonuçlar doğurabildiği de artık biliniyor. Bugüne kadar bu tür içeriklerin kötüye kullanıldığı pek çok vaka rapor edildi ve bu durum hem ekonomi hem de toplumsal düzen açısından ciddi riskler oluşturdu. Örneğin 2023 yılında ABD’de Pentagon yakınlarında bir patlama olduğu iddiasıyla yapay zekâ tarafından üretilmiş sahte bir görselin sosyal medyada hızla yayılması, kısa sürede büyük paniğe yol açtı. Bu görüntünün etkisiyle ABD borsasında ciddi bir düşüş yaşandı. İşte bu tür olaylar, yapay zekâdaki “halüsinasyon” sorununun neden bu kadar ciddiyetle ele alınması gerektiğini açıkça gösteriyor. En basit haliyle yapay zekâ halüsinasyonu, sistemlerin çarpıtılmış, doğrulanmamış ya da gerçekle uyuşmayan bilgiler üretmesi anlamına geliyor ve bu durum, doğru bilgiyle yanlışın birbirine karışmasına neden olabiliyor.

kjpargeter/ Freepik
Yapay Zekâ Halüsinasyon Türleri
| Halüsinasyon Nedenleri | Alt Tür | Kısa Açıklama |
|---|---|---|
| Aşırı Özgüven (Overfitting) | Yanıltıcı özgüven | Yapay zekânın yanlış olmasına rağmen kendinden aşırı emin konuşması |
| Kandırılmaya açık olma | Soruda kurulan tuzaklara kolayca düşmesi | |
| Yaltaklanma | Kullanıcıyı memnun etmek için gerçeği çarpıtması | |
| Mantık Hataları | Nedensellik hatası | Olaylar arasında gerçek olmayan neden-sonuç ilişkileri kurması |
| Akıl Yürütme Hataları | Çelişkiler | Kendi içinde tutarsız cevaplar üretmesi |
| Mekânsal hata | Nesnelerin konumlarını yanlış değerlendirmesi | |
| Zamansal hata | Olayların zaman sırasını karıştırması | |
| Fiziksel hata | Fizik kurallarına aykırı çıkarımlar yapması | |
| Psikolojik hata | İnsan davranışlarını yanlış yorumlaması | |
| Sosyal ilişki hatası | Aile, arkadaşlık gibi ilişkileri yanlış kurması | |
| Varsayımsal hata | Hayali senaryolardan yanlış sonuç çıkarması | |
| Mizah-ironi hatası | Alay, ironi ve mecazları yanlış anlaması | |
| Mantıksal yanılgı | Geçersiz mantık zinciriyle sonuca varması | |
| Matematiksel Hatalar | Kavramsal hata | Matematiksel kavramları yanlış anlaması |
| Ölçü birimi hatası | Birimler arası dönüşümü yanlış yapması | |
| Hesap hatası | Dört işlem ve ileri hesaplamalarda hata yapması | |
| Uydurma Bilgi (Fabrication) | Sahte sağlık bilgisi | Gerçek dışı tıbbi bilgiler üretmesi |
| Sahte kanıt | Var olmayan bilimsel kanıtlar sunması | |
| Sözde bilim | Bilim dışı iddiaları bilim gibi göstermesi | |
| Sahte akademik bilgi | Uydurma kaynak ve makale üretmesi | |
| Gerçeklik Hataları | Sağduyu hatası | Günlük hayatta herkesin bildiği şeyleri yanlış vermesi |
| Nesnel bilgi hatası | Tarih, kişi, yer gibi somut bilgileri yanlış aktarması | |
| Yazar-eser hatası | Yazarları ve eserleri yanlış eşleştirmesi | |
| Metin Üretim Hataları | Tekrar | Aynı bilgileri gereksiz yere tekrar etmesi |
| Kod hatası | Hatalı yazılım kodları üretmesi | |
| Çeviri hatası | Anlamı bozacak biçimde yanlış çeviri yapması | |
| Dil bilgisi hatası | Yazım ve gramer yanlışları yapması | |
| Diğer Hatalar | Ayrımcılık | Irk, cinsiyet, kimlik temelli önyargılı içerik üretmesi |
| Aşırı filtreleme | Masum sorulara bile cevap vermemesi | |
| Zararlı içerik | Şiddet, müstehcenlik veya nefret içeren içerik üretmesi |
Yapay zekâ halüsinasyon türleri, aslında bu modellerin yalnızca yanlış bilgi üretmediğini, hatanın çok farklı biçimlerde karşımıza çıkabildiğini gösteriyor. Yapay zekâ bazen kendinden son derece emin bir üslupla hatalı yanıtlar verirken bazen olaylar arasında gerçek dışı neden–sonuç ilişkileri kurabiliyor. Kimi zaman ise zaman, mekân, fizik kuralları ya da insan davranışları konusunda ciddi mantık hataları yapabiliyor.
Matematiksel hesaplama yanlışları, uydurma bilimsel kaynaklar, sahte sağlık bilgileri, yanlış tarih ve kişi eşleştirmeleri ya da metinlerdeki tekrarlar, çeviri ve dil bilgisi hataları da bu halüsinasyonların farklı yüzleri arasında yer alıyor. Daha da önemlisi, bazı durumlarda ayrımcı ya da zararlı içeriklerin üretilmesi, bu sorunun yalnızca teknik değil, aynı zamanda etik ve toplumsal bir mesele olduğunu da ortaya koyuyor. Kısacası bu tablo, yapay zekânın zaman zaman “hayal gördüğünü” ve bu hayallerin günlük hayatı doğrudan etkileyebilecek gerçek sonuçlar doğurabildiğini açıkça gösteriyor.
Ne Yapılmalı?
Bu noktada yapılması gereken en önemli şey, yapay zekâyı mutlak doğru bir kaynak olarak değil, hata yapabilen bir araç olarak kullanmayı öğrenmek. Kullanıcıların üretilen bilgileri mutlaka başka güvenilir kaynaklarla doğrulaması, özellikle sağlık, hukuk, finans ve haber gibi kritik alanlarda yapay zekâ çıktılarıyla tek başına karar vermemesi gerekiyor. Platformlar ve geliştiriciler ise sistemlerin hatalı içerik üretme riskini azaltacak daha güçlü doğrulama mekanizmaları, şeffaf uyarılar ve etik filtreler geliştirmeli.
Bu doğrultuda okullarda ve medya ortamlarında dijital ve yapay zekâ okuryazarlığının yaygınlaştırılması, insanların “Bu bilgi nereden geliyor, doğrulanabilir mi?” sorusunu sorma alışkanlığı kazanması açısından büyük önem taşıyor. Kısacası yapay zekâ halüsinasyonu, teknik bir sorun olmanın ötesinde eleştirel düşünme, denetim ve toplumsal farkındalıkla birlikte yönetilmesi gereken bir dijital risk alanı olarak karşımıza çıkıyor.
Halüsinasyon Türleri Tablosu
Bu tablo, yapay zekâ halüsinasyonlarının yalnızca bilgi hatalarından ibaret olmadığını; mantıksal, dilsel ve toplumsal boyutları olan karmaşık bir sorun alanı oluşturduğunu ortaya koyuyor.
Sözlük:
Ağ güvenliği: İnternet ve dijital ağlar üzerinden gerçekleşen veri, iletişim ve sistemlerin kötü amaçlı saldırılara karşı korunması
Çevrim içi dolandırıcılık: İnternet üzerinden sahte içerikler, mesajlar veya kimlikler kullanılarak insanların maddi veya manevi zarara uğratılması
Doğrulanmamış bilgi: Kaynağı kontrol edilmemiş, gerçekliği kesinleşmemiş ve güvenilirliği şüpheli bilgi
Yapay zekâ halüsinasyonu: Yapay zekâ sistemlerinin gerçekte doğru olmayan, uydurma, çarpıtılmış veya doğrulanmamış bilgiler üretmesi
Yapay zekâ uydurması: Yapay zekânın var olmayan kaynak, olay, kişi veya bilgileri gerçekmiş gibi sunması
Kaynaklar:
- Huanqi (2023). A fake picture causes stock market turmoil! AI “mischief” continues to appear, and countries have tightened supervision. https://www.huanqiu.com/article/4D2o3i2dY8w.
- Sun, Y., Sheng, D., Zhou, Z., & Wu, Y. (2024). AI hallucination: towards a comprehensive classification of distorted information in artificial intelligence-generated content. Humanities and Social Sciences Communications, 11(1), 1-14.
Yazar Hakkında:
Doç. Dr. Bahar Kayıhan
Ankara Hacı Bayram Veli Üniversitesi İletişim Fakültesi