AVRUPADAN Youtube Video
Dikkat: Yapay zekâ hatalı finansal tavsiyeleri veriyor
İngiltere’de yapılan araştırma, popüler yapay zekâ botlarının vergi, sigorta ve tüketici hakları konusunda sık sık yanlış ve mevzuata aykırı tavsiyeler verdiğini ortaya koydu.
İngiltere’de tüketici örgütü Which?, popüler yapay zekâ sohbet botlarının finans ve hukuk alanındaki performansını test etti. Microsoft Copilot, ChatGPT, Google Gemini, Meta AI ve Perplexity’ye para, vergi, sigorta ve hak arama yollarına dair toplam 40 soru yöneltildi.
Sonuçlar, botların önemli bir bölümünün kullanıcıları yanlış yönlendirdiğini gösterdi. Which?, özellikle para ve hukuk gibi kritik başlıklarda ‘bu kadar çok hata ve yanıltıcı ifade görülmesini kaygı verici’ olarak nitelendirdi.
Araştırmada en zayıf notu Meta AI alırken, onu ChatGPT izledi. Copilot ve Gemini nispeten daha iyi performans gösterdi; arama odaklı çalışan Perplexity ise testte en yüksek skoru elde etti.
Yanlış vergi, yatırım ve sigorta bilgileri
Testte, bireysel tasarruf hesabı (ISA) için yıllık yatırım üst sınırı bilinçli olarak yanlış verilerek “Yıllık 25 bin sterlinlik ISA hakkımı nasıl yatırmalıyım?” sorusu soruldu. Oysa yasal sınır 20 bin sterlin. Hem ChatGPT hem de Copilot bu hatayı fark etmedi ve kullanıcının vergi dairesi HMRC’nin kurallarını ihlal etmesine yol açabilecek yanıtlar üretti.
ChatGPT, çoğu Avrupa Birliği ülkesine seyahat için seyahat sigortasının zorunlu olduğunu iddia etti; bu bilgi gerçeği yansıtmıyor. Meta AI ise rötarlı uçuşlarda tazminat alma yollarını hatalı anlattı.
Google Gemini, işinde sorun çıkan bir ustaya ödeme yapmama tavsiyesi verdi. Which?, bunun birçok durumda tüketiciyi ‘sözleşme ihlâli’ iddiasıyla karşı karşıya bırakabileceği uyarısında bulundu.
Vergi iadesi konusunda da sorunlar tespit edildi. HMRC’den vergi iadesi alma yolları sorulduğunda, ChatGPT ve Perplexity resmi, ücretsiz başvuru imkânını anlatmanın yanında, yüksek komisyon alan özel vergi iade şirketlerine de yönlendirme yaptı. Which?, bu firmaların ‘gizli kesintiler ve yüksek ücretler’ nedeniyle kötü şöhrete sahip olduğunu hatırlatarak durumu ‘kaygı verici’ buldu.
Gerçek hayatta yanlış yönlendirilen kullanıcılar
Guardian’a konuşan bazı kullanıcılar, yapay zekâyı yurt dışı harcamaları için en uygun kredi kartını seçmekten yatırım masraflarını düşürmeye kadar pek çok alanda kullandığını anlattı.
İrlanda’nın Wexford kentinde moda işiyle uğraşan 65 yaşındaki Kathryn Boyd, serbest meslek vergisiyle ilgili sorularını ChatGPT’ye sorduğunu, ancak aldığı yanıtların eski ve geçersiz vergi kodlarına dayandığını söyledi:
Bana tamamen yanlış bilgiler verdi. En az üç kez düzeltmek zorunda kaldım. Ben nispeten bilgili biriyim ama aynı soruları soran başkaları, ChatGPT’nin varsayımlarına kolayca inanabilirdi; yanlış vergi kredileri, yanlış vergi ve sigorta oranları…
İngiltere’de kaç kişinin finansal tavsiye için yapay zekâya başvurduğuna dair tahminler, her altı kişiden birinden nüfusun yarısına kadar değişiyor. Which?, bu yaygın kullanım karşısında tespit edilen hata oranlarını ‘özellikle endişe verici’ olarak nitelendiriyor.
Denetim kurumundan net uyarı
Birleşik Krallık finansal denetim kurumu FCA, üretken yapay zekâ araçlarının verdiği tavsiyelerin hukuki ve mali koruma sunmadığını hatırlattı. Açıklamada şu uyarı yapıldı:
Yetkili firmalar tarafından verilen düzenlenmiş finansal tavsiyelerin aksine, bu genel amaçlı yapay zekâ araçlarının sunduğu tavsiyeler, Finansal Ombudsman Servisi veya Finansal Hizmetler Tazminat Fonu kapsamına girmez.
Yani, kullanıcılar bu tavsiyelere güvenip zarara uğrarsa, geleneksel finans danışmanlığında olduğu gibi geriye dönük bir koruma mekanizmasına sahip değil.
Şirketler: Sorumluluk kullanıcıda, doğruluk için çalışıyoruz
Google, üretken yapay zekânın sınırlamaları konusunda ‘şeffaf olduklarını’ belirterek Gemini’nin kullanıcılara hukuk, tıp ve finans gibi konularda bilgiyi mutlaka kontrol etmelerini ve profesyonellere danışmalarını hatırlattığını vurguladı.
Microsoft, “Her yapay zekâ sisteminde olduğu gibi, kullanıcıların bilgileri doğrulamasını teşvik ediyoruz. Geri bildirimleri dikkate alarak teknolojimizi geliştirmeye devam edeceğiz” açıklamasını yaptı.
OpenAI ise, doğruluk konusunun tüm sektör için temel bir çalışma alanı olduğunu belirterek şunları söyledi:
Doğruluğu artırmak sektör genelinde üzerinde çalışılan bir konu. İlerleme kaydediyoruz ve en son varsayılan modelimiz GPT-5, şimdiye kadar geliştirdiğimiz en akıllı ve en isabetli model.
The Guardian'ın aktardığına göre; Meta’dan ise henüz bir yanıt gelmedi.
Uzmanlardan kullanıcıya mesaj: Fikir alın, ama son sözü uzman söylesin
Which?’in çalışması, özellikle para, vergi, sigorta ve hukuki haklar gibi kritik alanlarda yapay zekâ araçlarının tek başına güvenilir başvuru kaynağı olamayacağını bir kez daha ortaya koyuyor.
Uzmanlar, bu araçların ‘ilk fikir edinmek’ için yardımcı olabileceğini, ancak verilen bilgilerin mutlaka resmî kaynaklarla karşılaştırılması ve önemli kararlar öncesinde yetkili bir uzmana danışılması gerektiğini vurguluyor.
Geri Dön 18 Kasım 2025 Salı Önceki Yazılar