Openai'nin en son AI modellerinin büyük bir sorunu var gibi görünüyor. Bir rapor, GPT O3 ve O4-mini'nin endişe verici bir oranda yanlış bilgi ürettiğini ortaya koyuyor.
AI tarafından üretilen yanlış bilgi, yani halüsinasyonlar, çoğu yapay zeka hizmeti arasında yaygındır.New York TimesOpenai tarafından kendi modellerinin diğerlerinden daha fazla sahte içerik ürettiğini keşfeden bir soruşturma yayınladı. Bu da güvenilirlikleri konusunda ciddi endişeler yarattı.
GPT O3 ve O4-mini, insan akıl yürütmesini ve mantığını taklit etmek için tasarlanmıştır. Bunlar, halka açık figürleri içeren ölçütlerle teste konulduğunda, GPT O3'ün sonuçlarının yaklaşık üçte birinin halüsinasyon olduğu bulunmuştur. Buna karşılık, GPT O1 geçen yıl yapılan testlerde bu hata oranının yarısından daha azına sahipti. GPT O4-mini, görevlerinin% 48'inde halüsinasyona uğradığı için daha da kötüleşti. Bu modeller genel bilgi sorularını ele aldığında, halüsinasyonlar GPT O3 için% 51'e ve O4-mini için şaşırtıcı bir% 79'a yükseldi.
Openai, halüsinasyon probleminin akıl yürütme modellerinin daha kötü olduğu için değil, cevaplarında daha ayrıntılı ve maceracı olabilecekleri ve öngörülebilir gerçekleri tekrarlamak yerine olasılıkları spekülasyon yaptıkları için söylüyor. Geliştiriciler başlangıçta bu sistemlerin karmaşık sorgularla eleştirel düşünmesini ve akıl yürütmesini amaçladılar; Bununla birlikte, bu iddialı yaklaşım, gerçeklik pahasına yaratıcılıkta bir artışa yol açmış gibi görünmektedir.
Ayrıca okuyun:Hangi arama motoru en endişe verici sonuçları döndürür?
Antropik Claude Google Gemini gibi rakip hizmetler, daha doğru bir şekilde bilgi sağlamak için tasarlandığından, Openai'nin chatgpt için büyük bir sorun yaratabilir. Yüksek güven tahminlerine odaklanan daha basit modellerin aksine, GPT O3 ve O4-mini genellikle spekülasyon yapar ve olası senaryolar ve açık imalatlar arasındaki çizgiyi bulanıklaştırır. Bu, hukuk profesyonellerinden eğitimcilere ve sağlık hizmeti sağlayıcılarına kadar yüksek bahisli ortamlardaki kullanıcılar için kırmızı bayraklar yükseltir.
Yapay zeka ne kadar yararlı olursa, kritik hatalar potansiyeli o kadar büyük olur. AI modelleri belirli görevlerde insanlardan daha iyi performans gösterebilirken, yanlışlık riski AI'nın genel güvenilirliğini azaltır. Bu halüsinasyon sorunları etkili bir şekilde ele alınana kadar, kullanıcılara AI tarafından oluşturulan bilgilere dikkat ve şüphecilikle yaklaşmaları tavsiye edilir.
Kaynak:Teknoloji radarı
