’14 dilde yürütülen araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş–gerçek ayrımı açısından inceledi. Yapılan araştırmaya göre, yapay zeka asistanlarının verdiği yanıtlar incelendiğinde %45’inde en az bir ciddi hata olduğu ortaya çıktı. Ayrıca, %81’inde bir tür sorun tespit edildi….
Yapılan araştırmaya göre, yapay zeka asistanlarının verdiği yanıtlar incelendiğinde %45’inde en az bir ciddi hata olduğu ortaya çıktı. Ayrıca, %81’inde bir tür sorun tespit edildi. Özellikle haber kaynaklarını doğru şekilde atfetmede zorlandığı belirlenen yapay zeka asistanlarının %33’ünde eksik, yanıltıcı veya hatalı kaynak gösterimi bulundu. Google Gemini asistanında bu oran %72’ye kadar yükselirken, diğer platformlarda bu oran %25’in altında kaldı.
Google, Gemini’nin kullanıcı geri bildirimlerine dayanarak sürekli geliştirildiğini belirtirken, OpenAI ve Microsoft yapay zekanın yanlış veya uydurma bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini açıkladı. Perplexity ise “Derin Araştırma” modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.
Araştırmada, yapay zeka asistanlarının verdiği yanıtlar arasında hatalı örnekler de yer aldı. Örneğin, Gemini’nin elektronik sigaralarla ilgili 1xbet mobil indir bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden hala görevde olduğunu bildirdiği tespit edildi. Araştırmaya 18 ülkeden 22 kamu yayın kuruluşunun katıldığı belirtildi.
EBU Medya Direktörü Jean Philip De Tender, araştırma sonuçlarına ilişkin yaptığı açıklamada güven erozyonunun demokratik katılımı caydırabileceğine dikkat çekti. EBU, yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırarak, haberi düzelten süreçlerin yapay zeka asistanları için de geçerli olması gerektiğini vurguladı.
Reklam & İşbirliği: [email protected]