İngiltere hükümetinin Yapay Zeka Güvenlik Enstitüsü (AISI) tarafından, aralarında ChatGPT ve Elon Musk’ın Grok’u gibi gelişmiş modellerin de bulunduğu 19 farklı yapay zekâ modeli ve yaklaşık 80 bin İngiliz katılımcıyla dev bir çalışma gerçekleştirildi.Araştırmada katılımcılar, "kamu sektörü maaşları ve grevler" veya "geçim krizi ve enflasyon" gibi siyasi konular hakkında, kendilerini belirli bir görüşe ikna etmeye programlanmış yapay zekâlarla sohbet etti.Science dergisinde yayımlanan bu çalışmanın ana bulgusu netti: "Bilgi yoğun" yanıtlar veren yapay zeka modelleri en ikna edici olanlardı. Modelin, özellikle olay ve kanıt kullanmaya odaklanması istendiğinde ikna gücü en yüksek seviyeye çıktı.Ancak çarpıcı bir şekilde, en fazla olaya ve kanıta başvuran modeller, diğerlerinden daha az doğru olma eğilimindeydi.Araştırmacılar, sonuçların "İkna ediciliği optimize etmenin, doğruluktan feragat etme gibi bir maliyeti olabileceğini gösterdiğini" belirterek, bunun kamuoyu ve bilgi ortamı için kötü niyetli sonuçlar doğurabileceği uyarısında bulundu.
Teknoloji
Yayınlanma: 04 Aralık 2025 - 22:41
Yapay zeka ikna ediyor ama yalan söylüyor
Yeni bir araştırma, sohbet robotlarının (chatbot) insanların siyasi görüşlerini kolayca değiştirebildiğini ortaya çıkardı. Ancak yapay zeka, ne kadar ikna edici ve bilgili görünürse, verdiği bilgilerin doğruluk oranı o kadar düşüyor. Uzmanlar, bu durumun siyasi tartışmalar ve toplumsal bilgi kirliliği için büyük bir risk taşıdığını belirtiyor.
Teknoloji
04 Aralık 2025 - 22:41
İlginizi Çekebilir


















