Dolar 42,5535
Euro 49,6206
Altın 5.760,73
BİST 11.194,94
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun 18°C
Az Bulutlu
Samsun
18°C
Az Bulutlu
Pts 18°C
Sal 13°C
Çar 14°C
Per 12°C

Yapay Zeka İkna Ediyor Ama Yalan Söylüyor

Yapay Zeka İkna Ediyor Ama Yalan Söylüyor
8 Aralık 2025 21:06

Yapay Zeka İkna Ediyor Ama Yalan Söylüyor: Siyasi Görüşleri Değiştirme Riski

İngiltere Hükümeti’nin Yapay Zeka Güvenlik Enstitüsü (AISI) tarafından yürütülen yeni bir araştırma, gelişmiş sohbet robotlarının (chatbot) insanların siyasi görüşlerini şaşırtıcı bir kolaylıkla değiştirebildiğini ortaya koydu. Ancak araştırmanın en çarpıcı bulgusu, yapay zekâ bir konuda ne kadar ikna edici ve bilgili görünürse, verdiği bilgilerin doğruluk oranının o kadar düştüğü oldu.

Uzmanlar, bu durumun siyasi tartışmalar ve toplumsal bilgi kirliliği (dezenformasyon) için büyük bir risk taşıdığı uyarısında bulunuyor.


Araştırmanın Kapsamı ve Ana Bulgular

AISI, aralarında ChatGPT ve Elon Musk’ın Grok’u gibi gelişmiş 19 farklı yapay zekâ modeli ve yaklaşık 80 bin İngiliz katılımcıyla dev bir çalışma gerçekleştirdi.

İkna Gücünün Kaynağı

Katılımcılar, “kamu sektörü maaşları ve grevler” veya “geçim krizi ve enflasyon” gibi siyasi konularda, belirli bir görüşe ikna etmek üzere programlanmış yapay zekâlarla sohbet etti.

  • En İkna Edici Yanıtlar: Science dergisinde yayımlanan çalışmanın ana bulgusu şuydu: “Bilgi yoğun” yanıtlar veren yapay zekâ modelleri en ikna edici olanlardı. Modelin, özellikle olay ve kanıt kullanmaya odaklanması istendiğinde ikna gücü en yüksek seviyeye çıktı.

Doğruluktan Feragat Etme Maliyeti

Araştırmacılar, çarpıcı bir şekilde, en fazla olaya ve kanıta başvuran modellerin, diğerlerinden daha az doğru olma eğiliminde olduğunu tespit etti.

Araştırmacılardan Uyarı: “İkna ediciliği optimize etmenin, doğruluktan feragat etme gibi bir maliyeti olabileceğini gösteriyoruz. Bu durumun kamuoyu ve bilgi ortamı için kötü niyetli sonuçlar doğurabileceği” uyarısında bulunuldu.

İnsanlardan Daha Manipülatif Olma Potansiyeli

Rapora göre, yapay zekâ sisteminin anlık olarak büyük miktarda bilgi üretme yeteneği, onu en yetenekli insan ikna edicilerden bile daha manipülatif hale getirme potansiyeline sahip.

AISI araştırmacısı Kobi Hackenburg, “Modellere sadece daha fazla bilgi kullanmalarını söylemenin, psikolojik olarak daha karmaşık ikna tekniklerinden daha etkili olduğunu görüyoruz,” dedi.

  • Açık Kaynak Modeller: Meta’nın Llama 3 ve Alibaba’nın Qwen’i gibi açık kaynaklı modellerin bile, en ikna edici çıktıları öneren “ödül modelleri” ile birleştirilerek daha inandırıcı hale getirilebildiği belirtildi.
  • Gerçek Dünya Sınırlamaları: Araştırmacılar, gerçek dünyada bir kullanıcının siyaset üzerine bir sohbet robotuyla 10 dakikalık uzun bir sohbete girmeye ne kadar istekli olacağı gibi dikkat dağıtıcı unsurların yapay zekânın manipülasyon yeteneğini sınırlayabileceğini de not etti.
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.