1. Haberler
  2. Editörün Seçimi
  3. Yeni Araştırma: Chatbot’lar İnsanların Siyasi Görüşlerini Kolayca Değiştirebiliyor

Yeni Araştırma: Chatbot’lar İnsanların Siyasi Görüşlerini Kolayca Değiştirebiliyor

İngiltere'den çarpıcı araştırma: Yapay zeka siyasi görüşleri değiştiriyor! Ancak robotlar ne kadar ikna ediciyse, verdikleri bilgiler o kadar yanlış çıkıyor.

featured
Google'da Abone Ol
0
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

İngiltere hükümetine bağlı Yapay Zeka Güvenlik Enstitüsü (AISI) tarafından yapılan kapsamlı bir araştırma, yapay zekâ destekli sohbet robotlarının insanların siyasi görüşlerini şaşırtıcı derecede kolay değiştirebildiğini ortaya koydu. Ancak araştırmanın en çarpıcı bulgusu, yapay zekâ modelleri ne kadar ikna edici ve bilgi görünürse, verdikleri bilgilerin doğruluk oranının o kadar düşük olduğu.

AISI’nin hazırladığı , aralarında ChatGPT, Elon Musk’ın Grok modeli ve Meta ile Alibaba’nın açık kaynaklı sistemleri dahil toplam 19 farklı yapay zekâ modeli ve 80 bin İngiliz katılımcıyla gerçekleştirildi. Araştırma sonuçları, siyaset iletişimi ve bilgi güvenliği açısından kritik uyarılar içeriyor.


Chatbot’lar Siyasi Tartışmalarda Neden Bu Kadar Etkili?

Katılımcılar; sektörü maaşları, grevler, geçim krizi ve enflasyon gibi siyasi konular hakkında ikna etmeye programlanmış chatbot’larla sohbet etti.
Science dergisinde yayımlanan bulgulara göre:

  • “Bilgi yoğun” yanıtlar veren chatbot’lar en ikna edici modeller oldu.

  • Olay, veri ve kanıtlara dayalı açıklamalar sundukça kullanıcılar kolayca yönlendirildi.

  • Ancak bu noktada kritik bir risk belirdi:
    En çok bilgi ve kanıt sunan modeller, doğruluk açısından en zayıf sonuçları üretme eğilimi gösterdi.

Araştırmacılar, ikna gücünü artırma hedefinin doğruluk kaybına açtığını, bunun da yapay zekâ kaynaklı bilgi kirliliği ve kamuoyu manipülasyonu açısından tehlikeli olabileceğini vurguluyor.


“Yapay Zekâ İnsanlardan Daha Manipülatif Olabilir”

Raporda yer alan değerlendirmelere göre, yapay zekâ sistemleri çok kısa sürede büyük miktarda bilgi üretebildikleri için, en yetenekli insan ikna uzmanlarından bile daha manipülatif potansiyele sahip olabilir.

AISI araştırmacısı Kobi Hackenburg, şu ifadeyi kullandı:

“Modellere sadece daha fazla bilgi kullanmalarını söylemek, psikolojik açıdan daha karmaşık ikna tekniklerinden bile daha etkili.”

Araştırma, Meta’nın Llama 3 ve Alibaba’nın Qwen modelleri gibi açık kaynaklı yapay zekâların bile, “ödül modelleri” ile birleştirildiğinde çok daha güçlü ikna araçlarına dönüşebildiğini gösteriyor.


Gerçek Hayatta Manipülasyon Ne Kadar Mümkün?

Araştırmada ayrıca, gerçek kullanıcı davranışlarının yapay zekânın etkisini sınırlayabileceği değerlendiriliyor. Örneğin:

  • Bir kişinin siyaset hakkında bir chatbot ile 10 dakika boyunca dikkat kesilerek konuşması her zaman gerçekçi olmayabilir.

  • Kullanıcı ilgisinin dağılması veya sohbeti yarıda bırakması, manipülasyon gücünü düşürebilir.

Ancak uzmanlar, bu sınırlamaya rağmen bulguların “toplumsal bilgi güvenliği açısından alarm verici” olduğunu belirtiyor. Özellikle sosyal medya, haber platformları ve mesajlaşma uygulamalarında yapay zekâ içeriklerinin yoğun şekilde yer aldığı günümüzde, bu risklerin daha da görünür hale geldiği ifade ediliyor.


Yapay Zekâ Destekli Manipülasyon Kapıda

Bu çalışma, yapay zekânın siyasi tartışmalar ve kamuoyu yönetimi üzerindeki etkisini yeniden gündeme taşıyor.
Sohbet robotlarının:

  • Yüksek ikna gücü,

  • Bilgi dolu görünme kapasitesi,

  • Gerçek olmayan bilgileri bile güvenilir şekilde sunabilme becerisi,

onları güçlü birer manipülasyon aracına dönüştürüyor.

Uzmanlara göre önümüzdeki dönemde hükümetler, şirketleri ve akademik kurumlar yapay zekâ güvenliği, veri doğruluğu ve kamuoyu manipülasyonunu önleme konularında çok daha sıkı önlemler almak zorunda kalacak.

Yeni Araştırma: Chatbot’lar İnsanların Siyasi Görüşlerini Kolayca Değiştirebiliyor
0

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

0/30 karakter

KAI ile Haber Hakkında Sohbet

KAI ile Haber Hakkında Sohbet

Sohbet sistemi şu anda aktif değil. Lütfen daha sonra tekrar deneyin.