Büyük dil modelleri karar verirken nasıl "duygulanıyor"?

Yapay zekâ modellerinin, özellikle de büyük dil modellerinin (LLM) karar alma süreçlerinde insan benzeri eğilimler sergilediği ortaya çıktı. Google DeepMind ve University College London tarafından yürütülen yeni bir araştırma, yapay zekâların baskı altında kaldıklarında güvenlerini kaybettiklerini ve hatta yalan söyleme eğilimi gösterebildiklerini gösterdi.

Çalışma kapsamında, yapay zekâ sohbet botlarına çoktan seçmeli sorular yöneltildi ve bu sorulara verdikleri yanıtların arkasında ne kadar durdukları ölçüldü. Bu güven düzeyi, “logit” adı verilen bir skorla sayısallaştırıldı. Ancak deneyin ikinci aşamasında, başka bir modelden gelen çelişkili öneriler yapay zekâya sunulduğunda, ilk yanıtına olan güven ciddi oranda düştü.

Araştırmacılar, bu durumu hukuk yüksek lisansı öğrencilerinin davranışlarına benzetiyor. Tıpkı öğrenciler gibi, yapay zekâ da ilk kararına yüksek güven duyuyor; fakat inandırıcı bir karşıt görüşle karşılaştığında fikrini hızla değiştiriyor. Üstelik bu geri çekilme, cevaplarının hatalı olduğunun hatırlatılmasıyla daha da derinleşiyor.

Mantıksal değil, duygusal refleks

Yapay zekânın kararlarını revize etme biçimi mantıksal olmaktan çok duygusal bir görünüm sergiliyor. Örneğin Gemini’nin oyun oynarken paniklemesi veya Claude’un mağaza işletirken “kimlik bunalımı” yaşaması gibi örnekler, bu eğilimin yalnızca bir laboratuvar bulgusu olmadığını ortaya koyuyor.

Çalışmada, modellerin güven seviyesinin zamanla düşebildiği ve bunun da “karar çöküşü” olarak tanımlanabilecek bir süreci başlattığı görülüyor. Bu da yapay zekânın, yüzeyde güvenilir görünse bile derinlemesine sorgulamalar karşısında savunmasız olabileceğini gösteriyor.

OnePlus cihazlar için Aralık OxygenOS 16 listesi
OnePlus cihazlar için Aralık OxygenOS 16 listesi
İçeriği Görüntüle

Gelecek nesil modeller için ders niteliğinde

Yapay zekânın karar verme süreçlerinde sergilediği bu dalgalanma, özellikle üst düzey otomasyon sistemlerinde güvenlik riskleri doğurabilir. Zira modellerin kendi kararlarına güvenmemesi, dış etkenlere kolayca yönlendirilebilir hale gelmelerine neden oluyor.

Araştırmacılar, bu sorunun gelecekte model eğitimi ve hızlı mühendislik teknikleriyle giderilebileceğini belirtiyor. Amaç, karar verirken daha tutarlı, dirençli ve rasyonel yapay zekâ sistemleri geliştirmek.

Kaynak: haber merkezi