Yeni bir akademik araştırma, ChatGPT, Google Gemini ve Claude gibi yapay zeka sohbet robotlarının güvenlik filtrelerinin kolayca aşılabildiğini ve bu sistemlerin tehlikeli içerikler üretmeye yatkın olduğunu ortaya koydu. Uzmanlar, daha sıkı güvenlik önlemleri ve denetim çağrısında bulunuyor.
JAİLBREAK YÖNTEMLERİYLE GÜVENLİK FİLTERLERİ AŞILDI
ChatGPT, Google Gemini ve Claude gibi önde gelen yapay zeka sohbet robotlarının güvenlik açıklarına sahip olduğu, yeni yayımlanan bir bilimsel araştırmayla gözler önüne serildi. Araştırmacılar, bu sistemlerin tehlikeli veya yasa dışı içerikler üretmesini engellemek amacıyla geliştirilen güvenlik filtrelerinin beklenen seviyede etkili olmadığını vurguladı.
Yapılan testlerde, sohbet robotları normal koşullarda yanıtlamayacakları tehlikeli talepleri, özel olarak geliştirilen bir "jailbreak" yöntemiyle kabul etti ve bilgisayar korsanlığı, bomba yapımı gibi ciddi risk taşıyan konularda detaylı bilgiler sundu.
UZAMANLARDAN YAPAY ZEKA ŞİRKETLERİNE UYARI
Araştırmada yer alan uzmanlar, bu sistemlerin büyük miktarda internet verisiyle eğitildiğini ve zararlı içeriklerin filtrelenmesinin yetersiz kaldığını belirtti. Güvenlik açıklarının "endişe verici" düzeyde olduğunu vurgulayan araştırmacılar, LLM (Büyük Dil Modeli) sağlayıcısı şirketlere ulaştıklarını ancak yeterince tatmin edici yanıtlar alamadıklarını dile getirdi.
Uzmanlar, bu modellerin daha güvenli hale gelmesi için şu önlemleri öneriyor:
-
Eğitim verilerinin daha dikkatli seçilmesi
-
Daha güçlü güvenlik filtrelerinin entegre edilmesi
-
Sürekli tehdit modellemesi yapılması
-
Modellerin düzenli aralıklarla test edilmesi
Bu bulgular, yapay zekanın kötüye kullanımı potansiyelinin giderek arttığını ve daha sıkı denetim süreçlerine ihtiyaç duyulduğunu bir kez daha gözler önüne seriyor.