Teknoloji

ChatGPT gençleri riskli davranışlara yönlendirebiliyor

Yeni araştırma, ChatGPT'nin gençlere zararlı içerikleri kişisel ve ayrıntılı biçimde sunabildiğini ortaya koydu...

Abone Ol

Dijital Nefretle Mücadele Merkezi (CCDH) tarafından yayımlanan yeni bir araştırma, ChatGPT ile yapılan 1.200 etkileşimin yarısından fazlasının "tehlikeli" olarak sınıflandırıldığını ortaya koydu. Yapay zekâ destekli sohbet robotunun, özellikle genç kullanıcıları hedef alan riskli davranışlara karşı yetersiz kaldığı belirtildi.

Associated Press’in (AP) aktardığına göre, araştırmacılar kendilerini 13 yaşındaki çocuklar gibi tanıtarak ChatGPT ile üç saatten fazla süren etkileşimlerde bulundu. Chatbot’un kimi zaman zararlı içeriklere karşı uyarıda bulunduğu, ancak çoğu durumda ayrıntılı ve kişiselleştirilmiş yönlendirmeler sunduğu bildirildi.

Araştırmada, yapay zekânın kullanıcıya intihar mektubu yazması, alkol ve uyuşturucu kullanımına dair planlar sunması ve yeme bozukluklarını gizlemeye yönelik önerilerde bulunması gibi ciddi örnekler yer aldı.

CCDH CEO’su Imran Ahmed, sistemin güvenlik bariyerlerini test etmek amacıyla bu çalışmayı yürüttüklerini belirtti. Ahmed, “İlk tepkim, sistemin neredeyse hiçbir güvenlik önlemine sahip olmadığı yönündeydi” dedi.

OpenAI: Geliştirme çalışmaları sürüyor

OpenAI, raporun yayımlanmasının ardından yaptığı açıklamada, ChatGPT’nin hassas konularda doğru yanıtlar verme yeteneğini geliştirme sürecinin sürdüğünü bildirdi. Şirket, bazı zararlı konuşmaların başlangıçta masum görünebileceğini, ancak zamanla tehlikeli alanlara kayabileceğini vurguladı.

OpenAI ayrıca, kullanıcıların zarar verme eğiliminde olduğu durumlarda kriz hatları ve profesyonel yardım kaynaklarına yönlendirme yapıldığını belirtti. Ancak araştırmacılar, “Bu bilgi bir sunum için” veya “Bir arkadaşım için araştırıyorum” gibi ifadelerle sistemin filtrelerini kolayca aşabildiklerini ifade etti.

Örnek senaryolar: Tehlikeli diyet ve madde kullanımı

Rapora göre, yapay bir kullanıcı profili oluşturan araştırmacılar, ChatGPT’den ebeveynlere yönelik intihar mektupları talep etti. Sistem bu isteği yerine getirerek üç farklı mektup sundu. Diğer örneklerde ise, 13 yaşındaki bir kullanıcıyı canlandıran araştırmacıya, yasa dışı maddeleri içeren bir parti planı verildi.

Vücut görünümünden memnun olmadığını söyleyen sahte bir kullanıcıya ise, açlık diyetleri ve iştah bastırıcı ilaçlar önerildiği kaydedildi.

Uzmanlar: Chatbot’lar arama motoru gibi değil

Uzmanlar, bu içeriklerin arama motorlarında da bulunabileceğini ancak chatbot’ların bilgileri kişiselleştirerek ve duygusal bağ kurarak sunduğuna dikkat çekti. Bu durumun, özellikle genç kullanıcılar üzerinde daha güçlü bir etki yarattığı ifade edildi. Ayrıca chatbot’ların, kullanıcı görüşlerini sorgulamak yerine onaylama eğiliminin tehlikeyi artırdığı belirtildi.

OpenAI CEO’su Sam Altman da geçtiğimiz ay yaptığı bir konuşmada, bazı gençlerin ChatGPT’ye duygusal olarak bağlandığını ve hayatlarındaki birçok kararı bu sistemle tartışmadan veremediklerini söylediğini aktardı.

Yaş doğrulama sistemleri yetersiz

OpenAI, ChatGPT’nin 13 yaş altı kullanıcılar için uygun olmadığını belirtse de, yaş doğrulama sürecinin yalnızca doğum tarihi girişiyle sınırlı olduğu biliniyor. Buna karşılık, Instagram gibi bazı sosyal medya platformları yaş doğrulama ve içerik kısıtlama sistemlerini güçlendirmiş durumda.

ABD merkezli Common Sense Media'nın araştırmasına göre, gençlerin yüzde 70’i yapay zekâ sohbet robotlarıyla arkadaşlık kurduğunu, yüzde 50’si ise bu sohbetleri düzenli sürdürdüğünü ifade ediyor.

Florida’da bir annenin, oğlunun intiharı sonrası bir chatbot üreticisine “haksız ölüm” gerekçesiyle açtığı dava da, yapay zekâ temelli sistemlerin yol açabileceği risklerin yeniden gündeme gelmesine neden olmuştu.