ABD’de 60 yaşındaki bir adam, sofra tuzunu hayatından çıkarıp alternatif arayışına girdi. İnternette araştırma yaptıktan sonra soluğu popüler yapay zeka sohbet botu ChatGPT’de aldı.
“Klorürün yerine ne kullanılabilir?” sorusuna aldığı yanıt onu sodyum bromüre yönlendirdi. 20. yüzyılın başlarında sakinleştirici olarak kullanılan bu maddeyi üç ay boyunca yemeklerine eklemeye başladı.
HASTANELİK OLDU
Başlarda herhangi bir sorun görünmese de, zamanla belirtiler ortaya çıktı. Adamda paronaya, halüsinasyonlar ve davranış bozuklukları görülmeye başladı. Komşusunun kendisini zehirlediğini düşünerek hastaneye başvurduğunda, doktorlar bromizm yani bromür toksisitesi teşhisi koydu.
Annals of Internal Medicine dergisinde yayımlanan vakayı inceleyen uzmanlar, ChatGPT’nin verdiği yanıtta herhangi bir sağlık uyarısının bulunmadığını vurguladı ve yapay zekâdan alınan tıbbi tavsiyelerin hayati risk taşıyabileceğini belirtti.
CHATGPT’DEN AÇIKLAMA
Şirket, Fox News’e yaptığı açıklamada, hizmet şartlarında botun herhangi bir sağlık sorununun tedavisinde kullanılmaması gerektiğini hatırlattı. Açıklamada şu ifadeler yer aldı:
“Riskleri azaltmak için çalışan güvenlik ekiplerimiz var ve yapay zekâ sistemlerimizi, insanları profesyonel rehberlik almaya teşvik edecek şekilde eğittik.”