Sağlık

Yapay zekanın sağlık sektöründeki tehlikeli hataları endişe yaratıyor

Google’ın sağlık yapay zekası Med-Gemini’deki hata, tıp alanında yapay zeka risklerini gözler önüne serdi.

Abone Ol

Sağlık sektöründe hızla yaygınlaşan üretken yapay zeka (YZ) araçları, hata yapma potansiyelleri nedeniyle hekimler ve uzmanlar arasında giderek artan bir endişe konusu haline geliyor. Özellikle “halüsinasyon” adı verilen ve gerçek olmayan bilgileri doğruymuş gibi sunma eğilimi, tıbbi uygulamalarda ciddi risklere işaret ediyor.

Google’ın Sağlık Yapay Zekasında Kritik Hata

Son dönemde Google tarafından geliştirilen sağlık odaklı yapay zeka modeli Med-Gemini’de tespit edilen önemli bir hata, bu sorunun boyutlarını gözler önüne serdi. Mayıs 2024’te yayımlanan bir makalede, Med-Gemini’nin beyin taramalarını analiz ederken “basilar ganglia” adlı bir beyin bölgesinden söz ettiği belirtildi. Oysa “basilar ganglia” diye bir yapı gerçekte bulunmuyor.

Nörolog Bryan Moore, bu hatayı fark ederek The Verge ile paylaştı. Google ise karışıklığın “basal ganglia” (beynin motor hareket ve alışkanlık oluşumuyla ilgili bölgesi) ile “basilar artery” (beyin sapının ana damarı) terimlerinin karışmasından kaynaklandığını ve bunun bir yazım hatası olduğunu açıkladı.

Sağlıkta Hata Toleransı Çok Düşük Olmalı

Uzmanlar, yapay zekanın tıp alanındaki bu tür hatalarının internetteki bilgi kirliliğinden çok daha tehlikeli sonuçlara yol açabileceğini vurguluyor. Providence sağlık sisteminin tıbbi bilgi direktörü Maulin Shah, “İki harf farkı büyük bir soruna neden olabilir. Böyle hatalar son derece tehlikelidir” diyerek uyarıda bulundu.

Google, Med-Gemini modelinin röntgen, BT ve diğer görüntüler üzerinden hastalık tespiti yapmada önemli potansiyel taşıdığını belirtmişti. Ancak uzmanlar, özellikle yüksek riskli sağlık alanlarında yapay zekanın hata toleransının insanlardan bile çok daha düşük olması gerektiğinin altını çiziyor.