Yapay zeka uzmanı ve teknoloji danışmanı Agah Tuğrul Korucu, sağlıkta yapay zekanın sunduğu potansiyelin ancak sağlam bir denetim ve etik altyapıyla güvenli biçimde hayata geçirilebileceğini söyledi.
Medikal yapay zekada “bias” yani veri ön yargısının teorik değil, doğrudan hasta güvenliğini ilgilendiren pratik bir sorun olduğunu belirten Korucu, modelin öğrendiği dünyanın, eğitildiği veriyle sınırlı olduğuna dikkat çekti.
Korucu, belirli yaş grupları ya da sosyoekonomik kesimlerin eksik temsil edilmesi halinde hataların sistematik biçimde üretilebileceğini vurguladı.
VERİ KALİTESİ VE MAHREMİYET EN KRİTİK BAŞLIKLAR
Korucu, Türkiye’de ulusal ölçekte toplanan e-Nabız verilerinin önemli bir stratejik avantaj sunduğunu ancak ham verinin tek başına değer üretmeyeceğini ifade etti.
Medikal yapay zekada veri kalitesi, seçilim ön yargısı, etiket yanlılığı ve mahremiyet risklerinin başlıca handikaplar arasında yer aldığını belirten Korucu, eksik ya da hatalı kodlanmış verilerin modeli yanıltabileceğini kaydetti.
Farklı hastanelerdeki kayıt alışkanlıkları ve cihaz çeşitliliğinin sistemde “gürültü” oluşturabileceğini ifade eden Korucu, ortak veri modeli ve terminoloji uyumunun zorunlu olduğunu dile getirdi.
Mahremiyet konusunun en az teknik doğruluk kadar önemli olduğuna işaret eden Korucu, sağlık verilerinin özel nitelikli veri kapsamında bulunduğunu ve yetkisiz erişimin hem etik hem hukuki sonuçlar doğurabileceğini söyledi.
Korucu, anonimleştirme, güvenli analiz ortamları ve erişim denetim mekanizmalarının bu nedenle vazgeçilmez olduğunu belirtti.

GÖRÜNTÜLEMEDE “İKİNCİ GÖZ” ROLÜ
Radyoloji ve patoloji gibi alanlarda yapay zekanın çoğunlukla “ikinci göz” ya da karar destek aracı olarak kullanıldığını aktaran Korucu, sistemlerin normal olasılığı yüksek görüntüleri ayırarak ya da şüpheli alanları işaretleyerek iş yükünü azalttığını anlattı.
Bu dönüşümün hasta ve hekim ilişkisini iki yönlü etkileyebileceğini belirten Korucu, doğru yönetildiğinde raporlama süresinin kısalacağını ve belirsizliğin azalacağını ifade etti.
Ancak otomasyon yanlılığı riskine dikkat çeken Korucu, karar verenin halen hekim olduğunun net biçimde korunması gerektiğini söyledi.
Hatalı klinik yönlendirmelerde sorumluluğun tek bir aktöre yüklenemeyeceğini dile getiren Korucu, geliştirici, sağlık kurumu ve klinisyen arasında paylaşılan katmanlı bir sorumluluk modelinin benimsendiğini hatırlattı.
GENOMİK VE YAPAY ZEKA İLE KİŞİSELLEŞTİRİLMİŞ TIP
Korucu, önümüzdeki 10 yılda genomik veriler ile yapay zekanın birleşiminin kişiselleştirilmiş tıpta önemli dönüşümler yaratabileceğini belirtti.
Poligenik risk skorları ve klinik verilerle kişiye özel tarama aralıklarının belirlenebileceğini, farmakogenomik yaklaşımlarla doğru ilacın doğru hastaya daha erken verilebileceğini ifade etti.
Nadir hastalıklarda tanı süresinin kısalabileceğini dile getiren Korucu, genomik verilerin en hassas veri türleri arasında yer aldığını ve bu dönüşümün ancak güçlü etik ve veri güvenliği altyapısıyla mümkün olabileceğini söyledi.
Türkiye için öncelikli alanların radyoloji ve patolojide triyaj sistemleri, yoğun bakımda erken uyarı mekanizmaları ve kronik hastalık yönetimi olduğunu belirten Korucu, her modelin gerçek klinik ortamda test edilmesi gerektiğini kaydetti.
Yapay zekanın hekimlerin yerini alacağı yönündeki tartışmaların bilimsel gerçeklikle örtüşmediğini ifade eden Korucu, en gerçekçi modelin “yapay zeka destekli hekim” olduğunu belirtti. Nihai klinik karar ve sorumluluğun insan hekimde kalması gerektiğini sözlerine ekledi.




