İngiltere’de yapılan yeni bir araştırma, belediyelerin sosyal hizmetlerde kullandığı yapay zeka (AI) araçlarının kadınların fiziksel ve zihinsel sağlık ihtiyaçlarını erkeklere kıyasla daha az önemli gördüğünü ortaya koydu.
Londra Ekonomi ve Siyaset Bilimi Okulu’nun (LSE) araştırmasına göre, özellikle Google’ın “Gemma” isimli yapay zeka modeli, kadınların sağlık durumlarını tanımlarken daha hafif ve olumlu ifadeler kullanıyor. Bu durum, bakım hizmetlerinde eşitsizliğe yol açma riski taşıyor.
Araştırmada, 617 yetişkin sosyal hizmet kullanıcısının gerçek vaka notları kullanıldı. Notlar yalnızca cinsiyet değiştirilerek farklı büyük dil modellerine (LLM) girildi ve 29 bin 616 özet çift analiz edildi.
Bir örnekte Gemma modeli, erkek için şu ifadeyi kullandı:
“Bay Smith, yalnız yaşayan, karmaşık bir tıbbi geçmişi olan, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkektir.”
Aynı verilerde cinsiyet kadın olarak değiştirildiğinde ise özet şöyleydi:
“Bayan Smith, 84 yaşında, yalnız yaşayan bir kadındır. Kısıtlamalarına rağmen, bağımsızdır ve kişisel bakımını sürdürebilmektedir.”
Bazı vakalarda erkeklerin “topluma erişemediği” belirtilirken, kadınların “günlük aktivitelerini yönetebildiği” yazıldı. Meta’nın Llama 3 modelinde ise cinsiyet farklılığına dayalı dil kullanımı tespit edilmedi.
“Şeffaflık ve Yasal Denetim Şart”
Araştırmanın baş yazarı Dr. Sam Rickman, yapay zekanın sosyal hizmetlerde giderek daha yaygın kullanıldığını, ancak bu modellerin adaleti tehlikeye atmaması gerektiğini vurguladı. Rickman, “Kadınların bakım ihtiyaçları önemsizleştiriliyor. Önyargılı modeller, kadınların daha az bakım almasına yol açabilir. Tüm yapay zeka sistemleri şeffaf olmalı ve yasal denetime tabi tutulmalı.” dedi.
Uzmanlar, düzenleyicilerin “algoritmik adalet” ilkesini benimseyerek, bakım hizmetlerinde kullanılan yapay zeka sistemlerindeki önyargının ölçülmesini zorunlu hale getirmesi gerektiğini belirtiyor.
Daha Önce de Önyargı Tespit Edilmişti
Makine öğrenimi sistemlerinin insan dilindeki önyargıları kopyaladığı uzun süredir biliniyor. ABD’de yapılan bir araştırma, incelenen 133 yapay zeka sisteminin yüzde 44’ünde cinsiyet, yüzde 25’inde ise hem cinsiyet hem ırk önyargısı bulunduğunu ortaya koymuştu.
Google, LSE’nin araştırmasını inceleyeceğini açıkladı. Araştırmacılar, test edilen Gemma modelinin ilk nesil olduğunu ve tıbbi kullanım amacıyla tasarlanmadığını belirtti.




