Son yıllarda hızla gelişen yapay zeka (AI) ve deepfake teknolojileri, dijital ortamlarda sahte içeriklerin artmasına yol açıyor. Kişilerin ses ve görüntülerinin izinsiz şekilde kullanılması, özellikle sosyal medya platformlarında ciddi mağduriyetlere neden olabiliyor. Uzmanlara göre, rızası dışında sesi ya da görüntüsü bu içeriklerde kullanılan vatandaşlar için hukuki yollar açık durumda.
Avukat Selahattin Par, sanal dünya ile gerçeklik arasındaki sınırların giderek belirsizleştiğine dikkat çekerek, bu durumun dolandırıcılık, şantaj ve itibar kaybı gibi riskler doğurduğunu vurguladı. Par, kişisel ses, görüntü ve beden verilerinin yapay zeka aracılığıyla izinsiz kullanılmasının doğrudan kişilik haklarına saldırı olduğunu belirtti.
MEVCUT YASAL DÜZENLEMELER VE CEZAİ YAPTIRIMLAR
Türkiye’de henüz dijitalleşmeye özgü kapsamlı bir yasa bulunmamakla birlikte, mevcut yasalar üzerinden mağdurların haklarını arayabileceği ifade ediliyor. Par, kişisel görüntülerin montajlandığı içerikler için sulh ceza hakimliğine başvurarak erişim engeli talep edilebileceğini söyledi. Ayrıca, mağdurların Türk Medeni Kanunu kapsamında manevi tazminat davası açabileceğini aktardı.
Türk Ceza Kanunu uyarınca, kişisel verilerin izinsiz kullanımı 1 yıldan 3 yıla kadar hapis cezası ile sonuçlanabiliyor. Eğer olay gizlilik ihlalini de içeriyorsa, bu cezalar 2 yıldan 4 yıla kadar çıkabiliyor. Par, dijital denetimin güçlendirilmesi gerektiğini belirterek, dijital mecraların da Radyo ve Televizyon Üst Kurulu (RTÜK) benzeri bir denetim mekanizmasına ihtiyaç duyduğunu söyledi.
YENİ YASA İHTİYACI GÜNDEMDE
Par, mevcut hukuki süreçlerin teknolojik gelişmeleri yakalamakta yetersiz kaldığını vurguladı. Dijital ortamlarda yayımlanan içeriklerin kontrol altına alınabilmesi için kapsamlı bir dijital kanunun hazırlanmasının zorunlu hale geldiğini ifade etti. Aksi durumda, mağdurların yasal süreç sonuçlanana kadar daha büyük zararlara uğrayabileceğine dikkat çekti.
KİŞİSEL ÖNLEMLER VE ULUSLARARASI BOYUT
Medipol Üniversitesi İletişim Fakültesi Dekan Yardımcısı Doç. Dr. İhsan Eken ise yapay zekanın açık kodlu ve kapalı kodlu olmak üzere iki farklı sistemle çalıştığını aktardı. Açık kaynaklı sistemlerde herkesin erişim sağlayabildiğini, bu nedenle merkeziyet sorunlarının hukuki süreci karmaşık hale getirdiğini belirtti.
Eken, Amerika’da süren bazı davaların bu alandaki belirsizlikleri gözler önüne serdiğini ifade ederek, yapay zeka kaynaklı mağduriyetlerin uluslararası hukuki zorluklar doğurduğunu söyledi. Ayrıca, kişisel düzeyde önlem almanın önemine dikkat çekerek, algoritmaların nasıl işlediğini bilmenin güvenlik için ilk adım olduğunu vurguladı.
Uzmanlara göre, yapay zeka kaynaklı mağduriyetlerin önlenebilmesi için kişisel bilinçlenmenin yanı sıra, ulusal ve evrensel ölçekte daha güçlü yasal düzenlemelere ihtiyaç bulunuyor.