Yapay zeka araçlarının denetimsiz kullanımı, veri güvenliği risklerini artırıyor. Kaspersky Türkiye Genel Müdürü İlkem Özar, şirketlerin 'Shadow AI' tehdidiyle nasıl başa çıkmaları gerektiğini açıkladı.

Yapay zeka kullanımı hızla artarken, denetimsiz şekilde kullanılan araçlar "Shadow AI" adı altında ciddi riskler oluşturuyor. Kaspersky Türkiye Genel Müdürü İlkem Özar, bu konuda yaptığı açıklamalarda, işletmelerin ve çalışanlarının, yapay zeka uygulamalarının güvenli ve etik kullanımına odaklanması gerektiğini belirtti.

NEDEN TEHDİT OLUŞTURUYOR?

“Shadow AI”, bir organizasyonun BT departmanının bilgisi veya onayı olmadan, çalışanlar tarafından kullanılan yapay zeka araçlarını ifade ediyor. Bu kavram, "Shadow IT" teriminden türetilmiştir ve izinsiz teknolojilerin yaratabileceği potansiyel güvenlik ve uyumluluk risklerine dikkat çekiyor.

Kaspersky Genel Müdürü İlkem Özar, “Yapay zeka uygulamaları kullanıldığında, verilerin yalnızca kullanıcıya ait olduğunu düşünmek yanıltıcı olabilir” diyerek, bu tür platformların bulut tabanlı çalıştığını ve verilerin işlenerek başka kullanıcıların sorgularında kullanılabileceğini vurguladı. Bu, şirketlerin veri ihlali riskiyle karşı karşıya kalmalarına neden olabilir.

Windows Fotoğraflar uygulaması yapay zeka destekli güncelleniyor Windows Fotoğraflar uygulaması yapay zeka destekli güncelleniyor

Özar, yapay zekanın eğitim aldığı veri setlerine bağlı olarak, yanıltıcı veya hatalı sonuçlar üretebileceğini belirtti. "Yapay zeka, doğru ve güvenilir verilerle eğitildiği takdirde verimli sonuçlar verirken, yanlış veri kullanımı, hatalı kararlar almasına yol açabilir" şeklinde konuştu.

Şirketlerin, Shadow AI riskiyle başa çıkabilmek için geleneksel güvenlik çözümlerinin yeterli olmayacağını belirten Özar, gelişmiş yapay zeka tabanlı güvenlik sistemlerinin devreye girmesi gerektiğini söyledi.

Özar, şirketlerin yapay zeka araçlarını kullanmaya başlamadan önce "risk değerlendirmesi" yapmalarının önemli olduğunu belirtti. "İşletmeler, hangi süreçlerin yapay zeka ile otomatikleştirilebileceğini ve bunun gizlilik veya yasal düzenlemelere etkilerini analiz etmelidir." dedi. Ayrıca, çalışanlarının yapay zeka araçlarını şirket politikaları doğrultusunda kullanabilmesi için eğitim alması gerektiğine dikkat çekti.

Kaynak: AA