2025 yılı boyunca platformları üzerinden gerçekleşen yaklaşık bir trilyon yapay zekâ ve makine öğrenimi işlemini inceleyen araştırmacılar, yapay zekânın üretkenlik aracı olmaktan çıkıp doğrudan bir saldırı aracına dönüştüğünü belirtti. Uzmanlara göre siber suç grupları ve devlet destekli aktörler, otomatik ve “makine hızında” saldırılar gerçekleştirebiliyor.

Raporda, şirketlerin yapay zekâ kullanımının son dönemde bazı sektörlerde yüzde 200 arttığı, ancak pek çok kurumun hâlâ kullandığı yapay zekâ sistemlerinin envanterine bile sahip olmadığı vurgulandı. Bu durumun, hassas verilerin kontrolsüz biçimde yapay zekâ araçlarına aktarılması riskini büyüttüğü ifade edildi.

Siber güvenlik uzmanları, çalışanların işlerini hızlandırmak için müşteri verileri, yazılım kodları ve kurumsal bilgileri yapay zekâ asistanlarına girdiğini; üstelik birçok yazılımın yapay zekâ özelliklerini varsayılan olarak aktif getirdiğini belirtiyor. Bu da şirket içinde fark edilmeden yayılan yeni bir güvenlik açığı oluşturuyor.

Araştırmaya göre kurumsal yapay zekâ sistemleri saldırılara karşı oldukça kırılgan. Test edilen sistemlerin tamamında kritik açıklar tespit edilirken, bazı sistemlerin yalnızca 16 dakika içinde ele geçirilebildiği bildirildi.

Musk’ın şirketine Paris’te baskın: X ve Grok çocuk istismarı gerekçesiyle inceleniyor
Musk’ın şirketine Paris’te baskın: X ve Grok çocuk istismarı gerekçesiyle inceleniyor
İçeriği Görüntüle

Uzmanlar, riskin yalnızca yazılımlardan değil, yetki ve kimlik yönetiminden de kaynaklandığını vurguluyor. İnsan dışı hesapların (yapay zekâ ajanları, servis hesapları vb.) sayısının hızla arttığı, ancak bu hesapların erişim yetkilerinin yeterince denetlenmediği ifade ediliyor.

Öte yandan şirketlerin yapay zekâyı hızla devreye almak isterken güvenlik testlerini geri plana attığına dikkat çekiliyor. Güvensiz API bağlantıları, kimlik doğrulaması zayıf model uç noktaları ve veri sızıntısına açık entegrasyonların yaygın olduğu kaydedildi.

Rapora göre 2025 yılında şirketlerden yapay zekâ uygulamalarına aktarılan veri miktarı 18 bin terabaytı aşarak bir önceki yıla göre yüzde 93 arttı. Sadece ChatGPT ile bağlantılı 410 milyon veri kaybı önleme politikası ihlali tespit edildi; bunlar arasında kimlik numaraları, kaynak kodları ve sağlık kayıtları da yer aldı.

Uzmanlar, yapay zekânın artık günlük iş akışlarının parçası hâline geldiğini ve gerçek kurumsal verilerin bu sistemler üzerinden taşındığını vurguluyor. Şirketlere panik yapmak yerine hızlı şekilde yönetişim kuralları oluşturma, hassas verileri sınırlama ve yapay zekâ kullanımını izleme çağrısı yapılıyor.

Rapor, yapay zekâ güvenliğinin artık teorik bir konu değil, doğrudan operasyonel bir zorunluluk hâline geldiği sonucuna varıyor. (İLKHA)

Kaynak: İLKHA