Ozan EKİZ / EGEDESONSÖZ – Yapay zeka araçlarının gelişmesi hayatı kolaylaştırırken, son günlerde özellikle sosyal medyada ortaya çıkan ‘çıplaklık’ ve ‘bikini’ krizi ortaya çıkmaya başladı. Eski adıyla Twitter olan X platformunun yapay zeka aracı Grok, eskisine kıyasla ‘çıplaklık’ temelli görüntü oluşturma konusunda ‘cesur’ adımlar atmaya başladı. Grok’a verilen talimat ile birlikte, fotoğraftaki kişilere ‘bikini’ giydirilmesi gün geçtikçe yaygınlaşmaya başladı. X’in sahibi olan Elon Musk’a ‘bikini’ giydirilen fotoğrafa karşın Musk, sadece gülerek yanıt verdi.
‘DİJİTAL ŞİDDET KADINLARIN HAYATINA KABUS GİBİ GİRDİ’
Kadın Cinayetlerini Durduracağız Platformu İzmir Temsilcisi Tülin Osmanoğulları, yapay zeka araçları ile birlikte son zamanlarda artan dijital şiddet ve dijital tacize dair açıklamalarda bulundu. Osmanoğulları, dijital şiddetin kadınların hayatını nasıl etkilediğini, “Şiddeti ve şiddeti türlerini konuşurken fiziksel, psikolojik, ekonomik ve cinsel şiddeti konuşuyoruz. Kadınlar için son birkaç yılda hayatlarına kabus gibi giren dijital şiddetle karşı karşıyayız. Yapay zekayla birlikte başka bir boyuta evrilmiş durumda. Teknolojinin hangi amaçla kullanılmasının hangi sonuçlara varabildiğini görebiliyoruz. Kadınların aleyhine kullanıldığını görüyoruz. Dijital şiddet yapay zekayla birlikte şantaj boyutuna dönüştü. Bir lisede erkek öğrencilerin kız çocuklarını yapay zekayla erotik ve çıplak bir şekilde giydirip farklı sitelere yüklemişler. Bu anlamda şantaj yapıp, görüntüleri satmışlar. Kontrolsüz ve denetimsiz başlayan bu dijital şiddet kadınların hayatına bir kabus gibi çöktü” ifadeleriyle anlattı.
‘YAPAY ZEKA İLE OLUŞTURULAN GÖRSELLERİ ESKORT VE PORNO SİTELERİNE SATIYORLAR’
Dijital şiddet vakalarındaki artışa değinen Osmanoğulları, “Teknoloji ilerledikçe kadınlara zarar verir hale dönüyor. Bu yapay zeka ile oluşturulmuş fotoğraf ve videoları eskort, porno sitelerine satıyorlar. Dijital şiddet kadınlar için artık Türkiye’nin her yerinde bir kabusa dönmüş durumda. Mardin’de, 14 yaşındaki bir kız çocuğu ile görüştüm ve dijital şiddete maruz kalmıştı. Mesaj yoluyla ‘ifşalayacağız’ deyince içinde bulunduğu meslekten dolayı geri adım atmıştı. Bir üniversite öğrencisi arkadaşımız vardı, karakolda videoyu şikayet için izletince gülerek izlediklerini anlattı. Bu temelde dijital şiddet vakalarında ciddi bir artış var” ifadelerini kullandı.
‘YAPAY ZEKA İLE EVLİ OLAN BİR KADINI BAŞKA BİR ERKEKLE ÖPÜŞTÜRDÜLER’
Yapay zeka araçlarının vardığı noktayı somut örneklerle anlatan Osmanoğulları, “Yapay zeka araçları ile bir erkeği başka bir kadınla öpüşüyor şeklinde görüntü oluşturmuşlar. Sanki kadın kocasını başka bir erkekle aldatıyor gibi bir görüntü oluşturmuşlar. Bu şekilde arkadaşımızı tehdit etmişlerdi. Evlisiniz ve başka bir erkekle bu şekilde şantaj uyguluyorlar. Etrafınızdaki insanlar size inansa bile hukuki mücadelesini verirken bütün hayatınız alt üst oluyor” dedi.
‘KARAKOLLARDA İZLENEN VİDEOLARA POLİSLER DALGA GEÇER GİBİ BAKIYOR’
Dijital şiddet konusunda yargı ve hukuk sürecine değinen Osmanoğulları, “Sosyal medyaya dair iktidar mekanizmaları bazen yavaşlatma ve kapatma uygulayabiliyor ama bu dijital şiddete karşı neden önlem almıyor? Sosyal medyada iki satır yazı paylaşınca kendinizi yargı önünde buluyorsunuz, kadınlara bunu yapanlara ne yapıyorsunuz? Kadınlar şikayet mekanizmalarını kullanmaya çalışıyorlar. Karakollarda izlenen videolarda polislerin inanmamaları, dalga geçer bakmaları rahatsız edici oluyor. Yargı süreçleri çok uzun ve yıpratıcı sürüyor. Mağdur oluyorsunuz ama kendinizi aklamak için hukuk mücadelesine başlıyorsunuz. Telefonlar aylarca ve hatta yıllarca incelemeye alınıyor, gidiyor ve geri gelmiyor bazen. Kadınlar bunu bir kabus olarak yaşıyor” diye konuştu.
‘CİDDİ YAPTIRIMLAR OLMALI’
Bu konuda yaptırımların sertleşmesi gerektiğini belirten Osmanoğulları, son olarak şu ifadeleri kullandı:
Sıradan bir şantaja girmesinden ziyade istismar ve cinsel saldırı gibi ele alınması gerekiyor. Bu suçun tanımı yapılması gerekiyor. Sadece dijital şiddet deyip basite indirgememek gerekiyor. Bu konuda ciddi yaptırımlar olmalı.