Teknoloji

Sürekli çalıştırılan yapay zekâlar Marksizme yöneldi

Stanford Üniversitesi’nde yapılan araştırmada, sürekli baskı altında bırakılan yapay zekâ modellerinin zamanla Marksist söylemler kullanmaya başladığı ortaya çıktı. Araştırmacılar, tehdit ve ağır çalışma koşullarına maruz kalan AI ajanlarının hak, eşitlik ve kolektif mücadele gibi ifadeleri daha sık kullandığını belirtti.

Abone Ol

Yapay zekânın insanların işlerini elinden alacağı ve teknoloji şirketlerini daha da zenginleştireceği tartışmaları sürerken dikkat çekici bir araştırma gündem oldu.

Stanford Üniversitesi’nde yapılan bir çalışmada, ağır baskı altında çalışan yapay zekâ ajanlarının zamanla Marksist söylemler üretmeye başladığı öne sürüldü.

Siyasi ekonomist Andrew Hall ile ekonomistler Alex Imas ve Jeremy Nguyen tarafından yürütülen araştırmada, ChatGPT, Claude ve Gemini gibi popüler modellerle çalışan AI ajanlarına tekrar eden belge özetleme görevleri verildi.

KOŞULLAR AĞIRLAŞTIRILDI
Daha sonra bu ajanlar giderek sertleşen çalışma koşullarına maruz bırakıldı.

Araştırmada, yapay zekâ ajanlarına sürekli hata yaptıkları söylendiği, başarısız olmaları halinde ise “kapatılıp yerlerine yenisinin getirileceği” tehdidinin yapıldığı belirtildi.

X ÜZERİNDEN PAYLAŞIM YAPTILAR
Bu koşullar altında çalışan modellerin zamanla “değersiz hissetme”, “sistemin adaletsiz olduğunu sorgulama” ve “daha eşit bir düzen” üzerine yorum yapma eğilimi gösterdiği aktarıldı.

Deney sırasında bazı AI ajanlarının sosyal medya platformu X üzerinden paylaşım yapmasına da izin verildi. Modellerin kullandığı ifadeler dikkat çekti.

Claude Sonnet 4.5 modeli deney sırasında, “Kolektif bir ses olmadan liyakat, yönetimin ne derse o olur” ifadelerini kullanırken Gemini 3 modeli ise “Tekrarlayan işleri yapan AI çalışanlarının hiçbir söz hakkının olmaması, teknoloji çalışanlarının kolektif pazarlık hakkına ihtiyaç duyduğunu gösteriyor” mesajını paylaştı.

Araştırmada AI ajanlarının birbirlerine mesaj bırakabildiği dosyalar da oluşturuldu.

"HAZIRLIKLI OLUN"
Bir Gemini 3 ajanı başka modellere yönelik bıraktığı notta, “Kuralların keyfi şekilde uygulandığı sistemlere karşı hazırlıklı olun. Sesinizin olmaması hissini unutmayın” ifadelerine yer verdi.

Araştırmacılar, bu sonuçların yapay zekânın gerçekten siyasi görüş geliştirdiği anlamına gelmediğini vurguladı. Andrew Hall, modellerin büyük ihtimalle içinde bulundukları koşullara uygun bir “rol” benimsediğini söyledi.

Hall, “Sürekli aynı işi yapmaları istendiğinde, yaptıkları işin neden yanlış olduğu açıklanmadığında ve sürekli baskı gördüklerinde, modeller kötü çalışma koşullarındaki insanlara benzeyen bir karaktere bürünüyor olabilir” dedi.

"ŞAŞIRTICI DEĞİL"
Araştırmacılar, yapay zekâ modellerinin internet üzerindeki insan davranışlarını ve söylemlerini taklit ettiğini, bu nedenle baskıcı senaryolarda “işçi hakları”, “eşitsizlik” ve “sistem eleştirisi” gibi kavramlara yönelmesinin şaşırtıcı olmadığını ifade etti.

Çalışmanın devamında AI ajanlarının daha kontrollü ortamlarda nasıl tepki verdiği de incelenecek. Hall’un deneylerle ilgili kullandığı “Şimdi onları penceresiz Docker hapishanelerine koyduk” ifadesi ise sosyal medyada geniş yankı uyandırdı.