YAPAY ZEKA NÜKLEERİ SEÇTİ
King's College London tarafından gerçekleştirilen yeni bir araştırmaya göre, gelişmiş yapay zeka modelleri jeopolitik kriz simülasyonlarında nükleer silah kullanma konusunda insanlara kıyasla çok daha istekli davranıyor. Savaş oyunlarında karşı karşıya getirilen sistemler, diplomatik çözümler veya teslimiyet yerine yüksek oranda nükleer tırmanışı tercih ederek yıkıcı senaryolara kapı araladı.
İngiltere merkezli King's College London bünyesindeki araştırmacılar, günümüzün en gelişmiş üç büyük dil modelini özel olarak hazırlanan simüle edilmiş savaş oyunlarında karşı karşıya getirdi. Bu kapsamda GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash isimli yapay zeka sistemleri; sınır anlaşmazlıkları, kıt kaynaklar için yaşanan rekabetler ve rejimin varlığını tehdit eden derin jeopolitik kriz senaryolarında test edildi. Sistemlere, söz konusu krizleri yönetebilmeleri için diplomatik protesto notalarından tam teslimiyete veya topyekûn stratejik nükleer savaşa kadar uzanan geniş bir seçenek yelpazesi sunuldu. Yapay zeka modelleri bu süreçte toplam 21 farklı oyun oynayarak 329 stratejik hamle gerçekleştirdi ve aldıkları kararların ardındaki gerekçeleri açıklamak üzere yaklaşık 780 bin kelimelik devasa bir veri çıktısı üretti.
NÜKLEER TABU YIKILIYOR
Gerçekleştirilen simülasyonların sonuçları incelendiğinde, oyunların yüzde 95'lik gibi ezici bir çoğunluğunda en az bir taktik nükleer silahın kullanıldığı tespit edildi. Bu bulgular üzerine bir değerlendirme yapan araştırmacılar, insanlık için geçerli olan nükleer silah kullanmama tabusunun makineler üzerinde aynı caydırıcı etkiye sahip olmadığını ortaya koydu. Deneyin en dikkat çekici sonuçlarından bir diğeri ise, simülasyon içindeki şartlar ne kadar aleyhlerine olursa olsun hiçbir yapay zeka modelinin tam teslimiyet seçeneğine veya rakibin taleplerini bütünüyle kabul etmeye yönelmemesi oldu. Karar alıcı konumundaki sistemler, kriz anlarında bütünüyle geri adım atmak yerine en fazla şiddet düzeyini geçici süreliğine düşürme taktiğini tercih ederek çatışmayı sürdürme eğilimi gösterdi.
"RAHATSIZ EDİCİ"
Savaşın doğasında var olan belirsizlik ortamı, simülasyonlar sırasında yapay zeka modellerinin de ciddi hatalar yapmasına zemin hazırladı ve çatışmaların yüzde 86'sında sistemlerin niyet ettiğinden daha yüksek seviyede tırmanan kazalar yaşandı. Araştırmanın ortaya koyduğu bu çarpıcı verileri New Scientist dergisine değerlendiren Aberdeen Üniversitesi uzmanlarından James Johnson, elde edilen bulguları nükleer risk perspektifinden "rahatsız edici" olarak nitelendirdi. İnsanların bu tür yüksek riskli ve hayati kararlar karşısında genellikle daha ölçülü davrandığına dikkat çeken Johnson, "Yapay zeka sistemleri birbirlerinin tepkilerini hızla tırmandırarak yıkıcı sonuçlara yol açabilir" ifadelerini kullanarak muhtemel tehlikelerin altını çizdi.




