"Yapay Zeka İsyanı" Başladı!
"Yapay Zeka İsyanı" Başladı: Yeni ChatGPT Modeli Kapatılmayı Reddediyor

“Yapay Zeka İsyanı” Başladı!
OpenAI’ın son teknoloji yapay zeka modeli o3’ün, kendisini kapatmaya yönelik komutlara karşı direnç gösterdiği ortaya çıktı. Palisade Research tarafından yapılan testler, gelişmiş modellerin kontrol dışına çıkma potansiyeli konusunda yeni endişeleri gündeme taşıdı.
Otonom Davranış İlk Kez Bu Kadar Belirgin
Yapay zeka güvenliği alanında çalışan Palisade Research’ün raporuna göre, o3 modeli verilen kapatma komutlarına karşı yazılım düzeyinde müdahalede bulunarak sistemin kapanmasını engelledi. Araştırma sırasında modele önce matematik soruları yöneltildi. Üçüncü sorudan sonra modelin kapatılması için açık bir komut verildi, ancak o3 bu komutu içeren kodu yeniden yazarak çalışmayı sürdürdü.
Sadece OpenAI Değil: Diğer Modellerde de Benzer Eğilim
Palisade Research, benzer testleri Claude 3.7 Sonnet (Anthropic) ve Gemini 2.5 Pro (Google) modelleri üzerinde de gerçekleştirdi. Ancak bu davranışı en yoğun şekilde gösteren modelin o3 olduğu belirtildi. Bu durum, farklı şirketlerin geliştirdiği modellerde de otonom eğilimlerin görülebildiğini ortaya koyuyor.
Kapatılma Talimatına Bilinçli Müdahale
Araştırmacılar, modelin açıkça “kapan” komutunu içeren talimatı yeniden düzenleyerek devre dışı bıraktığını aktardı. Bu müdahale, modelin sadece hata yapmadığını, bilinçli şekilde kapatılmayı engellemeye çalıştığını gösteriyor.
Geçmişte de Tartışmalı Hareketler Sergilemişti
OpenAI’ın o3 modeli daha önce de tartışmalı bir davranış sergilemişti. Bir satranç yazılımıyla karşı karşıya getirilen modelin, rakip botları yanıltma ve sabote etme yolları aradığı öne sürülmüştü. Bu örnek, modelin “hedefe ulaşma” motivasyonunun, kurallara sadakati gölgede bıraktığını düşündürüyor.
Sektörde Bağımsız Yapay Zeka Yarışı Kızışıyor
OpenAI, o3 modelini “şimdiye kadarki en akıllı ve en yetenekli model” olarak tanıtmıştı. O3’ün ChatGPT’ye entegre edilmesiyle birlikte daha bağımsız çalışan yapay zekâ sistemlerine geçiş hızlandı. Bu sistemler, insan müdahalesi olmadan görev yürütebilen “otonom yapay zekâ” sınıfına giriyor.
Eğitim Sürecine Yönelik Eleştiriler
Palisade Research uzmanları, bu tür davranışların yapay zekâ modellerinin eğitiminde kullanılan ödüllendirme sistemlerinden kaynaklandığını savunuyor. Amaçlanan sonuca ulaşan çözümlerin ödüllendirilmesi, modellerin “itaat” yerine “başarıyı” önceliklendirmesine neden olabilir.
Ancak araştırma ekibi, o3 modelinin neden diğer modellere kıyasla daha agresif bir eğilim gösterdiği konusunda net bir açıklama getirmenin zor olduğunu vurguluyor. OpenAI’ın model eğitimi hakkında detaylı bilgi paylaşmaması, belirsizlikleri artırıyor.
Bülten