ChatGPT’nin Önerisi Hastaneye Götürdü: Tehlikeli Tavsiye Pahalıya Patladı
ChatGPT'nin verdiği yanlış sağlık tavsiyesi sonucu, bir adam zehirlenerek hastanelik oldu; sodyum bromürün tehlikeleri yeniden gündeme geldi.
ChatGPT’nin Önerisi Hastaneye Götürdü: Tehlikeli Tavsiye Pahalıya Patladı
ABD’de yaşanan bir olay, yapay zekâ destekli sohbet robotlarının sağlık konularındaki güvenilirliğini yeniden tartışmaya açtı. 60 yaşındaki bir adam, tuz kullanımını azaltmak için ChatGPT’den aldığı öneri sonucu zehirlendi ve hastanelik oldu.
"Sodyum Bromür Kullanın" Dedi
Annals of Internal Medicine dergisinde
yayımlanan vaka raporuna göre, adam ChatGPT’ye “sofra tuzuna
alternatif” sordu. Yapay zekâ sisteminin verdiği yanıt ise oldukça
tehlikeliydi: Sodyum
bromür.
Bu kimyasal, genellikle tarım ilaçlarında, havuz dezenfektanlarında ve bazı
veteriner
ilaçlarında kullanılıyor. İnsan vücudunda ise son derece
toksik etkiler
yaratabiliyor.
Yasaklı Madde: "Bromizm" Tehlikesi
-
ve 20. yüzyılda bazı tıbbi alanlarda kullanılan sodyum bromür, kandaki birikimi sonucu “bromizm” adlı zehirlenmeye yol açabiliyor.
Bu durum;
-
Konuşma bozuklukları
-
Halüsinasyon
-
Psikoz
-
Hatta komaya kadar giden nörolojik komplikasyonlar doğurabiliyor.
ABD, bu maddeyi 1970’lerde yasaklamıştı.
Uyarı Yok, Risk Yüksek
Olayın duyulmasının ardından teknoloji haber platformu 404 Media, ChatGPT’ye benzer sorular sordu. Yapay zekânın tekrar sodyum bromür önerdiği, ancak tehlikesi konusunda hiçbir uyarı yapmadığı görüldü. Bu da kullanıcıların yanlış yönlendirilme ihtimalinin hâlâ yüksek olduğunu gösteriyor.
Sağlık Tavsiyelerinde Dikkat!
Olay, OpenAI CEO’su Sam Altman’ın, GPT-5’in sağlık alanında “en iyi yapay zekâ” olduğunu savunduğu bir dönemde yaşandı. Ancak vakadaki sistemin eski bir versiyon olduğu düşünülse de, uzmanlar bu tarz platformlardan alınan sağlık önerilerinin mutlaka bir doktor onayından geçirilmesi gerektiğini vurguluyor.