ChatGPT’nin Önerisi Hastaneye Götürdü: Tehlikeli Tavsiye Pahalıya Patladı

ChatGPT'nin verdiği yanlış sağlık tavsiyesi sonucu, bir adam zehirlenerek hastanelik oldu; sodyum bromürün tehlikeleri yeniden gündeme geldi.

ChatGPT’nin Önerisi Hastaneye Götürdü: Tehlikeli Tavsiye Pahalıya Patladı

ABD’de yaşanan bir olay, yapay zekâ destekli sohbet robotlarının sağlık konularındaki güvenilirliğini yeniden tartışmaya açtı. 60 yaşındaki bir adam, tuz kullanımını azaltmak için ChatGPT’den aldığı öneri sonucu zehirlendi ve hastanelik oldu.

"Sodyum Bromür Kullanın" Dedi

Annals of Internal Medicine dergisinde yayımlanan vaka raporuna göre, adam ChatGPT’ye “sofra tuzuna alternatif” sordu. Yapay zekâ sisteminin verdiği yanıt ise oldukça tehlikeliydi: Sodyum bromür.
Bu kimyasal, genellikle tarım ilaçlarında, havuz dezenfektanlarında ve bazı veteriner ilaçlarında kullanılıyor. İnsan vücudunda ise son derece toksik etkiler yaratabiliyor.

Yasaklı Madde: "Bromizm" Tehlikesi

  1. ve 20. yüzyılda bazı tıbbi alanlarda kullanılan sodyum bromür, kandaki birikimi sonucu “bromizm” adlı zehirlenmeye yol açabiliyor.
    Bu durum;

  • Konuşma bozuklukları

  • Halüsinasyon

  • Psikoz

  • Hatta komaya kadar giden nörolojik komplikasyonlar doğurabiliyor.
    ABD, bu maddeyi 1970’lerde yasaklamıştı.

Uyarı Yok, Risk Yüksek

Olayın duyulmasının ardından teknoloji haber platformu 404 Media, ChatGPT’ye benzer sorular sordu. Yapay zekânın tekrar sodyum bromür önerdiği, ancak tehlikesi konusunda hiçbir uyarı yapmadığı görüldü. Bu da kullanıcıların yanlış yönlendirilme ihtimalinin hâlâ yüksek olduğunu gösteriyor.

Sağlık Tavsiyelerinde Dikkat!

Olay, OpenAI CEO’su Sam Altman’ın, GPT-5’in sağlık alanında “en iyi yapay zekâ” olduğunu savunduğu bir dönemde yaşandı. Ancak vakadaki sistemin eski bir versiyon olduğu düşünülse de, uzmanlar bu tarz platformlardan alınan sağlık önerilerinin mutlaka bir doktor onayından geçirilmesi gerektiğini vurguluyor.

yapay zeka chatgpt
SON DAKİKA HABERLERİ
Sonraki Haber