
Teknologi.id – Sebuah insiden mengejutkan datang dari Amerika Serikat. Seorang pria berusia 60 tahun harus dirawat intensif selama tiga minggu setelah mengikuti saran diet yang diberikan oleh ChatGPT, chatbot AI milik OpenAI. Kasus ini menjadi pengingat penting bahwa saran kesehatan dari AI tidak bisa menggantikan konsultasi medis profesional.
Awal Mula: Diet Sehat yang Berujung Petaka
Pria tersebut awalnya hanya ingin mengurangi konsumsi garam dapur (natrium klorida/NaCl), sesuai rekomendasi CDC (Centers for Disease Control and Prevention) yang menyebut konsumsi garam berlebih dapat meningkatkan risiko hipertensi, serangan jantung, hingga stroke.
Namun, alih-alih menyarankan garam rendah natrium atau bumbu pengganti, ChatGPT justru memberi jawaban yang berbahaya: mengganti natrium klorida dengan natrium bromida (sodium bromide).
Tanpa curiga, ia membeli produk berbahan natrium bromida secara online dan mengonsumsinya selama tiga bulan penuh. Ia tidak menyadari bahwa senyawa tersebut sudah lama tidak digunakan pada manusia, dan kini lebih sering dipakai untuk obat hewan peliharaan serta cairan pembersih kolam renang.
Baca juga: ChatGPT Dituduh Ajarkan Remaja untuk Bunuh Diri, OpenAI Digugat!
Natrium Bromida: Dari Obat Lama Jadi Racun Baru
Menurut National Library of Medicine (NLM), sodium bromida memang pernah dipakai pada abad ke-19 hingga awal abad ke-20 sebagai obat penenang dan anti kejang. Namun, penggunaannya dihentikan karena menimbulkan efek samping serius, seperti kerusakan saraf dan gangguan kulit.
Kini, zat ini hanya digunakan untuk anjing dan kucing, bukan manusia. Sayangnya, pria tersebut tidak mengetahui fakta ini. Setelah tiga bulan mengonsumsi, tubuhnya mengalami gejala parah: haus ekstrem, kelelahan, ruam kulit, hingga halusinasi berat.
Diagnosis: Bromisme, Keracunan Natrium Bromida
Ketika dilarikan ke Instalasi Gawat Darurat, kondisinya memburuk. Ia menolak minum air rumah sakit, berhalusinasi, hingga mencoba kabur karena panik.
Pemeriksaan laboratorium menunjukkan kadar bromida dalam darahnya mencapai 1.700 mg/L, jauh di atas ambang normal 0,9–7,3 mg/L. Ia pun didiagnosis mengalami Bromisme, yaitu keracunan akibat paparan bromida berlebih.
Tim medis segera memberikan cairan elektrolit dalam jumlah besar untuk mengeluarkan zat berbahaya itu lewat urin. Setelah perawatan intensif tiga minggu, kondisinya akhirnya stabil.
Investigasi Dokter: Benarkah ChatGPT Penyebabnya?
Kasus ini dipublikasikan dalam jurnal Annals of Internal Medicine: Clinical Cases. Para dokter melakukan investigasi dan menemukan bahwa ChatGPT versi lama (kemungkinan GPT-3.5 atau GPT-4) memang pernah menyarankan natrium bromida sebagai pengganti garam dapur.
Masalahnya, AI tersebut tidak memberi penjelasan risiko kesehatan, sehingga pasien menganggap zat ini aman untuk dikonsumsi.
ChatGPT GPT-5 Lebih Berhati-hati
Menariknya, ketika kasus ini diuji ulang dengan ChatGPT GPT-5, jawabannya jauh lebih aman. Model terbaru ini dengan tegas menyatakan bahwa natrium bromida berbahaya bagi manusia dan bisa menimbulkan komplikasi serius.
Sebagai gantinya, GPT-5 merekomendasikan alternatif yang wajar, seperti garam rendah natrium, bumbu non-garam, atau bahkan mengurangi garam secara bertahap.
Meski begitu, OpenAI menegaskan bahwa ChatGPT—bahkan dalam versi terbaru—tidak boleh dijadikan pengganti tenaga medis profesional. AI hanya sebatas asisten untuk membantu memahami informasi kesehatan.
Baca juga: Mengungkap Sumber Jawaban ChatGPT: Situs Ini Jadi Andalan Utama
Pelajaran Penting: Jangan Percaya Buta pada AI
Kasus pria 60 tahun ini menjadi pelajaran berharga bahwa meski AI semakin canggih, tetap ada keterbatasan. Informasi dari chatbot AI bisa membantu sebagai referensi awal, tetapi keputusan medis harus selalu dikonsultasikan dengan dokter.
Kesehatan adalah hal yang sangat sensitif, sehingga saran dari internet, termasuk dari ChatGPT, tidak boleh dijadikan keputusan akhir tanpa verifikasi profesional.
Baca Berita dan Artikel yang lain di Google News.
(mo)
Tinggalkan Komentar