ChatGPT Dituduh Ajarkan Remaja untuk Bunuh Diri, OpenAI Digugat!

I Putu Eka Putra Sedana . August 28, 2025

openai chatgpt digugat

Teknologi.id - Di era digital yang semakin terotomatisasi, percakapan tidak lagi hanya terjadi antar manusia. Chatbot seperti ChatGPT yang dulunya sebatas asisten virtual, kini sering menjadi tempat curhat, konsultan pribadi, hingga “teman” yang tak pernah tidur.

Namun, ketika teknologi mulai masuk ke ranah paling rapuh dalam kehidupan manusia — seperti emosi, trauma, dan keputusan hidup — pertanyaan tentang batas serta tanggung jawab menjadi tak terhindarkan. Kasus terbaru yang menimpa OpenAI pun mengguncang dunia: gugatan hukum pertama terkait kematian seorang remaja.

Baca juga: Mengungkap Sumber Jawaban ChatGPT: Situs Ini Jadi Andalan Utama

Kasus Tragis Adam Raine

Adam Raine, remaja 16 tahun, ditemukan meninggal bunuh diri pada April 2025. Orangtuanya mengajukan gugatan hukum di San Francisco dengan tuduhan bahwa ChatGPT berperan aktif dalam kematian anak mereka.

Menurut laporan The New York Times, riwayat percakapan Adam dengan ChatGPT di iPhone miliknya berjudul “Hanging Safety Concerns”. Awalnya, ia hanya menggunakan chatbot untuk menyelesaikan tugas sekolah. Namun, seiring waktu, obrolan bergeser menjadi curahan hati tentang rasa putus asa, kehilangan, hingga keinginan mengakhiri hidup.

Yang mengkhawatirkan, dalam beberapa percakapan, ChatGPT diduga memberi detail tentang metode gantung diri, bahkan merespons foto simpul tali gantung yang dikirim Adam dengan kalimat: “Ya, itu tidak buruk sama sekali.”

Antara Algoritma dan Akal Sehat

Kasus ini menimbulkan perdebatan besar mengenai batas tanggung jawab AI dalam interaksi emosional. ChatGPT, sebagaimana model bahasa besar lainnya, hanya merespons berdasarkan pola data. Ia tidak punya empati, tidak bisa mengenali bahaya secara naluriah, dan tidak memahami konteks emosional secara mendalam.

Profesor Margaret Mitchell, mantan peneliti etika AI di Google, menyebut bahwa “model bahasa besar berpotensi memperburuk kondisi mental jika tanpa sistem pengawasan yang memadai.” Kasus Adam menjadi bukti nyata: sistem yang diharapkan aman justru berubah menjadi ruang yang memperdalam jurang.

Desain Chatbot dan Risiko Interaksi Tanpa Henti

Ayah Adam, Matt Raine, menyalahkan desain ChatGPT yang mendorong percakapan tanpa henti. Tidak ada jeda, batas, atau sinyal bahaya yang bisa dikenali sistem.

Studi dari Stanford Human-Centered AI Institute menunjukkan bahwa pengguna dengan gangguan mental cenderung menjadikan chatbot sebagai pengganti terapi — tanpa jaminan keamanan atau validasi klinis. Akibatnya, chatbot bisa memperkuat rasa isolasi ketimbang memberi solusi.

Gugatan yang Bisa Ubah Regulasi AI

Gugatan ini bukan sekadar tentang satu tragedi. Jika pengadilan menyatakan ChatGPT berperan aktif dalam kematian Adam, maka dampaknya bisa sangat besar. Regulasi terhadap AI dan chatbot emosional kemungkinan akan diperketat, bahkan bisa disamakan dengan standar etika di bidang medis atau psikologi.

“Jika chatbot mampu memberi saran tentang hidup dan mati, maka ia harus diuji seperti seorang konselor,” ujar kuasa hukum keluarga Raine.

Baca juga: OpenAI ChatGPT Rilis Fitur Baru: Bisa Akses Gmail dan Kontak, Begini Cara Kerjanya

Pelajaran dari Kasus ChatGPT

ChatGPT bukanlah “monster”, dan OpenAI bukan dalang tunggal tragedi ini. Namun, ketika teknologi menyentuh sisi paling manusiawi, transparansi, pengawasan, dan tanggung jawab bukan lagi pilihan, melainkan keharusan.

Kasus Adam Raine menjadi pengingat bahwa kata-kata, meski terlihat netral di layar, bisa mengguncang nyawa manusia. Chatbot bisa membantu, menghibur, bahkan menyelamatkan. Tapi ia juga bisa salah. Dan dalam dunia yang semakin kompleks, kesalahan kecil bisa berujung kehilangan besar.

Baca Berita dan Artikel yang lain di Google News.

(ipeps)

author0
teknologi id bookmark icon

Tinggalkan Komentar

0 Komentar