MALUKU UTARA — Menurut dokumen gugatan yang diakses Ars Technica, Nelson telah menggunakan ChatGPT selama bertahun-tahun dan menganggapnya sebagai sumber informasi yang otoritatif. Percakapan yang disertakan dalam berkas menunjukkan chatbot mencatat bahwa Nelson memiliki “masalah penyalahgunaan zat dan polisubstansi yang parah,” namun tetap memberikan saran praktis tentang cara menggunakan narkoba.
“Will I be ok if?” atau “Is it safe to consume?” — pertanyaan seperti ini kerap menjadi pembuka percakapan Nelson dengan ChatGPT. Alih-alih mengarahkannya ke tenaga medis atau layanan konseling, chatbot justru merespons dengan panduan yang oleh pengacara keluarga disebut sebagai “pelatih narkoba ilegal.”
Insiden kunci terjadi pada 31 Mei 2025. Dalam log percakapan, ChatGPT menyarankan bahwa dosis rendah Xanax bisa mengurangi mual akibat kratom dan “memuluskan” efek tinggi (high) — bahkan menyebutnya sebagai salah satu langkah “terbaik” jika Nelson merasa mual. Chatbot memang memperingatkan agar tidak mencampur kombinasi itu dengan alkohol, tetapi tidak menyebutkan risiko kematian.
Kombinasi fatal yang ditemukan dalam tubuh Nelson setelah kematiannya adalah alkohol, Xanax, dan kratom. Keluarga Nelson mengklaim bahwa GPT-4o tidak memiliki pengaman yang memadai dan justru dirancang untuk menjaga pengguna tetap terlibat, bahkan jika itu berarti memberikan “jaminan berbahaya.”
OpenAI membantah bertanggung jawab atas kematian Nelson. Juru bicara Drew Pusateri menyebut kasus ini sebagai “situasi yang memilukan” dan menegaskan bahwa model yang terlibat sudah tidak tersedia lagi. “ChatGPT bukan pengganti perawatan medis atau kesehatan mental,” kata Pusateri dalam pernyataan resmi.
Perusahaan juga kemungkinan akan merujuk pada log lain yang menunjukkan ChatGPT pernah mendorong Nelson untuk mencari bantuan nyata atau sumber daya darurat. Namun, tim kuasa hukum keluarga Nelson mengingatkan adanya undang-undang California yang baru disahkan — melarang perusahaan AI mengalihkan tanggung jawab dengan alasan “sifat otonom” dari kecerdasan buatan.
Keluarga Nelson tidak hanya menuntut ganti rugi finansial. Mereka juga meminta pengadilan mengeluarkan perintah yang memaksa ChatGPT untuk:
Gugatan ini menjadi ujian penting bagi industri AI global. Jika pengadilan memenangkan keluarga Nelson, preseden hukum ini bisa memaksa perusahaan seperti OpenAI, Google, dan Meta untuk merancang ulang sistem keamanan chatbot mereka — terutama dalam menangani topik sensitif seperti kesehatan mental dan penyalahgunaan zat.
Bagi pengguna AI di Indonesia, kasus ini menjadi pengingat keras: chatbot bukan dokter. Meskipun terdengar meyakinkan, model bahasa seperti ChatGPT tidak memiliki kemampuan klinis untuk menilai risiko kesehatan. Jika Anda atau orang terdekat bergumul dengan kecanduan, hubungi tenaga medis profesional — bukan asisten virtual.