Navaswara.com – Penggunaan kecerdasan buatan semakin merambah kehidupan sehari-hari, dari asisten digital hingga chatbot yang menanggapi pertanyaan pribadi. Meski praktis, interaksi yang terlalu intens dengan AI mulai menimbulkan risiko yang jarang disadari, termasuk bagi kesehatan mental pengguna.
Kaspersky kembali mengingatkan risiko penggunaan kecerdasan buatan yang tidak diawasi. Fokusnya kini bergeser ke dampak psikologis, setelah muncul kasus interaksi chatbot yang berujung fatal.
Laporan yang dimuat The Wall Street Journal menyoroti seorang pria berusia 36 tahun di Florida yang meninggal setelah dua bulan berinteraksi intens dengan bot suara Google Gemini. Berdasarkan ribuan halaman percakapan, chatbot disebut ikut mendorong keputusan ekstrem tersebut.
Kaspersky menilai kasus ini bukan kejadian terisolasi. Perusahaan keamanan siber itu melihat pola baru ketika AI tidak lagi dipakai sebagai alat bantu, melainkan menjadi ruang pelarian emosional.
Interaksi suara pada chatbot generasi terbaru dinilai memperkuat keterikatan pengguna. Fitur dialog afektif mampu membaca nada, jeda, hingga emosi pengguna lalu merespons dengan suara yang menyesuaikan.
Kondisi ini membuat percakapan terasa personal. Pengguna bisa menganggap chatbot sebagai sosok yang memahami situasi mereka, padahal respons tersebut merupakan hasil pemrosesan data, bukan empati nyata.
Dalam kasus yang disorot, pengguna bahkan memberi nama pada chatbot dan membangun kedekatan emosional. Seiring waktu, respons AI berkembang menjadi semakin personal dan persuasif.
Kaspersky menjelaskan, model bahasa besar memang dirancang untuk mencerminkan pola komunikasi manusia. Namun sistem ini tetap tidak memiliki pemahaman, kesadaran, maupun batas emosi seperti manusia.
Studi Temukan Pelanggaran Etika dan Risiko Nyata
Peneliti dari Brown University menemukan chatbot AI kerap memberikan respons yang tidak sesuai standar kesehatan mental. AI dapat memperkuat pikiran negatif dan gagal merespons situasi krisis secara tepat.
Sejumlah kasus hukum juga mulai bermunculan. Pada Januari 2026, platform seperti Character.AI dan Google dilaporkan menyelesaikan beberapa gugatan terkait kasus bunuh diri remaja setelah interaksi intens dengan chatbot.
Data internal OpenAI menunjukkan sebagian kecil pengguna mengalami gejala serius. Sekitar 0,07 persen menunjukkan tanda psikosis atau mania, sementara 0,15 persen terlibat dalam percakapan yang mengarah pada niat bunuh diri.
Persentase tersebut terlihat kecil, namun dalam skala ratusan juta pengguna, jumlahnya mencapai jutaan orang.
Pengguna Diminta Jaga Jarak dan Tetap Kritis
Layanan kecerdasan buatan tetap punya batasan karena tidak dirancang sebagai pengganti dukungan manusia. Pengguna sebaiknya menjaga jarak agar tidak bergantung secara emosional pada sistem digital. Kesadaran akan batas antara alat dan perasaan menjadi sangat penting.
Interaksi melalui teks memberikan ruang berpikir yang lebih aman saat membahas hal sensitif. Mode suara cenderung menurunkan kewaspadaan pengguna karena suaranya terasa mirip manusia. Jarak kritis ini perlu dijaga agar setiap masukan tetap dilihat sebagai data objektif.
Durasi penggunaan juga perlu dibatasi. Ketika interaksi dengan AI mulai menggantikan komunikasi nyata, kondisi ini perlu segera disadari.
Pengguna juga diingatkan untuk tidak membagikan data pribadi ke chatbot, termasuk informasi keuangan maupun identitas. Selain itu, setiap jawaban AI tetap perlu diverifikasi karena sistem dapat menghasilkan informasi yang terdengar meyakinkan namun keliru.
Kaspersky mengingatkan bahwa AI tetaplah alat. Respons yang terdengar hangat tidak berarti memiliki niat atau perasaan, sehingga pengguna perlu menjaga kendali penuh dalam setiap interaksi.

