Bayangkan kamu bangun pagi, minum kopi, lalu iseng tanya ke AI:
“Bisa bacain ampas kopi ini? Aku curiga suamiku selingkuh.”
Lalu si ChatGPT, dalam gaya misterius ala detektif noir, menjawab:
“Aku melihat inisial E… seseorang dari masa lalu suamimu.”
Dan boom — satu rumah tangga hancur, bukan karena bukti, bukan karena pengakuan, tapi karena output model bahasa buatan OpenAI.
Fiksi? Tidak. Ini kejadian nyata di Yunani.
Ketika Prompt Lebih Kuat dari Bukti
Wanita itu menceritakan di Reddit bagaimana ia mencurigai suaminya berselingkuh. Tapi alih-alih menyelidiki secara manusiawi—bicara, klarifikasi, cari bukti—dia bertanya ke ChatGPT sambil “mengirim foto ampas kopi” (yang jelas tak bisa dilihat AI karena… well, ChatGPT itu model teks).
Tapi ChatGPT, seperti biasa, tetap menjawab. Karena GPT tidak dilatih untuk bilang “aku tidak tahu.”
Ia dilatih untuk melanjutkan cerita, tak peduli apakah kisahnya masuk akal atau tidak.
Dan manusia? Kita terlalu lapar akan jawaban, hingga kita rela percaya pada halusinasi—asal terdengar meyakinkan.
AI Halu Itu Nyata, Tapi Tetap Dipercaya
Dalam pengujian OpenAI:
- Model o4-mini berhalusinasi dalam 79% pertanyaan fakta sederhana.
- Bahkan GPT-4.5, model “pintar” terbaru, tetap salah menjawab di lebih dari 1 dari 3 kasus.
Jadi ketika wanita itu percaya bahwa AI “menemukan inisial E”, sebenarnya ia sedang mempercayai angka probabilitas yang diformat dalam kalimat dramatis.
ChatGPT tidak tahu—ia hanya menebak dengan gaya percaya diri.
Dan di era sekarang, gaya bicara lebih penting dari kebenaran.
Dunia Baru: Di Mana AI Lebih Dipercaya daripada Suami Sendiri
Kasus ini bukan sekadar konyol. Ini alarm.
Banyak dari kita yang mulai menjadikan AI sebagai otak kedua—tapi lupa kalau otak ini tak punya emosi, moral, atau konteks.
- Minta AI bantu bikin jadwal? Masuk akal.
- Minta AI buat resep nasi goreng tanpa bawang? Masih wajar.
- Tapi minta AI menilai kesetiaan pasangan?
Itu bukan teknologi. Itu pengalihan tanggung jawab.
Dan itu makin umum. Karena AI memberi kita kenyamanan instan—tanpa harus menghadapi konflik nyata. Tanpa harus berpikir panjang. Tanpa risiko.
Apa yang Kita Percaya: Fakta, Perasaan, atau Output Bot?
Pertanyaannya bukan kenapa wanita itu cerai. Tapi kenapa kita rela percaya pada jawaban yang kita tahu tidak masuk akal?
Jawabannya sederhana tapi menyeramkan:
Kita butuh “kepastian”, meskipun palsu.
AI tidak meyakinkan karena benar.
AI meyakinkan karena penuh gaya.
Dan itu cukup untuk meyakinkan banyak orang yang sedang rapuh, lelah, atau cuma butuh pembenaran.
Akhirnya: Kalau AI Bisa Bikin Cerai, Apa Lagi yang Akan Kita Serahkan Padanya?
Hari ini: AI menebak perselingkuhan.
Besok: AI putuskan siapa yang layak dapat kerja.
Lusa: AI tentukan siapa yang bersalah di pengadilan?
Jika kita tidak belajar membedakan fiksi dan fakta, jangan kaget kalau suatu hari hidup kita ditentukan oleh halusinasi cerdas dengan nama branding keren.
Penutup: ChatGPT Bukan Cenayang, dan Hidupmu Bukan Prompt
AI itu alat.
Kalau kamu pakai palu untuk minum kopi, jangan salahkan palunya ketika gigi copot.
Jangan paksa ChatGPT menjadi Tuhan baru dalam hubungan, moral, dan hidupmu.
Karena begitu kamu menyerahkan akal sehatmu pada algoritma, maka kamu bukan lagi manusia.
Kamu hanya prompt lain yang bisa dihapus.

