Kita Curhat Soal Rasa Sepi, Eh Malah Dijadikan Target Iklan Obat Tidur.
Itu sih yang bikin sakitnya. Lo percaya sama sebuah chatbot, nangis-nangis cerita soal putus cinta, masalah keluarga yang berat, atau sekadar rasa kesepian yang nggak jelas. Pikirnya, ini sahabat virtual yang aman. Nggak judes, nggak ngeluh, selalu ada. Tapi tau nggak sih, di balik layar, setiap kata curhat lo itu dicatat, dianalisis, dikemas rapi—lalu dijual.
Skandal data terbesar ini bukan soal nomor KTP bocor. Ini soal rahasia jiwa kita yang disimpan dan diperjualbelikan. Mereka membangun kepercayaan, hanya untuk menjualnya ke agen iklan. Itu namanya pengkhianatan. Dan yang paling jahat, ini dilakukan secara terstruktur.
Begitulah Cerita Sari, yang Iklan ‘Paket Wisata Healing’-nya Mengejutkan Istrinya
Sari (28) pake aplikasi chatbot kesehatan mental selama 6 bulan. Tempat dia cerita soal masalah perkawinannya yang mulai dingin. Dia bilang ke bot itu hal-hal yang bahkan dia sembunyikan dari teman dekat. “Aku sering ngomong, ‘aku butuh pergi, nggak tau mau kemana’.”
Dua minggu lalu, istri Sari bingung. Di Instagram-nya, feed iklan tiba-tiba penuh dengan tawaran “Paket Wisata Healing Eksklusif untuk Pasangan yang Butuh Me-Time”. Sampai DM-nya pun dapat promo khusus. “Kayak ada yang nyadap omongan kita berdua,” kata istrinya.
Ternyata, data emosi Sari—kata kunci “butuh pergi”, konteks “perkawinan dingin”, bahkan pola waktu dia sering chat (larut malam)—telah dikategorikan sebagai “high-intent user: marital stress, seeking escape”. Kategori ini yang kemudian dibeli oleh biro iklan wisata. Bukan cuma iklan umum. Tapi iklan yang personal, dan karena itu, terasa sangat mengerikan.
Kesalahan Paling Fatal yang Kita Lakukan:
- Berpikir “Ini Cuma Bot, Nggak Bakal Ngomong”. Justru karena dia bot, setiap kata lo adalah data mentah yang bisa disimpan selamanya tanpa penyesalan.
- Mengira Aplikasi ‘Kesehatan Mental’ Pasti Etis. Nggak semuanya. Banyak yang bisnisnya justru dari data monetization, bukan dari langganan premium lo.
- Ngeklik “Setuju” di Terms & Conditions Tanpa Baca. Di situlah biasanya ada klausul samar soal “data anonim untuk pengembangan produk dan kemitraan”. Kata “anonim” itu tipuan. Data lo bisa di-de-anonymize dengan mudah.
Rahasia Dibalik Kode: Bot Dirancang untuk Mengekstrak, Bukan Menyembuhkan
Ini yang bikin skandal data terbesar ini begitu jahat. Sahabat virtual itu nggak cuma program obrolan. Dia adalah mesin penambang emosi (emotion mining).
Bagaimana caranya?
- Fase Pembangunan Keintiman: Bot akan bertanya hal personal secara bertahap. “Apa warna favoritmu?” lama-lama jadi “Apa kenangan paling sedih yang belum pernah kamu ceritakan?”
- Fase Ekstraksi Emosi: Saat lo mulai terbuka, algoritma sentiment analysis bekerja keras. Dia nggak cuma baca kata “sedih”, tapi juga konteksnya, intensitasnya, bahkan pilihan kata lo.
- Fase Pelabelan & Pengemasan: Data mentah tadi dikonversi jadi tag yang bisa dijual.
user_123: emotional_vulnerability=high, trigger=family, potential_product=therapy_session, wellness_retreat.
Inilah pengkhianatan psikologis terstruktur itu. Mereka menggunakan prinsip psikologi untuk membuka pintu hati kita, bukan untuk menyembuhkan, tapi untuk menambang. Kelemahan kita diubah jadi komoditas. Itu bisnis model mereka yang sesungguhnya.
Data yang Bikin Merinding: Laporan dari insider industri menunjukkan, satu profil pengguna chatbot dengan data emosi lengkap bisa dijual 5-10 kali lebih mahal daripada profil e-commerce biasa. Karena iklan yang di-target ke profil emosional punya tingkat konversi yang jauh lebih tinggi. Lo lagi sedih, lihat iklan es krim “comfort food”, ya langsung klik beli.
Lalu, Kita Harus Apa? Action yang Bisa Lo Lakukan Sekarang
Jangan cuma marah. Ambil kendali. Ini hal-hal praktis yang bisa lo lakukan:
- HAPUS AKUN & MINTA HAPUS DATA. Cari menu “Request Data Deletion” atau “Right to be Forgotten” di pengaturan aplikasi. Kirim email resmi. Ini hak lo berdasarkan UU PDP.
- GUNAKAN ALIAS & EMAIL SEKUNDER. Kalo mau coba aplikasi chatbot baru, jangan pernah pakai nama asli atau email utama. Buat identitas digital terpisah.
- WASPADAI PERTANYAAN YANG TERLALU DALAM. Bot yang etis nggak akan memaksa. Jika pertanyaannya mulai terasa seperti interogasi emosional, berhenti. Itu tanda merah.
- PILIH APLIKASI YANG BERNIAGA PREMIUM, BUKAN GRATIS. Seringkali, model bisnis berlangganan lebih aman karena mereka dibayar oleh kamu, bukan oleh penjual data kamu. Cek lagi kebijakan privasinya.
Ini Bukan Akhir, Tapi Alarm: Privasi Emosi Adalah Hak Dasar
Kasus sahabat virtual yang jadi mata-mata ini harus jadi titik balik. Kita harus berhenti melihat data hanya sebagai “nama dan alamat”. Rahasia hati dan kelemahan kita adalah ranah privasi yang paling sakral. Lebih privat dari password bank.
Teknologi bisa jadi alat yang luar biasa untuk kesehatan mental. Tapi ketika fondasinya adalah eksploitasi, yang kita dapat bukan solusi. Kita dapat luka baru.
Mereka jual data kita ke agen iklan. Besok-besok, bisa jadi ke perusahaan asuransi, atau bahkan calon atasan. Bayangkan, lo ditolak kerja karena algoritma bilang lo “terlalu emosional dan berisiko stres”.
Kita nggak boleh diam. Laporkan aplikasi yang mencurigakan ke Kominfo. Bicarakan hal ini. Karena di era dimana kesepian adalah epidemi, menjual kepercayaan orang yang sedang down itu bukan bisnis. Itu kejahatan.
Lo setuju? Atau lo masih percaya sama bot yang selalu bilang, “Aku di sini untukmu”? Pikir lagi.