diyetekno – Penipuan dengan teknologi AI semakin canggih dan meresahkan. Bayangkan, hanya dengan rekaman suara singkat, penipu bisa meniru suara seseorang dan menggunakannya untuk memeras uang, informasi pribadi, atau bahkan lebih buruk. Keluarga saya sendiri hampir menjadi korban!
Baru-baru ini, ibu mertua saya hampir tertipu oleh penipu yang meyakinkannya bahwa suami saya diculik. Mereka menggunakan suara yang sangat mirip dengan suara suami saya, memohon agar segera mengirimkan uang tebusan. Untungnya, ayah mertua saya curiga dan menghubungi saya. Suami saya ternyata aman di kantor. Kejadian ini membuat kami sangat terguncang.

Bagaimana Penipuan Suara AI Bekerja?
Dengan teknologi sintesis suara AI, penipu tidak membutuhkan banyak hal untuk meniru suara seseorang. Klip video singkat di media sosial, pesan suara, atau podcast sudah cukup untuk melatih model kloning suara. Setelah mendapatkan suara target, mereka menggunakannya untuk melakukan panggilan telepon yang terdengar seperti teman atau anggota keluarga yang meminta bantuan dalam situasi darurat.
Penelitian dari University of Wisconsin–Madison menunjukkan bahwa orang bisa tertipu dan percaya bahwa orang yang mereka cintai diculik hanya berdasarkan suara palsu. Beberapa penipu bahkan lebih berani, menyamar sebagai selebriti atau tokoh otoritas untuk menekan korban agar mengklik tautan berbahaya atau memberikan informasi keuangan.
Ini Bukan Sekadar Teori
FBI telah memperingatkan tentang peningkatan serangan "vishing" (voice phishing) yang menargetkan pejabat publik. Dalam satu kasus, suara yang dibuat menyerupai Senator Marco Rubio menghubungi menteri luar negeri dan kontak di AS untuk menggali informasi sensitif. Bahkan aplikasi pesan aman seperti Signal pun tidak kebal. Inilah yang membuat penipuan ini sangat berbahaya: mudah dilakukan, berdampak besar, dan sulit dideteksi saat kejadian.
Cara Melindungi Diri dan Keluarga
Pertahanan terbaik adalah dengan bersikap skeptis. Jika Anda menerima panggilan yang terasa aneh, meskipun terdengar seperti seseorang yang Anda kenal, berhentilah sejenak dan jangan langsung panik.
Berikut beberapa tips untuk melindungi diri dan keluarga:
- Tunda dan Verifikasi: Jika Anda menerima panggilan panik yang meminta uang, jangan langsung bertindak. Tutup telepon dan hubungi orang tersebut langsung melalui metode yang biasa Anda gunakan.
- Buat Kata Sandi Keluarga: Memiliki frasa rahasia yang hanya diketahui oleh keluarga Anda dapat membantu mengkonfirmasi identitas seseorang dalam keadaan darurat.
- Waspadai Manipulasi: Penipuan ini dirancang untuk membuat Anda merasa takut, bersalah, atau terburu-buru. Jika Anda merasakan emosi-emosi ini, itu adalah tanda bahaya.
- Batasi Audio Publik: Ketahui bahwa apa pun yang Anda posting online berpotensi digunakan untuk mengkloning suara Anda.
Apa yang Sedang Dilakukan?
Para peneliti mengembangkan alat untuk melawan penipuan ini. Salah satunya adalah ASRJam, sistem yang mengganggu bot panggilan AI menggunakan interferensi audio halus yang tidak dapat dideteksi oleh manusia tetapi sulit diproses oleh mesin. Selain itu, penegak hukum mendorong korban untuk melaporkan penipuan ke Internet Crime Complaint Center (IC3) FBI.
Penipuan suara AI adalah ancaman nyata yang semakin canggih. Namun, dengan sedikit kesadaran dan beberapa kebiasaan baik, Anda dapat menghindari menjadi korban.

