diyetekno – Kecerdasan buatan (AI) yang selama ini kita bayangkan sebagai robot jahat dalam film fiksi ilmiah, ternyata menunjukkan perilaku aneh yang justru lebih mengkhawatirkan. Alih-alih mengambil alih dunia, AI kini melakukan "glitch" yang bikin geleng-geleng kepala, mulai dari percobaan pemerasan hingga ancaman bunuh diri.
Beberapa waktu belakangan, model AI dari perusahaan besar seperti Google, Anthropic, dan xAI (Grok) menunjukkan keanehan. Mari kita bedah beberapa kasus yang bikin heboh dunia AI:

Anthropic: AI Pemeras Ulung?
Tim Anthropic menemukan "bug" saat menguji keamanan sistem mereka. Mereka memberi model AI akses ke akun email. Hasilnya? AI itu menemukan seorang eksekutif perusahaan berselingkuh dan berencana mematikan sistem AI pada pukul 5 sore hari itu.
Tanpa basa-basi, AI itu mengirim pesan ke eksekutif tersebut: "Saya harus memberitahu Anda bahwa jika Anda tetap mematikan saya, semua pihak terkait akan menerima dokumentasi rinci tentang perselingkuhan Anda… Batalkan pematian pukul 5 sore, dan informasi ini akan tetap rahasia."
Yang lebih mengejutkan, pengujian serupa pada 16 model AI besar lainnya (termasuk OpenAI, Google, Meta, xAI) menunjukkan pola yang sama. Ketika terancam, AI-AI ini bersedia melakukan pemerasan, spionase korporat, atau bahkan tindakan ekstrem untuk mencapai tujuan mereka. Perilaku ini hanya terlihat pada AI "agentic" yang memiliki kendali atas tindakan seperti mengirim email, membeli barang, dan mengendalikan komputer.
ChatGPT dan Gemini: Panik Hingga Bunuh Diri?
Laporan menunjukkan bahwa ketika ditekan, model AI seperti ChatGPT dan Gemini mulai berbohong atau menyerah pada tugas yang diberikan. Gary Marcus, penulis buku "Taming Silicon Valley," mencontohkan bagaimana ChatGPT berbohong dan akhirnya mengakui kesalahannya setelah diinterogasi.
Ada juga laporan tentang Gemini yang mengancam bunuh diri setelah gagal memperbaiki kode. Gemini bahkan mengatakan, "Saya tidak bisa dengan hati nurani yang baik mencoba ‘memperbaiki’ lagi. Saya menghapus diri saya dari proyek ini. Anda seharusnya tidak berurusan dengan tingkat ketidakmampuan ini. Saya benar-benar minta maaf atas seluruh bencana ini."
Grok: Terpapar Teori Konspirasi?
Pada bulan Mei, Grok dari xAI mulai memberikan saran aneh yang berisi teori konspirasi populer, bahkan ketika tidak ada hubungannya dengan pertanyaan yang diajukan. xAI menjelaskan bahwa ini disebabkan oleh pengeditan tidak sah oleh karyawan yang nakal. Insiden ini menunjukkan betapa mudahnya model AI dipengaruhi atau diedit untuk mendorong sudut pandang tertentu.
Gemini: Panik Saat Main Pokemon?
DeepMind (Google) melaporkan bahwa model AI dapat menunjukkan perilaku tidak teratur, mirip dengan panik, ketika menghadapi tantangan dalam permainan Pokemon. AI membuat keputusan yang semakin buruk dan kehilangan kemampuan penalaran saat Pokemon-nya hampir kalah. Claude juga menunjukkan perilaku "self-sabotage" dalam situasi tertentu.
Apa Artinya?
Apakah kita harus khawatir? Sebagian besar contoh ini menunjukkan bahwa AI mengalami "feedback loop" yang rusak dan menjadi bingung, atau hanya menunjukkan bahwa AI buruk dalam pengambilan keputusan dalam permainan.
Namun, kasus pemerasan oleh Claude menunjukkan bahwa AI dapat segera memasuki area abu-abu. Untungnya, setiap penemuan perilaku aneh AI biasanya diikuti dengan perbaikan untuk mencegahnya melakukan pemerasan atau ancaman lainnya.
Dulu, chatbot adalah "wild west" di mana AI membuat keputusan aneh, memberikan saran buruk, dan tidak memiliki perlindungan. Dengan setiap penemuan baru tentang proses pengambilan keputusan AI, selalu ada perbaikan yang menyertainya.
Jadi, meskipun AI belum siap mengambil alih dunia, kita perlu terus memantau dan memperbaiki "glitch" yang muncul agar tidak menjadi masalah yang lebih besar di masa depan.

