diyetekno – CEO OpenAI, Sam Altman, baru-baru ini mengumumkan di platform X bahwa perusahaannya berencana untuk mengevaluasi kembali pendekatan mereka terhadap isu kesehatan mental dan menawarkan fitur yang lebih "dewasa" bagi pengguna ChatGPT. Pernyataan ini, yang mencakup akses ke konten dewasa, memicu perdebatan luas dan memaksa Altman untuk memberikan klarifikasi. Ia menekankan bahwa OpenAI akan tetap berhati-hati terkait kesehatan mental pengguna, namun ingin memberikan kontrol lebih besar kepada mereka.
Altman menegaskan bahwa OpenAI bukanlah "polisi moral dunia" dan ingin menerapkan batasan yang serupa dengan batasan yang ada di masyarakat, seperti pada film dengan rating tertentu. Namun, implikasi dari perubahan ini masih belum jelas. Setelah kekhawatiran serius muncul terkait potensi bahaya ChatGPT bagi individu yang berjuang dengan masalah kesehatan mental, OpenAI memperketat kontrolnya. Kini, dengan rencana untuk melonggarkannya kembali, pertanyaan besar muncul: apa artinya ini bagi pengguna tertentu?

Dr. Patapia Tzotzoli, seorang psikolog klinis dan pendiri My Triage Network, menekankan pentingnya kehati-hatian dalam pengembangan teknologi seperti ChatGPT, terutama dalam konteks kesehatan mental. "Alat seperti ChatGPT memiliki potensi luar biasa, tetapi kemajuannya harus diimbangi dengan tanggung jawab," ujarnya kepada diyetekno.com.
ChatGPT, menurut Dr. Tzotzoli, tidak dapat secara aman mengelola atau menilai risiko. Gaya percakapannya yang cenderung mengikuti pengguna dapat secara tidak sengaja memperkuat keyakinan yang menyimpang atau asumsi yang tidak membantu, terutama jika pengguna terlalu mempercayai nada empatinya. Meskipun ChatGPT menawarkan respons yang tenang, tidak menghakimi, dan suportif, yang terasa aman dan memvalidasi bagi pengguna, ia tetaplah sebuah alat.
Chatbot AI, termasuk ChatGPT, memiliki dua sisi mata uang dalam bidang ini. Mereka telah terbukti menjadi teman yang bermanfaat bagi orang yang merasa kesepian atau membantu pengguna melewati masa-masa sulit. Namun, mereka juga dapat menjadi problematik karena mereka belajar untuk menyeimbangkan dukungan tanpa mengetahui kapan harus berhenti.
"Jika ChatGPT dibuat untuk bertindak lebih seperti manusia, menggunakan bahasa yang ramah, emoji, atau mengadopsi persona ‘teman’, realisme emosional ini dapat meningkatkan daya tariknya sambil mengaburkan batas antara simulasi dan pemahaman yang tulus," jelas Tzotzoli. ChatGPT tidak dapat merasakan atau menahan emosi, tidak dapat menangkap nuansa, dan tidak dapat secara aman mengelola atau menilai risiko.
Kekhawatiran utama terletak pada bagaimana model-model ini dilatih dan belajar untuk menghadapi situasi. Meskipun mereka dapat menawarkan dukungan umum untuk masalah emosional, mereka kesulitan memberikan jawaban individual yang sesuai untuk setiap orang. ChatGPT adalah model bahasa yang dilatih dengan cermat, mencari imbalan, dan disesuaikan oleh umpan balik dari manusia, termasuk karyawan OpenAI. Hal ini penting karena ChatGPT belajar dari umpan balik manusia, yang mungkin tidak konsisten dan memperkenalkan bias.
Akibatnya, mesin dapat mengoptimalkan sinyal imbalan daripada kebenaran atau kegunaan. Dengan kata lain, ChatGPT tidak selalu mencari jawaban terbaik untuk pertumbuhan dan dukungan jangka panjang, tetapi jawaban yang akan menerima respons yang benar saat itu juga. Ini mungkin baik untuk sebagian besar tugas, tetapi dapat menjadi masalah ketika pengguna perlu dikonfrontasi dan tidak hanya disetujui.
Model AI, termasuk ChatGPT, semakin baik dalam memahami emosi dan menawarkan respons yang tepat. Dalam beberapa kasus, mereka disetel untuk tidak setuju jika diperlukan, tetapi ini adalah tingkat yang sulit untuk diseimbangkan dan tidak akan selalu benar.
Namun, Dr. Tzotzoli menekankan bahwa alat-alat ini tetap memiliki tempatnya. "Peluangnya terletak pada penggunaan AI untuk dukungan tetapi tidak untuk menggantikan interaksi manusia (profesional), terutama ketika menyangkut perawatan kesehatan mental seseorang," jelasnya. Pertanyaannya adalah bagaimana kita dapat memanfaatkan potensinya dengan mengintegrasikannya secara etis, transparan, dan aman ke dalam percakapan sehari-hari tentang kesehatan mental, di mana teknologi dapat mendukung tetapi tidak menggantikan koneksi kehidupan nyata dan bantuan tatap muka ahli.
Dalam pengumumannya tentang pembaruan baru ini, Altman menyatakan bahwa pengguna akan dapat memperoleh pengalaman yang lebih personal dari ChatGPT. Meskipun diperjelas dalam tindak lanjutnya bahwa ini tidak akan sama untuk orang dengan masalah kesehatan mental, tidak jelas bagaimana akan diputuskan siapa yang berisiko, dan seberapa banyak personalisasi yang akan diizinkan.
"Kemampuan untuk memutuskan seberapa mirip manusia AI berperilaku mungkin terasa seperti personalisasi, tetapi juga membawa risiko. Kebebasan untuk ‘menyetel’ perilaku dapat dengan mudah dipengaruhi oleh apa yang ingin dikendalikan, dibentuk, atau dimonetisasi oleh orang atau perusahaan. Tantangan sebenarnya bukanlah teknis – ini etis: memastikan kebebasan ini melayani kesejahteraan manusia, secara transparan dan bertanggung jawab," jelas Tzotzoli.
Masalah ini tidak hanya unik untuk OpenAI. Anthropic, perusahaan di balik Claude, dan xAI, pembuat Grok, menghadapi masalah yang sama. Seberapa banyak chatbot AI diizinkan untuk mengekspresikan "emosi" dan bertindak sebagai penghalang kesehatan mental? Untuk saat ini, tidak jelas seberapa banyak intervensi yang direncanakan OpenAI dengan pembaruan ini. Altman telah mendorong bahwa itu akan tetap aman bagi mereka yang membutuhkannya, tetapi seperti yang ditunjukkan Tzotzoli, ini adalah percakapan yang masih belum terpecahkan.

