Diyetekno – Anthropic, perusahaan di balik kecerdasan buatan (AI) Claude, membuat gebrakan baru terkait data penggunanya. Mulai hari ini, pengguna Claude dihadapkan pada pilihan krusial: mengizinkan data obrolan mereka digunakan untuk melatih model AI Claude di masa depan, atau memilih untuk menjaga privasi data mereka sepenuhnya. Jika hingga 28 September 2025 pengguna belum menentukan pilihan, akses ke Claude akan sepenuhnya diblokir.
Sebelumnya, Anthropic dikenal dengan pendekatan privasi yang ketat. Obrolan dan kode pengguna secara otomatis dihapus setelah 30 hari, kecuali jika diperlukan untuk alasan hukum. Namun, kebijakan ini berubah drastis. Kecuali pengguna secara aktif memilih untuk tidak ikut, data mereka akan disimpan hingga lima tahun dan digunakan dalam siklus pelatihan untuk meningkatkan kemampuan Claude.

Kebijakan baru ini berlaku untuk semua paket layanan, termasuk Free, Pro, dan Max, serta Claude Code di bawah tingkatan tersebut. Namun, pengguna bisnis, pemerintah, pendidikan, dan API tidak terpengaruh oleh perubahan ini.
Bagaimana Cara Kerjanya?
Pengguna baru akan melihat opsi ini saat mendaftar. Pengguna lama akan menerima notifikasi pop-up berjudul "Pembaruan Ketentuan dan Kebijakan Konsumen." Tombol "Terima" berwarna biru besar secara otomatis mengaktifkan opsi berbagi data. Namun, ada tombol kecil yang memungkinkan pengguna untuk memilih keluar (opt-out).
Jika pengguna mengabaikan notifikasi ini, Claude akan berhenti berfungsi setelah 28 September. Penting untuk dicatat bahwa hanya obrolan dan kode di masa depan yang terpengaruh. Data dari percakapan lama tidak akan digunakan, kecuali jika percakapan tersebut dibuka kembali. Selain itu, jika obrolan dihapus, data tersebut tidak akan digunakan untuk pelatihan.
Pengguna dapat mengubah keputusan mereka di Pengaturan Privasi. Namun, setelah data digunakan untuk pelatihan, data tersebut tidak dapat ditarik kembali.
Mengapa Anthropic Melakukan Perubahan Ini?
Anthropic mengklaim bahwa data pengguna sangat penting untuk meningkatkan kemampuan Claude dalam berbagai aspek, termasuk pemahaman konteks, penulisan kode, penalaran, dan keamanan. Perusahaan juga menekankan bahwa mereka tidak menjual data kepada pihak ketiga dan menggunakan filter otomatis untuk membersihkan informasi sensitif sebelum digunakan dalam pelatihan.
Meskipun demikian, perubahan ini menggeser keseimbangan dari privasi otomatis menjadi berbagi data otomatis, kecuali jika pengguna secara eksplisit menolak.
Apa Pilihan Anda?
Keputusan Anthropic pada dasarnya menempatkan Claude pada jalur yang lebih cepat untuk meningkatkan data dunia nyata yang digunakannya untuk pelatihan. Semakin baik Claude dalam menjawab pertanyaan kompleks, menulis kode, dan menghindari kesalahan, semakin besar kemajuan yang dapat dicapai.
Namun, kemajuan ini datang dengan harga tertentu bagi pengguna yang mungkin sekarang menjadi bagian dari set pelatihan, dengan data mereka disimpan selama bertahun-tahun, bukan hanya beberapa minggu.
Bagi pengguna biasa, ini mungkin bukan masalah besar. Tetapi bagi pengguna yang sadar akan privasi, atau siapa pun yang membahas proyek kerja, masalah pribadi, atau informasi sensitif di Claude, pembaruan ini bisa menjadi bendera merah.
Dengan opsi berbagi data yang diaktifkan secara default, tanggung jawab sekarang ada pada pengguna untuk memilih keluar jika ingin data mereka tetap pribadi.

