Elon Musk Tuai Kritik Global: Batasi Fitur AI Berbayar

by -17 Views

Pada hari Minggu, 11 Januari 2026, kontroversi seputar penggunaan kecerdasan buatan kembali mencuat ke permukaan, kali ini melibatkan Grok, chatbot AI milik xAI yang dimiliki oleh Elon Musk. Setelah menerima kritik global terkait fitur AI yang dapat melakukan praktik “digital undressing”, perusahaan mengambil langkah pembatasan akses. Keputusan ini memicu perdebatan baru mengenai isu etika, keamanan anak, dan tanggung jawab platform teknologi besar.

Menurut laporan dari CNN pada Minggu, 11 Januari 2026, chatbot Grok kini membatasi sebagian fitur imagine image generation hanya untuk pelanggan berbayar. Langkah ini diambil setelah mendapat kritik global terkait respons Grok terhadap permintaan pengguna untuk “melucuti pakaian secara digital” dari orang-orang dalam gambar, termasuk anak-anak.

Perubahan ini terjadi antara Kamis dan Jumat. Sekarang, akun resmi Grok di platform X hanya memberikan layanan generate image kepada pelanggan berlangganan. Namun, fitur “edit image” masih tersedia bagi semua pengguna ketika mengunggah gambar ke X dengan bantuan Grok. Pembuatan gambar dan video tetap gratis melalui situs web dan aplikasi mandiri Grok.

Pembatasan hanya berlaku saat pengguna menandai Grok dalam unggahan publik di X dan meminta pembuatan gambar secara terbuka, suatu fitur yang awalnya dapat digunakan tanpa biaya. Kontroversi ini juga mengungkap ketidakpuasan Elon Musk terhadap pagar keamanan Grok Imagine dalam rapat internal xAI, yang mengakibatkan tiga anggota inti tim keselamatan xAI meninggalkan perusahaan hampir bersamaan.

Otoritas dan pejabat dari berbagai negara seperti Inggris, Uni Eropa, Malaysia, dan India juga mengungkapkan keprihatinan terkait perlindungan Grok dan potensinya dalam pembuatan pornografi deepfake. Seorang juru bicara dari kantor Perdana Menteri Inggris Keir Starmer mengkritik langkah X tersebut, menyebut bahwa keputusan itu hanya mengubah fitur AI yang memerankan pembuatan gambar tidak etis menjadi layanan premium.

Source link