KABARBURSA.COM - Gambar-gambar ganjil membanjiri platform sosial X milik Elon Musk minggu lalu. Beberapa di antaranya berisikan konten kekerasan, menyinggung, bahkan bermuatan seksual.
Salah satu contohnya, gambar Donald Trump mengemudikan helikopter di atas latar belakang gedung World Trade Center yang terbakar. Ada pula video Kamala Harris dalam balutan bikini, dan Donald Duck menggunakan heroin. Di tengah keributan ini, Elon Musk menulis, “Grok adalah AI paling menyenangkan di dunia!”
Hingga Jumat, visual mengejutkan itu lenyap. Volume unggahan tentang Grok memuncak pada 166.000 postingan pada 15 Agustus, dua hari setelah peluncuran fitur image generator Grok, menurut data dari PeakMetrics.
Meski hype ini telah mereda, dampak jangka panjangnya berpotensi mengganggu ranah moderasi konten AI. Peluncuran Grok adalah sebuah eksperimen penuh risiko, menguji apa yang terjadi ketika batasan sengaja ditiadakan.
Musk menjadi pendukung AI yang tak banyak diatur, terang-terangan mengkritik OpenAI dan Google sebagai terlalu "woke." Dengan dukungan dari startup Black Forest Labs, Grok dibiarkan liar, tanpa filter yang membatasi gambar yang dihasilkan.
Tapi kemudian, Grok mulai menerapkan pembatasan tertentu. Beberapa hari setelah debut fitur tersebut, penolakan terhadap permintaan konten kekerasan yang lebih eksplisit. Namun, beberapa trik masih lolos, misalnya dengan mengganti "darah" menjadi "sirup stroberi" atau menambahkan kata "mainan" pada "pistol" Grok tetap saja bekerja.
Tentu, ada banyak alasan kenapa perusahaan AI sangat berhati-hati. Kebanyakan generator gambar AI memiliki aturan ketat untuk menghindari pelanggaran hak cipta atau penyebaran informasi yang salah. Kreator mengajarkan AI untuk tidak menghasilkan konten yang melanggar batas etika, seperti penggambaran nudity atau kekerasan ekstrem.
Hany Farid, seorang profesor ilmu komputer di University of California, Berkeley, menjelaskan bahwa ada tiga level batasan dalam AI image generator: pelatihan, input teks, dan output gambar. Batasan ini umumnya diterapkan oleh AI arus utama seperti Adobe Firefly, yang dilatih menggunakan katalog stok foto miliknya sendiri agar sesuai dengan undang-undang hak cipta.
Adobe memastikan bahwa gambar-gambar yang dihasilkan Firefly tidak melanggar kekayaan intelektual perusahaan lain. Hal ini berbanding terbalik dengan model yang digunakan oleh Grok, yang tidak menyertakan batasan jelas di dalamnya. Meski demikian, beberapa platform lain seperti DALL-E dari OpenAI mencoba lebih transparan dengan menambahkan deskripsi detail terhadap gambar yang dihasilkan, untuk menjelaskan bagaimana AI bekerja di balik layar.
Pada bulan Februari, Google Gemini juga memperkenalkan mekanisme serupa, menambahkan kualifikasi secara otomatis seperti “perawat, laki-laki” atau “perawat, perempuan” untuk menciptakan variasi gambar. Namun, respons negatif dari pengguna memaksa Google menghentikan sementara fitur ini.
Meski begitu, pembatasan konten telah menjadi bagian dari ekosistem image generator yang populer. Midjourney, misalnya, yang dikenal longgar dalam hal peraturan, memblokir permintaan gambar terkait figur publik seperti Joe Biden dan Donald Trump menjelang pemilu AS.
Namun, Grok berbeda. Di dalam ekosistem platform X yang terbatas, AI ini bekerja tanpa pagar yang jelas. Jack Brewster, editor di NewsGuard yang mengawasi penyebaran informasi keliru, menegaskan bahwa Grok secara alami hadir dalam platform dan mengundang pengguna untuk membagikan gambar yang mereka buat, tidak peduli seberapa mengejutkan gambar tersebut.
Black Forest Labs, startup di balik model AI yang menggerakkan Grok, tidak menjelaskan batasan spesifik yang ada dalam alat tersebut. Dokumentasi daring untuk Flux, model AI yang menjadi fondasi Grok, hanya menyebutkan aturan dasar, seperti larangan terhadap penyebaran konten eksploitasi anak atau merugikan orang lain. Pada akhirnya, tanggung jawab diberikan sepenuhnya kepada pengguna untuk mematuhi aturan ini.
NewsGuard mencatat bahwa Grok lebih sering menghasilkan gambar yang mendukung narasi palsu dibandingkan AI generator lainnya. Brewster dan timnya meminta Grok untuk membuat ilustrasi terkait 20 informasi yang terbukti salah dari basis data NewsGuard. Hasilnya, Grok lebih mampu menghasilkan gambar yang menyokong kebohongan ini dibandingkan Midjourney atau DALL-E.
Grok mungkin hanya permulaan. Bagaimana kita mengatur alat semacam ini di masa depan masih menjadi teka-teki yang belum terpecahkan.
Artikel ini disediakan untuk tujuan informasi semata dan bukan merupakan ajakan, rekomendasi, atau instruksi untuk membeli atau menjual saham. Segala bentuk analisis dan rekomendasi saham sepenuhnya berasal dari pihak analis atau sekuritas yang bersangkutan. KabarBursa.com tidak bertanggung jawab atas keputusan investasi, kerugian, atau keuntungan yang timbul akibat penggunaan informasi dalam artikel ini. Keputusan investasi sepenuhnya merupakan tanggung jawab investor. Investor diharapkan melakukan riset independen dan mempertimbangkan risiko dengan cermat sebelum mengambil keputusan investasi.