FOKUS BERNAMA

Mengarusperdanakan Jenayah Seksual Menerusi Grok

14/01/2026 11:22 AM
Daripada Nina Muslim

Kira-kira lima tahun lalu, saya memuat turun sebuah aplikasi yang mampu mengubah foto orang menjadi video dia menyanyi. Saya kongsikan aplikasi tersebut dengan rakan sekerja, dan tidak lama kemudian kami menonton video ahli politik dan haiwan kesayangan menyanyikan lagu “I Will Survive” dendangan Gloria Gaynor sambil ketawa terkekeh-terkekeh. 

Namun, lima tahun kemudian, teknologi deepfake di sebalik aksi kucing saya sebagai penyanyi R&B bukan lagi sesuatu yang boleh dijadikan bahan tawa.

Penggunaan alat digital untuk memanipulasi foto dan menghasilkan pornografi tanpa keizinan bukan perkara baharu. Namun teknologi deepfake dan kecerdasan buatan (AI) generatif telah berkembang dengan begitu pesat dalam tempoh beberapa tahun kebelakangan ini, dan kini digunakan untuk menghasilkan imej seksual yang kelihatan sangat realistik.

Sesuatu yang dahulunya tersembunyi di sudut gelap Internet, pornografi tanpa keizinan kini kian diarusperdanakan, berpunca daripada penggemblengan ciri penyuntingan foto berasaskan AI ke dalam chatbot sebuah platform media sosial popular. Situasi ini bermula dengan Grok, chatbot terbina dalam X, namun sebelum itu sudahpun wujud aplikasi kurang dikenali yang mampu “menanggalkan” pakaian dan menghasilkan foto bersifat seksual.

“Kita beralih dengan pantas, daripada melihat imej kaku dan tidak realistik yang mudah dikenal pasti oleh penganalisis kami, ke fotorealisme yang begitu tinggi tahapnya sehingga sukar untuk membezakannya daripada bahan penderaan seksual kanak-kanak (CSAM) yang sebenar,” kata Cat McShane, pegawai seranta Internet Watch Foundation (IWF) yang berpangkalan di United Kingdom (UK), sebuah badan pemantau perlindungan kanak-kanak, kepada Bernama menerusi e-mel.

Memandangkan alat penjanaan imej semakin banyak diintegrasikan secara langsung  dalam platform media sosial arus perdana, para pakar memberi amaran bahawa imej seksual melibatkan kanak-kanak serta imej seksual wanita tanpa persetujuan tidak lagi terhad kepada rangkaian tersembunyi. Sebaliknya, bahan sedemikian kini dihasil, dikongsi dan disebar secara meluas di ruang awam, sekali gus memburukkan lagi tahap kemudaratan yang berlaku.

 

ISU GROK

X (dulu Twitter) memperkenalkan Grok sekitar penghujung Disember/awal bulan ini, dan tidak lama kemudian pengguna mula menggunakan alat itu untuk menghasilkan deepfake berbentuk seksual yang eksplisit dengan “menanggalkan” pakaian wanita dan kanak-kanak serta menggayakan mereka secara seksual. Antara yang dilaporkan menjadi mangsa termasuk penyanyi Taylor Swift dan pelakon drama bersiri “Stranger Things” Nell Fisher yang baru berusia 14 tahun. 

Walaupun X berikrar untuk melindungi keselamatan penggunanya, banyak imej berbahaya itu masih dapat diakses, menurut laporan media. Sementara itu pertanyaan media kepada xAI, syarikat milik Elon Musk yang membangunkan Grok pula hanya menerima jawapan ringkas: “Legacy Media Lies” yang bermaksud media arus perdana berbohong.

Malaysia dan Indonesia telah menyekat akses media sosial itu pada Ahad (11 Jan), dan menyatakan mereka hanya akan menarik balik sekatan apabila langkah-langkah  keselamatan telah dilaksanakan. Kesatuan Eropah, UK dan Australia dijangka mengambil langkah serupa dalam masa terdekat. 

IWF sebuah badan kebajikan yang memantau CSAM dan imej penderaan seksual lain dalam dunia maya, melaporkan ia menemukan imej jenayah yang berasal daripada Grok di forum web gelap khusus untuk AI-CSAM.

Menurut IWF, imej-imej tersebut dijadikan sebagai “titik permulaan” atau asas untuk menghasilkan kandungan lebih ekstrem - termasuk bahan Kategori A, iaitu bentuk penderaan paling teruk di bawah undang-undang British - menggunakan alat AI lain.

Pada waktu hampir sama, Grok digunakan secara terang-terangan di platform X untuk menjana imej seksual tanpa keizinan orang sebenar. Pengguna memberikan maklum balas terhadap gambar wanita dan kanak-kanak - baik selebriti ataupun orang biasa - dengan arahan menanggalkan pakaian atau menggayakan mereka dalam posisi seksual. Laporan mengenai kejadian ini menganggarkan bahawa chatbot itu menghasilkan kira-kira satu imej seksual tanpa keizinan setiap minit dalam tempoh 24 jam dengan sesetengah perkongsian menerima ribuan tanda suka.

Bagi para pakar, kebimbangan ini tidak terhad kepada hanya satu platform, sebaliknya mereka lebih bimbang akan bagaimana AI generatif merobohkan tembok yang selama ini menghalang akses kepada bahan penderaan seksual. Peralihan dari rangkaian tertutup ke platform arus perdana menandakan perubahan asas dalam cara penderaan seksual dizahirkan di alam maya.

Laporan tentang CSAM yang dihasilkan oleh AI kian meningkat dengan kandungan semakin ekstrem tahun demi tahun. Menurut Laporan IWF 2024, sebanyak 70 peratus imej tersebut dihoskan di Eropah (termasuk Rusia dan Turki). Asia pula menyumbang 14 peratus dengan Malaysia menjadi hos kepada lima peratus daripada imej berkenaan.

“Apa yang kita lihat kini bukanlah mengenai lonjakan mendadak dalam kes yang dilaporkan, sebaliknya lebih kepada perubahan berterusan dari segi tahap kemudaratan seksual,” kata Samantha Khoo, penyelidik Dasar Siber dan Teknologi di Institut Kajian Strategik dan Antarabangsa (ISIS) Malaysia.

Beliau berkata ketika AI generatif belum lagi dapat diakses dengan mudah, polis dan kumpulan masyarakat sivil telahpun menangani imej seksual yang dimanipulasi secara digital melibatkan wanita dan kanak-kanak. AI cuma meningkatkan lagi corak dengan menjadikan salah guna itu lebih mudah dihasilkan dan disebarkan tanpa perlu akses langsung kepada mangsa.  

Di Malaysia, statistik rasmi masih tidak konsisten dari segi mengasingkan kes yang dijana oleh AI dengan bentuk penyalahgunaan lain. Namun, berdasarkan dapatan penyelidikan Khoo, data penguatkuasaan menunjukkan peningkatan mendadak dari segi pemadaman kandungan eksplisit yang dijana AI, daripada 186 kes pada 2022 kepada lebih 1,200 kes menjelang akhir 2024.

Pada April 2025, seorang remaja di Johor ditangkap kerana menghasil dan menjual imej seksual rakan-rakan sekelas yang dimanipulasi menggunakan AI. Pada September tahun lepas, beberapa ahli politik di Malaysia melaporkan penipu mengugut untuk menyebarkan video seks deepfake melibatkan mereka melainkan mereka membayar US$100,000.

Walaupun sumbangan bahan dijana AI kepada kes penyalahgunaan keseluruhan masih lagi kecil, IWF memberi amaran sistem yang direka untuk mengesan dan memadam kandungan sedemikian mungkin akan menjadi terbeban sedikit masa lagi.

 

MENCEGAH LEBIH BAIK DARIPADA MERAWAT

Penggunaan AI untuk penderaan seksual secara terbuka di platform arus perdana telah mengubah tanggapan lama bahawa sesuatu yang kelihatan di ruang digital selalunya selamat. Dahulu, bahan penderaan seksual bergantung pada kerahsiaan dan penyulitan untuk mengelak dikesan, tetapi kini bahan tersebut muncul di ruang digital awam, dipacu oleh kesan tular dan perbuatan meniru, tidak lagi disembunyikan.

Yang mengejutkan pakar dan orang awam ialah bagaimana syarikat teknologi boleh membenarkan deepfake seksual yang terang-terangan menjadi perkara arus perdana.

Prof Madya Manjeevan Singh Seera, daripada Fakulti Perniagaan di Monash University Malaysia memberitahu Bernama menerusi e-mel bahawa perkembangan itu adalah sesuatu yang dapat dijangka.

“Dari awal lagi perkara ini tidak sepatutnya berlaku,” katanya. “Keupayaan alat AI untuk menghasilkan imej seksual yang eksplisit dan tanpa keizinan adalah sesuatu yang boleh dijangkakan dan sepatutnya telah disekat pada peringkat reka bentuk.”

Apa yang sedang berlaku, katanya, mencerminkan “kegagalan jelas dalam kawalan kendiri.” Platform dan pembangun, tegas Singh, “tidak sepatutnya dibenarkan mengawal diri sendiri memandangkan tidak ada sebarang akibat sebenar atas kemudaratan yang ditimbulkan.”   

Beliau berkata Malaysia mempunyai undang-undang tegas untuk mengawal kandungan dalam talian yang berbahaya, termasuk Kanun Keseksaan (Seksyen 292), Akta Komunikasi dan Multimedia 1998 serta Akta Keselamatan Dalam Talian 2025 yang berkuat kuasa pada 1 Jan lalu. Menteri Digital Gobind Singh dilaporkan berkata Malaysia akan membentangkan Akta AI di Parlimen pada tahun ini.

“Masalahnya, bagaimanapun, bukanlah ketiadaan undang-undang tetapi penguatkuasaan yang lemah dan kuasa terhad ke atas platform,” kata Manjeevan Singh.

Beliau menambah bahawa kerajaan perlu memperkukuh usaha kawal selia termasuk keperluan lesen dan pematuhan untuk perkhidmatan dalam talian agar platform yang beroperasi di Malaysia tertakluk kepada pengawasan jelas dan tanggungjawab keselamatan.

Ahli kriminologi Dr. Haezreena Begum Abdul Hamid daripada Universiti Malaya bersetuju, sambil menambah bahawa Malaysia boleh mengikuti contoh Denmark yang memberikan setiap individu hak cipta ke atas imej dalam talian mereka.

“Setiap orang mempunyai hak cipta dan tanda dagangan mereka sendiri terhadap diri mereka, bermakna mereka boleh memilih untuk (mengambil tindakan undang-undang terhadap penggunaan imej mereka),” katanya.

Para pakar berkata pencegahan mesti sentiasa menjadi keutamaan, bukan hanya mengambil tindakan selepas kejadian berlaku. Mereka berkata penggubalan garis panduan etika dan memastikan pembangun teknologi serta syarikat mengikutinya adalah sangat penting, kerana kesan imej-imej sedemikian seringkali sangat merosakkan dan tidak boleh dipulihkan.

“Kesan kerosakan berlaku serta-merta dan sering bersifat kekal,” kata Khoo. “Walaupun akses kepada alat tertentu dihadkan kemudian, kerosakan telahpun berlaku.” Tindakan menurunkan imej tidak dapat memulihkan kerosakan psikologi atau reputasi.

Walaupun Malaysia mempunyai undang-undang mengenai imej seksual yang bersifat penderaan, banyak negara masih ketinggalan dalam menangani CSAM dan pornografi dalam talian yang dihasilkan oleh AI dan deepfake tanpa persetujuan. Para pakar bersetuju bahawa kerjasama antarabangsa adalah perlu bagi menghalang penyebaran dan normalisasi imej-imej terbabit.

Dr Aini Suzana Ariffin, pakar AI dan pengerusi STEPAN (Science Engineering Technology and Innovation Policy Asia and the Pacific Network) UNESCO, berkata cabaran ini bertambah rumit kerana skala teknologi dan jangkauannya merentas sempadan. Penyalahgunaan imej secara seksual boleh dihasilkan di satu negara, dihoskan di negara lain dan diakses secara global, menjadikan penguatkuasaan sukar walaupun undang-undang wujud.

“Mereka bukan bawa inovasi sahaja, tetapi juga risiko yang sangat membimbangkan,” katanya, sambil menambah bahawa syarikat sering terlalu fokus pada keuntungan dan aplikasi komersial teknologi berbanding keselamatan pengguna.

Beliau juga menekankan bahawa adalah penting untuk mengekalkan “unsur manusia dalam teknologi”, supaya tidak menimbulkan bahaya kepada orang.

“Keselamatan, ketelusan, akauntabiliti dan pemantauan manusia adalah sangat penting,” katanya.

 

 


BERNAMA menyediakan informasi dan berita terkini yang sahih dan komprehensif yang disebarkan melalui Wires BERNAMA; www.bernama.com; BERNAMA TV di saluran Astro 502, unifi TV 631 dan MYTV 121 dan Radio BERNAMA di frekuensi FM93.9 (Lembah Klang), FM107.5 (Johor Bahru), FM107.9 (Kota Kinabalu) dan FM100.9 (Kuching).

Ikuti kami di media sosial :
Facebook : @bernamaofficial, @bernamatv, @bernamaradio
Twitter : @bernama.com, @BernamaTV, @bernamaradio
Instagram : @bernamaofficial, @bernamatvofficial, @bernamaradioofficial
TikTok : @bernamaofficial

© 2026 BERNAMA   • Penafian   • Dasar Privasi   • Dasar Keselamatan