Teknologi Deepfake, Peniru Wajah Canggih Tetapi Mengerikan

 


Teknologi Deepfake semakin canggih dengan bantuan kecerdasan buatan. Sebenarnya, ada aplikasi yang membolehkan orang yang telah mati bergerak melalui gambar. Tetapi ada sisi yang menakutkan juga.

Sebagai penjelasan, deepfake adalah kecerdasan buatan (Artificial Intelligence / AI) yang dapat membuat video atau audio palsu menggunakan bahan rujukan yang ada.


Yang terbaru dan viral adalah aplikasi yang dibuat oleh MyHeritage pada akhir Februari 2021, iaitu Deep Nostalgia yang menggunakan deepfakes. Aplikasi ini dapat membuat sesiapa sahaja dapat "menghidupkan" koleksi foto lama dengan mudah. Pendek kata, ramai orang mencuba ciri ini untuk mengenang orang yang mereka sayangi yang meninggal pertama kali.



Walaupun telah disambut secara positif oleh beberapa orang, ada juga yang bimbang akan kecanggihan deepfakes. Mereka berpendapat, deepfake boleh menjadi media yang menyokong penyebaran tipuan. Pakar keselamatan siber Pratama Persadha memberikan pendapatnya mengenai sisi lain dari deepfake.


"Ancaman sebenar dari dunia siber di masa depan semakin beragam, misalnya apa yang sering dibincangkan dan menjadi ancaman adalah tipuan. Tetapi sekarang, ancaman tipuan ditambahkan pada model deepfake yang benar-benar berbahaya," katanya kata.


Sekiranya hanya untuk kegunaan peribadi, nampaknya tidak menjadi masalah, tetapi jika ada niat buruk maka ia boleh terluka. Kerana, hingga kini belum ada teknologi yang dapat mengesan sama ada video itu palsu atau asli.


Pratama mengatakan bahawa salah satu contoh yang paling kerap adalah video palsu bekas Presiden AS Barack Obama. Malah, selain Obama, tokoh lain juga menjadi sasaran. Salah satunya ialah Elon Musk, bos SpaceX dan Tesla, yang membuat saham syarikatnya runtuh.


Untuk memburukkan lagi keadaan, satu laman web secara eksklusif melayani penonton porno mendalam dengan memaparkan wajah berhala wanita K-Pop di halaman. Mereka bahkan menilai mereka berdasarkan populariti siaran seperti yang dilaporkan oleh  Koreaboo, Ahad (25/4/2021).


Statistik menunjukkan bahawa 25% mangsa teknologi deepfake untuk video porno menggunakan wajah berhala wanita K-Pop.


Video-video ini tidak hanya melanggar hak asasi manusia dan dapat dianggap sebagai bentuk gangguan seksual. Video-video ini juga sering dijual sebagai bayar-per-tontonan, dengan para pencipta mendapat keuntungan dari gambar-gambar berhala K-Pop. Video tersebut juga disebarkan secara terbuka di media sosial seperti Twitter.

Previous Post Next Post

Contact Form