Risiko di Sebalik Deepfake Terhadap Anti Deepfake


 Deepfake, pada pandangan pertama ia tidak kelihatan berisiko. Sebenarnya, anda boleh mengatakan itu keren, dapat mengubah wajah seseorang dalam video atau foto. Namun, jika anda membayangkan (sedikit) lebih jauh, teknologi ini mempunyai banyak masalah.

Salah satu senario berbahaya adalah menukar wajah dalam video pornografi dengan orang lain, mungkin tokoh awam - artis atau ahli politik - dan kemudian menyebarkannya. Atau anda boleh menggunakan wajah orang biasa dan kemudian menggunakan video untuk memeras ugut.


Itu hanya satu senario. Sudah tentu terdapat banyak senario jenayah lain yang boleh berlaku dengan menggunakan teknologi deepfake. Bergantung pada kreativiti penjahat, tentu saja.



Ini kemudian mendorong para penyelidik untuk mengembangkan teknologi anti-deepfake, iaitu untuk mengesan penggunaan deepfake dalam video.


Pada bulan April 2018, sebilangan penyelidik dari Universiti Teknikal Munich, Jerman, mengembangkan teknologi seperti ini. Sama seperti deepfake, anti-deepfakes juga menggunakan kecerdasan buatan, tetapi bukan untuk membuat tetapi untuk mengesan.


Baca juga:

Deepfake MyHeritage Membuat Foto Vintage 'Alive', Inilah Caranya!

Cara kerjanya adalah dengan mencari perincian dalam video seperti artifak yang mungkin berlaku semasa proses pembuatan. AI ini memotong foto, mengujinya melalui rangkaian saraf, untuk menguji kesahihannya. Dari sini diharapkan kita dapat mencari perincian yang mungkin dilewatkan oleh mata manusia.


Walau bagaimanapun, kaedah pengesanan seperti ini dapat dikalahkan melalui teknik lain. Penyelidik di University of California San Diego telah menemui cara untuk mengalahkan anti-deepfake dengan memasukkan bingkai gambar yang mereka sebut sebagai 'contoh lawan' dalam video.


'Contoh permusuhan' ini sangat canggih, malah boleh dikatakan mengerikan. Dengan 'contoh permusuhan' ini disisipkan, AI boleh membuat kesalahan gambar / video penyu sebagai senjata, atau espresso untuk baseball.


Caranya adalah dengan memasukkan 'noise' dalam gambar, yang menghancurkan sistem klasifikasi pada jaringan saraf.


Teknik ini benar-benar berbahaya, kerana dalam banyak ujian, ia dapat menipu pelbagai pengesan deepfake. Sebenarnya, banyak syarikat sudah bersaing untuk mengembangkan teknologi yang dapat mengesan deepfakes.


Untuk meminimumkan potensi negatif deepfake, contohnya adalah Facebook, yang baru-baru ini mengadakan 'Deepfake Detection Challenge' untuk mempercepat penyelidikan pengesanan deepfake. Teknologi terkini dikatakan dapat mengesan dengan kadar ketepatan lebih dari 90% ketika berhadapan dengan ciptaan deepfake yang 'bersih'.


Tetapi menurut Parrth Neekhara, seorang pelajar kejuruteraan komputer dari UC San Diego, "contoh lawan" pasukannya dengan mudah memperbodohkan pengesan dengan hanya memasukkan "bunyi bising", yang hampir tidak dapat dilihat oleh manusia, ke dalam video.


Menurutnya, dalam pengujian sejauh ini, teknik 'contoh lawan' ini dapat 99% menipu sistem pengesanan deepfake ketika diberikan akses ke jenis pengesan. Tetapi walaupun dalam keadaan terburuk, di mana mereka tidak mempunyai akses ke jenis pengesanan dan video dimampatkan, kadar kejayaannya masih 78.3%. Masih sangat tinggi.


Nasib baik penyelidik ini tidak menerbitkan kod pengesanan deepfake ini kepada orang ramai. Sebabnya? Jelas kerana terdedah kepada penyalahgunaan. Mereka juga bekerjasama dengan pembuat sistem pengesanan deepfake untuk memperkuat sistem ini.


"Video adversarial yang dibuat menggunakan kod kami berpotensi menipu banyak pengesan deepfake yang digunakan di beberapa media sosial. Kami bekerjasama dengan pasukan yang membina sistem pengesanan deepfake ini, dan menggunakan hasil penyelidikan mereka untuk memperkuat sistem pengesanan," tambah Neekhara .


Sudah tentu, 'kucing dan tetikus' antara teknologi deepfake dan anti deepfake tidak akan berhenti di situ. Kedua-dua teknologi akan terus berkembang dan saling berhubungan, ketika penggodam dan pasukan keselamatan siber memperjuangkan pengetahuan mereka untuk mencari celah dan menutup celah.

Risiko di Sebalik Deepfake Terhadap Anti Deepfake Risiko di Sebalik Deepfake Terhadap Anti Deepfake Reviewed by thecekodok on 2:45:00 AM Rating: 5
Powered by Blogger.