Tekno  

Deepfake Bisa Perkeruh Suasana, Ketahui Cara Kerja dan Bahayanya

Mengenal deepfake, cara kerja dan bahayanya - apakabar.co.id
Mengenal deepfake, cara kerja dan bahayanya. Foto: dok. Medium

apakabar.co.id, JAKARTA – Ramai konten deepfake dengan menggunakan teknologi AI (Artificial Intelligence) di sejumlah media sosial atau aplikasi berbagi video di internet. Waspada! sebelumnya, ketahui dahulu cara kerja dan bahayanya.

Deepfake merupakan konten berupa audio maupun video yang sudah disunting sedemikian rupa menggunakan teknologi AI berbasis Voice Generator.

Konten deepfake biasanya mengandung suatu narasi yang tidak sesuai atau disinformasi. Kontennya dibuat untuk tujuan tertentu semisal propaganda.

Mengutip laman Eleven Labs, Selasa (23/4), AI Voice Generator mampu memproses sebuah perintah teks untuk menghasilkan suara.

Karakter suara yang diproses dapat diubah sedemikian rupa dengan menggunakan mekanisme Voice Changer.

AI Voice Generator juga disertai teknik Natural Languange Processing (NLP) yang mampu memahami suasana hingga ekspresi dari perintah teks, ataupun suara yang diberikan.

Selain itu, ada lagi teknologi AI bernama Voice Cloning yang mampu meniru suara seseorang secara lebih detail.

Voice Cloning mampu menghasilkan suara yang mirip seperti manusia dengan penyesuaian karakter tertentu.

Voice Cloning disertai detail lainnya semisal aksen, pola sampai nada bicara.

Maka dari itu, deepfake hasil rekayasa AI ini perlu diwaspadai, terutama di suasana pemilu seperti sekarang ini.

Sebagai contohnya, baru-baru ini beredar percakapan dengan suara yang mirip Surya Paloh selaku Ketua Partai NasDem, dan Capres nomor urut 1 Anies Baswedan.

Konten deepfake tersebut berisi suara mirip Surya Paloh yang tengah berbicara dengan sedikit nada memarahi Anies Baswedan.

Namun saat ini, sudah dikonfirmasi sebagai hoaks oleh akun resmi @NasDem di X (dulunya Twitter).

“Waspada Hoax ya kakak-kakak semua. Beredar video suara rekaman palsu Ketua Umum Partai NasDem Surya Paloh dan Capres 01 Anies Baswedan. Sekali lagi, Partai NasDem tegaskan itu tidak benar dan merupakan fitnah yang amat keji,” cuit NasDem, Selasa (23/1).

Bahkan sebelumnya pada Oktober 2023, konten deepfake berupa video yang menampilkan Presiden Joko Widodo (Jokowi) berpidato dengan bahasa Cina juga beredar di dunia maya.

Video tersebut memuat narasi hoaks soal pemerintahan Presiden Joko Widodo telah dikendalikan oleh negara Cina.

Beberapa contoh produk deepfake hasil kejahatan teknologi AI ini, tentu bisa menyesatkan publik dengan penyebaran yang begitu luas di internet.

Untuk mengetahui lebih jauh, apakabar.co.id meminta tanggapan beberapa masyarakat, misalnya Yudha P., warga Jakarta Selatan yang menyebut konten  deepfake adalah tindak kejahatan yang serius di era digital.

“Zaman makin canggih jadi makin mengerikan, apalagi semenjak ada AI. Sekarang gampang banget menebar kebohongan, intinya harus ada edukasi perihal penggunaan AI dan bagaimana cara masyarakat mengetahui itu,” ucap pria tersebut.

Menurut Yudha, konten deepfake buatan teknologi AI harus cepat-cepat ditangani para pakar atau ahli di bidangnya secara serius.

“Tujuannya untuk mencegah kebohongan tidak tersebar luas dan mencegah orang-orang termakan hoaks. Sebab beberapa orang mungkin malas mencari kebenaran dari suatu konten palsu semacam ini,” ujarnya.

Hal senada diungkapkan oleh Isal, warga Depok, Jawa Barat yang menyebut konten deepfake bisa meresahkan masyarakat, terutama dalam situasi politik yang sedang memanas tahun ini.

“Ini bahaya karena bisa merugikan suatu pihak. Kemungkinan konten semacam ini dibuat lawan politik untuk saling menjatuhkan. Kini teknologi makin canggih, tapi jangan sampai buat hal yang negatif,” ungkap pria 45 tahun tersebut kepada apakabar.co.id.

Isal menuturkan, kini pengguna media sosial (medsos) atau internet perlu lebih waspada dalam menilai suatu konten.

“Perlu teliti lagi dalam main medsos, karena mungkin deepfake ini ada saja yang percaya dan tidak,” tutupnya.

20 kali dilihat, 2 kunjungan hari ini

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *