Kemajuan teknologi sedikit banyak telah mengubah kehidupan kita. Beberapa di antaranya muncul untuk memudahkan kegiatan sehari-hari dan juga sebagai hiburan.
Baru-baru ini, sebuah akun Instagram @ianyxi mengunggah video pendek yang berisi penggalan suara penyanyi-penyanyi internasional menyanyikan lagu hits Indonesia. Mulai dari suara Ariana Grande, Jennie BLACKPINK, hingga Jung Kook BTS dibuat menyanyikan lagu-lagu Indonesia.
Sontak unggahan itu pun menjadi viral dan beberapa orang menganggap hal tersebut menghibur. Namun suara tersebut bukanlah berasal dari penyanyi aslinya yang sengaja menyanyikan lagu-lagu tersebut, melainkan dibuat dengan teknologi Voice Artificial Intelligence (AI).
Meskipun teknologi ini sangat menghibur dan menarik, namun tetap saja menyimpan bayang-bayang kriminalitas yang tak bisa dihindari. Bahkan kemungkinan kejahatan ini sulit untuk terdeteksi karena kita belum bisa membedakan mana suara asli dan mana suara dari AI.
Kasus Penipuan dengan Suara AI Kian Marak
Laporan tahunan 2021-22, Services Australia mengatakan biometrik suara sudah digunakan untuk mengautentikasi lebih dari 56.000 panggilan per hari, dan 39 persen panggilan ke nomor bisnis utama Centrelink. Ia juga mengatakan bila voiceprint ini hampir sama dengan deteksi sidik jari.
Kantor Pajak Australia (ATO) mengatakan sangat sulit bagi seseorang untuk menirukan voiceprint kamu dan mengakses informasi pribadimu. Dr. Lisa Given, seorang profesor ilmu informasi di RMIT University, mengatakan bahwa suara yang dihasilkan AI juga bisa membuat orang percaya kalau mereka sedang berbicara dengan seseorang yang mereka kenal.
"Ketika sebuah sistem bisa menyalin suara saya dengan akurat dan menambahkan empati di dalamnya, bisa dibayangkan seorang scammer bisa beralih dari mengirim teks penipuan, berubah jadi panggilan telepon atau pesan suara. Pesan suara itu dibuat sangat mirip dengan orang itu," ujarnya seperti dikutip abc.net.au.
Belum lama ini, seorang ibu di Amerika Serikat, Jennifer DeStefano nyaris menjadi korban penipuan yang memanfaatkan AI Voice. Pelaku mencoba memanfaatkan teknologi tersebut untuk meniru suara anaknya dan seolah-olah terjadi penculikan.
Dilansir The Independent, DeStefano awalnya menerima telepon yang berisi suara putrinya yang sedang menangis dan terisak. Di samping suara putrinya itu, terdengar suara pria yang seolah sedang mengambil alih telepon dan mulai mengancam.
Selain suara itu, DeStefano juga mendengar suara putrinya yang meminta tolong. Ia pun yakin kalau suara itu berasal dari putrinya. Lalu, pelaku meminta uang tebusan 1 juta USD atau Rp14,7 miliar. Namun belum sempat ia mengirim uang tersebut ke pelaku, seorang temannya menelpon suami DeStefano dan mengabarkan kalau putri mereka aman.
Kejahatan yang memanfaatkan AI Voice kini mulai bermunculan dan menjadi modus baru yang perlu diwaspadai. Bahkan Komisi Perdagangan Federal AS pun memperingatkan konsumen tentang panggilan darurat keluarga palsu menggunakan klon suara buatan AI.
FBI juga telah mengeluarkan peringatan tentang penipuan penculikan virtual. Kondisi ini membuat para ahli teknologi menyarankan beberapa taktik agar tidak tertipu dengan kloning suara AI yang digunakan oleh para penipu.
Pertama, ketika kamu mendapatkan telepon yang mencurigakan, langsung hubungi teman atau keluarga yang bersangkutan untuk memverifikasi identitas mereka. Kedua, berhati-hatilah terhadap panggilan telepon tidak terduga, bahkan dari orang yang kamu kenal sekalipun. Sebab Nomor ID penelpon bisa dipalsukan.
Ketiga, berhati-hatilah jika kamu diminta untuk memberikan informasi pribadi seperti alamat, tanggal lahir, atau nama tengahmu. Bisa saja itu adalah cara pelaku kejahatan memperoleh informasi pribadi yang akan digunakan untuk menipu.
Teknologi AI memang memiliki manfaat positif bagi kehidupan manusia sehari-hari. Namun kamu perlu ingat bahwa tidak ada yang kebal dari sasaran penipuan berbasis AI ini. Intinya, kamu perlu menjadi sekritis mungkin dan tidak percaya begitu saja kepada orang lain.
(DIR/tim)