Dupi anjeun kantos wondered kumaha urang terang saha urang diajak ngobrol dina telepon? Éta pasti langkung ti ngan ukur nami anu dipidangkeun dina layar. Upami urang ngadangu sora anu teu biasa nalika dipencét tina nomer anu disimpen, urang langsung terang aya anu salah. Dina raraga nangtukeun saha sabenerna urang ngobrol, urang subconsciously catetan timbre, ragam jeung intonasi ucapan. Tapi kumaha dipercaya dédéngéan urang dina jaman digital kecerdasan jieunan? Salaku warta panganyarna nembongkeun, naon urang ngadangu teu salawasna patut percanten – sabab sora bisa jadi palsu: deepfakes.
Tulungan, kuring keur kasusahan
Dina musim semi 2023, seniman penipu di Arizona nyobian ngarampas artos awéwé tina telepon. Anjeunna ngupingkeun sora putrina anu umurna 15 taun nyuhunkeun bantosan sateuacan saurang lalaki anu teu dipikanyaho nyandak telepon sareng nungtut tebusan, sedengkeun jeritan putrina masih kadéngé di latar tukang. Indung yakin yén sora éta bener-bener anakna. Untungna, manéhna geura-giru manggihan yén sagalana aya alusna jeung putri nya, ngarah nya nyadar yén manéhna téh korban con a.
Teu tiasa 100% kabuktian yén panyerang ngagunakeun deepfake pikeun niru sora rumaja. Panginten panipuan langkung tradisional, kalayan kualitas telepon, kaayaan anu teu disangka-sangka, setrés, sareng imajinasi indung sadayana maénkeun peranna pikeun ngajantenkeun anjeunna mikir yén anjeunna ngupingkeun anu henteu. Tapi sanaos téknologi jaringan saraf henteu dianggo dina kasus ieu, deepfakes tiasa sareng leres-leres kajantenan, sareng nalika aranjeunna berkembang, aranjeunna janten langkung ngayakinkeun sareng langkung bahaya. Pikeun ngalawan eksploitasi téknologi deepfake ku penjahat, urang kedah ngartos kumaha jalanna.
Naon ari deepfakes?
deepfakes (“studi jero” + “palsu”) Kecerdasan jieunan parantos lami-lami dina sababaraha taun ka pengker. Pembelajaran mesin tiasa dianggo pikeun nyiptakeun gambar palsu, pidéo atanapi eusi audio anu ngayakinkeun. Salaku conto, jaringan saraf tiasa dianggo dina poto sareng pidéo pikeun ngagentos raray hiji jalma ku anu sanés bari ngajaga ekspresi wajah sareng cahaya. Sanaos mimitina palsu ieu kualitasna rendah sareng gampang ditingali, sabab algoritma maju, hasilna janten ngayakinkeun yén ayeuna sesah pikeun ngabédakeunana tina kanyataan. Dina 2022, acara TV deepfake munggaran di dunya dirilis di Rusia, dimana deepfakes Jason Statham, Margot Robbie, Keanu Reeves sareng Robert Pattinson maénkeun tokoh utama.

Versi palsu béntang Hollywood dina séri TV Rusia PMJason. (Sumber)
Konversi sora
Tapi ayeuna fokus urang kana téknologi anu dianggo pikeun nyiptakeun sora jero. Ieu ogé katelah konvérsi sora (atanapi “kloning sora” upami anjeun ngadamel salinan digital lengkep). Konvérsi sora dumasar kana autoencoder – jenis jaringan saraf anu mimiti ngompres data input (bagian tina encoder) kana perwakilan internal anu kompak, teras diajar decompress deui tina perwakilan ieu (bagian tina decoder) pikeun mulangkeun data aslina. Ku cara kieu modél pangajaran nampilkeun data dina format anu dikomprés bari nyorot inpormasi anu paling penting.

Skéma Autoencoder. (Sumber)
Pikeun nyiptakeun sora jero palsu, dua rékaman audio diwanohkeun kana modél, kalayan sora tina rékaman kadua dirobih janten anu munggaran. Encoder eusi dipaké pikeun nangtukeun Naon ceuk ti rekaman kahiji, sarta encoder speaker dipaké pikeun nimba ciri utama sora tina rekaman kadua – hartina. Kumaha jalma kadua nyarita. Répréséntasi dikomprés tina Naon kudu ngomong jeung Kumaha disebut digabungkeun, sarta hasilna dihasilkeun maké decoder a. Jadi, naon anu diomongkeun dina kasét kahiji diguar ku jalma dina kasét kadua.

Proses nyiptakeun sora Deepfake. (Sumber)
Aya deui pendekatan anu nganggo autoencoders, contona anu ngagunakeun jaringan adversarial generatif (GAN) atanapi model difusi. Panaliti ngeunaan cara nyiptakeun deepfakes dirojong khususna ku industri pilem. Pikirkeun deui: nganggo audio sareng pidéo palsu, anjeun tiasa ngagentos wajah aktor dina pilem sareng acara TV, sareng pilem dub sareng ekspresi wajah anu disingkronkeun dina basa naon waé.
Kumaha eta rengse
Nalika urang nalungtik téknologi deepfake, urang heran kumaha héséna ngadamel sora deepfake sorangan? Tétéla aya seueur alat open source gratis pikeun ngerjakeun konvérsi sora, tapi henteu gampang pikeun kéngingkeun hasil anu kualitas luhur sareng aranjeunna. Merlukeun pangalaman programming Python alus sarta kaahlian processing, komo lajeng kualitas nu jauh ti idéal. Salaku ogé open source, aya ogé solusi proprietary sareng mayar anu sayogi.
Salaku conto, dina awal 2023, Microsoft ngumumkeun algoritma anu tiasa ngahasilkeun sora manusa dumasar kana conto audio anu panjangna ngan tilu detik! Modél ieu ogé tiasa dianggo sareng sababaraha basa, janten anjeun tiasa ngupingkeun diri anjeun nyarios dina basa asing. Sadaya ieu sigana ngajangjikeun, tapi sajauh ieu ngan ukur dina tahap panalungtikan. Tapi platform ElevenLabs ngamungkinkeun pamaké pikeun nyieun sora palsu tanpa usaha: ngan unggah rekaman audio tina sora jeung kecap nu bakal diucapkeun, sarta éta. Tangtosna, pas kecap kaluar, jalma-jalma mimiti maénkeun téknologi ieu ku cara anu béda.
tarung Hermione sarta overconfidence bank urang
Dina minuhan pinuh ku hukum Godwin urang, Emma Watson dijieun maca “Mein Kampf”, sarta pamaké séjén migunakeun téhnologi ElevenLabs pikeun “hack” rekening bank dirina sorangan. Sora pikasieuneun? Éta leres pikeun kami – khususna nalika anjeun nambihan carita horor populér ngeunaan seniman penipu anu ngumpulkeun conto sora dina telepon ku cara ngajantenkeun jalma nyarios “enya” atanapi “konfirmasi” nalika aranjeunna nyamar janten bank, lembaga pamaréntah, atanapi jasa polling. , terus maok duit make otorisasi sora.
Tapi dina kanyataanana hal teu jadi goréng. Kahiji, butuh kira-kira lima menit rekaman audio pikeun nyieun sora jieunan di ElevenLabs, jadi “enya” teu cukup. Bréh, bank ogé nyaho ngeunaan panipuan ieu, jadi sora ngan bisa dipaké pikeun initiate operasi tangtu teu patali jeung mindahkeun dana (contona, mariksa kasaimbangan akun anjeun). Jadi duit teu bisa dipaling ku cara kieu.
Pikeun kiridit na, ElevenLabs diréaksikeun gancang kana masalah ku nulis ulang aturan layanan urang, Larang bébas (ie, anonim) pamaké ti nyieun deepfakes dumasar kana sora unggah sorangan, sarta blocking akun kalawan keluhan ngeunaan “eusi karasa”.
Sanaos léngkah-léngkah ieu tiasa ngabantosan, aranjeunna tetep henteu ngabéréskeun masalah ngagunakeun sora deepfakes pikeun tujuan anu curiga.
Kumaha deui deepfakes tiasa dianggo dina panipuan
Téknologi Deepfake sorangan henteu bahaya, tapi dina panangan penipu éta tiasa janten alat anu bahaya sareng seueur kasempetan pikeun panipuan, fitnah, atanapi disinformasi. Untungna, teu aya kasus panipuan massal anu ngalibetkeun parobihan sora, tapi aya sababaraha kasus profil luhur anu ngalibetkeun sora jero.
Taun 2019, penipu ngagunakeun téknologi ieu pikeun ngancurkeun perusahaan énergi anu berbasis di Inggris. Dina paguneman telepon, para penipu nyamar janten lulugu eksekutif perusahaan induk Jérman, sareng nungtut transfer urgent € 220,000 ($ 243,000) kana rekening perusahaan supplier anu tangtu. Saatos mayar éta, scammer disebut dua kali deui – kahiji kalina pikeun appease staf kantor Inggris sarta ngalaporkeun yén parusahaan induk geus dikirim ngabalikeun duit, sarta kadua kalina pikeun ménta mindahkeun sejen. Tilu kali CEO Inggris yakin yén anjeunna ngobrol sareng bosna sabab anjeunna terang aksen Jerman sareng nada sareng cara nyariosna. Mindahkeun kadua teu dikirim saukur kusabab scammer nu messed up na nelepon ti nomer Austria tinimbang angka Jerman, nu dijieun SEO UK curiga.
Sataun saterusna, dina taun 2020, penipu ngagunakeun deepfake pikeun maok nepi ka $35,000,000 ti perusahaan Jepang anu henteu namina (ngaran perusahaan sareng jumlah total barang anu dipaling henteu diungkabkeun salami panalungtikan).
Henteu dipikanyaho solusi mana (open source, mayar, atanapi malah sorangan) anu dianggo ku scammers pikeun ngabobodo sora, tapi dina dua kasus di luhur, perusahaan-perusahaan jelas sangsara – parah – tina panipuan palsu.
Naon salajengna?
Pendapat béda dina masa depan deepfakes. Kiwari, kalolobaan téknologi ieu aya dina panangan korporasi ageung, sareng kasadiaanna pikeun masarakat umum terbatas. Tapi sakumaha sajarah model generative leuwih populér kayaning DALL-E, Midjourney jeung Stable Diffusion nembongkeun, komo deui ku model basa badag (ChatGPT saha?), Téknologi sarupa bisa muncul dina domain publik dina mangsa nu bakal datang. Ieu dikonfirmasi ku bocor anyar tina korespondensi internal Google dimana wawakil raksasa internét prihatin yén aranjeunna bakal kaleungitan balapan AI pikeun muka konci solusi. Ieu écés bakal ngakibatkeun ngaronjat pamakéan sora deepfakes – kaasup pikeun panipuan.
Léngkah anu paling ngajangjikeun dina pamekaran deepfake nyaéta generasi sacara real-time, anu bakal mastikeun kamekaran ngabeledug tina deepfakes (sareng panipuan dumasar kana éta). Naha anjeun tiasa ngabayangkeun telepon pidéo sareng jalma anu wajah sareng sorana palsu? Nanging, tingkat pamrosésan data ieu peryogi sumber daya anu ageung ngan ukur pikeun korporasi ageung, ku kituna téknologi pangsaéna bakal tetep pribadi sareng panipuan moal tiasa ngiringan para profesional. Bar kualitas luhur ogé bakal ngabantosan pangguna diajar kumaha gampang ngaidentipikasi palsu.
Kumaha ngajaga diri
Ayeuna balik deui ka patarosan kahiji urang: naha urang tiasa percanten kana sora anu urang kadenge (nyaeta – upami aranjeunna henteu aya sora dina sirah urang)? Muhun, éta bisa jadi overkill lamun urang meunang paranoid sepanjang waktos tur mimitian mikir nepi kecap kode rusiah ngagunakeun kalawan babaturan sareng kulawarga; kumaha oge, dina kaayaan leuwih serius, paranoia misalna bisa jadi hade. Upami sadayana berkembang dumasar kana skénario pesimis, téknologi deepfake dina panangan scammers tiasa janten senjata anu kuat di hareup, tapi masih aya waktos pikeun nyiapkeun sareng ngawangun metode panyalindungan anu dipercaya ngalawan palsu: parantos seueur panalungtikan. dina deepfakes, sareng perusahaan ageung ngembangkeun solusi kaamanan. Nyatana, kami parantos ngobrol sacara rinci ngeunaan cara merangan pidéo deepfake di dieu.
Pikeun ayeuna, panyalindungan ngalawan AI fakery nembé ngamimitian, janten penting pikeun émut yén deepfakes mangrupikeun jinis rékayasa sosial anu sanés. Résiko ngajalankeun kana panipuan sapertos kieu leutik, tapi tetep aya, ku kituna patut dikenal sareng émut. Upami anjeun nampi telepon anu aneh, perhatikeun kualitas sora. Naha dina monoton anu teu wajar, teu kaharti, atanapi aya sora aneh? Salawasna ganda-pariksa informasi ngaliwatan saluran sejen, jeung inget yen reuwas jeung panik téh naon scammers ngandelkeun paling.
#Sora #deepfakes #téknologi #prospek #panipuan