Dupi anjeun kantos wondered kumaha urang terang saha urang diajak ngobrol dina telepon? Éta pasti langkung ti ngan ukur nami anu dipidangkeun dina layar. Upami urang ngadangu sora anu teu biasa nalika dipencét tina nomer anu disimpen, urang langsung terang aya anu salah. Dina raraga nangtukeun saha sabenerna urang ngobrol, urang subconsciously catetan timbre, ragam jeung intonasi ucapan. Tapi kumaha dipercaya dédéngéan urang dina jaman digital kecerdasan jieunan? Salaku warta panganyarna nembongkeun, naon urang ngadangu teu salawasna patut percanten – sabab sora bisa jadi palsu: deepfakes.

Tulungan, kuring keur kasusahan

Dina musim semi 2023, seniman penipu di Arizona nyobian ngarampas artos awéwé tina telepon. Anjeunna ngupingkeun sora putrina anu umurna 15 taun nyuhunkeun bantosan sateuacan saurang lalaki anu teu dipikanyaho nyandak telepon sareng nungtut tebusan, sedengkeun jeritan putrina masih kadéngé di latar tukang. Indung yakin yén sora éta bener-bener anakna. Untungna, manéhna geura-giru manggihan yén sagalana aya alusna jeung putri nya, ngarah nya nyadar yén manéhna téh korban con a.

Teu tiasa 100% kabuktian yén panyerang ngagunakeun deepfake pikeun niru sora rumaja. Panginten panipuan langkung tradisional, kalayan kualitas telepon, kaayaan anu teu disangka-sangka, setrés, sareng imajinasi indung sadayana maénkeun peranna pikeun ngajantenkeun anjeunna mikir yén anjeunna ngupingkeun anu henteu. Tapi sanaos téknologi jaringan saraf henteu dianggo dina kasus ieu, deepfakes tiasa sareng leres-leres kajantenan, sareng nalika aranjeunna berkembang, aranjeunna janten langkung ngayakinkeun sareng langkung bahaya. Pikeun ngalawan eksploitasi téknologi deepfake ku penjahat, urang kedah ngartos kumaha jalanna.

Naon ari deepfakes?

deepfakes (“studi jero” + “palsu”) Kecerdasan jieunan parantos lami-lami dina sababaraha taun ka pengker. Pembelajaran mesin tiasa dianggo pikeun nyiptakeun gambar palsu, pidéo atanapi eusi audio anu ngayakinkeun. Salaku conto, jaringan saraf tiasa dianggo dina poto sareng pidéo pikeun ngagentos raray hiji jalma ku anu sanés bari ngajaga ekspresi wajah sareng cahaya. Sanaos mimitina palsu ieu kualitasna rendah sareng gampang ditingali, sabab algoritma maju, hasilna janten ngayakinkeun yén ayeuna sesah pikeun ngabédakeunana tina kanyataan. Dina 2022, acara TV deepfake munggaran di dunya dirilis di Rusia, dimana deepfakes Jason Statham, Margot Robbie, Keanu Reeves sareng Robert Pattinson maénkeun tokoh utama.

Versi palsu béntang Hollywood dina séri TV Rusia PMJason

Versi palsu béntang Hollywood dina séri TV Rusia PMJason. (Sumber)

Konversi sora

Tapi ayeuna fokus urang kana téknologi anu dianggo pikeun nyiptakeun sora jero. Ieu ogé katelah konvérsi sora (atanapi “kloning sora” upami anjeun ngadamel salinan digital lengkep). Konvérsi sora dumasar kana autoencoder – jenis jaringan saraf anu mimiti ngompres data input (bagian tina encoder) kana perwakilan internal anu kompak, teras diajar decompress deui tina perwakilan ieu (bagian tina decoder) pikeun mulangkeun data aslina. Ku cara kieu modél pangajaran nampilkeun data dina format anu dikomprés bari nyorot inpormasi anu paling penting.

Skéma Autoencoder

Skéma Autoencoder. (Sumber)

Pikeun nyiptakeun sora jero palsu, dua rékaman audio diwanohkeun kana modél, kalayan sora tina rékaman kadua dirobih janten anu munggaran. Encoder eusi dipaké pikeun nangtukeun Naon ceuk ti rekaman kahiji, sarta encoder speaker dipaké pikeun nimba ciri utama sora tina rekaman kadua – hartina. Kumaha jalma kadua nyarita. Répréséntasi dikomprés tina Naon kudu ngomong jeung Kumaha disebut digabungkeun, sarta hasilna dihasilkeun maké decoder a. Jadi, naon anu diomongkeun dina kasét kahiji diguar ku jalma dina kasét kadua.

Proses nyiptakeun sora Deepfake

Proses nyiptakeun sora Deepfake. (Sumber)

Aya deui pendekatan anu nganggo autoencoders, contona anu ngagunakeun jaringan adversarial generatif (GAN) atanapi model difusi. Panaliti ngeunaan cara nyiptakeun deepfakes dirojong khususna ku industri pilem. Pikirkeun deui: nganggo audio sareng pidéo palsu, anjeun tiasa ngagentos wajah aktor dina pilem sareng acara TV, sareng pilem dub sareng ekspresi wajah anu disingkronkeun dina basa naon waé.

Kumaha eta rengse

Nalika urang nalungtik téknologi deepfake, urang heran kumaha héséna ngadamel sora deepfake sorangan? Tétéla aya seueur alat open source gratis pikeun ngerjakeun konvérsi sora, tapi henteu gampang pikeun kéngingkeun hasil anu kualitas luhur sareng aranjeunna. Merlukeun pangalaman programming Python alus sarta kaahlian processing, komo lajeng kualitas nu jauh ti idéal. Salaku ogé open source, aya ogé solusi proprietary sareng mayar anu sayogi.

Salaku conto, dina awal 2023, Microsoft ngumumkeun algoritma anu tiasa ngahasilkeun sora manusa dumasar kana conto audio anu panjangna ngan tilu detik! Modél ieu ogé tiasa dianggo sareng sababaraha basa, janten anjeun tiasa ngupingkeun diri anjeun nyarios dina basa asing. Sadaya ieu sigana ngajangjikeun, tapi sajauh ieu ngan ukur dina tahap panalungtikan. Tapi platform ElevenLabs ngamungkinkeun pamaké pikeun nyieun sora palsu tanpa usaha: ngan unggah rekaman audio tina sora jeung kecap nu bakal diucapkeun, sarta éta. Tangtosna, pas kecap kaluar, jalma-jalma mimiti maénkeun téknologi ieu ku cara anu béda.

tarung Hermione sarta overconfidence bank urang

Dina minuhan pinuh ku hukum Godwin urang, Emma Watson dijieun maca “Mein Kampf”, sarta pamaké séjén migunakeun téhnologi ElevenLabs pikeun “hack” rekening bank dirina sorangan. Sora pikasieuneun? Éta leres pikeun kami – khususna nalika anjeun nambihan carita horor populér ngeunaan seniman penipu anu ngumpulkeun conto sora dina telepon ku cara ngajantenkeun jalma nyarios “enya” atanapi “konfirmasi” nalika aranjeunna nyamar janten bank, lembaga pamaréntah, atanapi jasa polling. , terus maok duit make otorisasi sora.

Tapi dina kanyataanana hal teu jadi goréng. Kahiji, butuh kira-kira lima menit rekaman audio pikeun nyieun sora jieunan di ElevenLabs, jadi “enya” teu cukup. Bréh, bank ogé nyaho ngeunaan panipuan ieu, jadi sora ngan bisa dipaké pikeun initiate operasi tangtu teu patali jeung mindahkeun dana (contona, mariksa kasaimbangan akun anjeun). Jadi duit teu bisa dipaling ku cara kieu.

Pikeun kiridit na, ElevenLabs diréaksikeun gancang kana masalah ku nulis ulang aturan layanan urang, Larang bébas (ie, anonim) pamaké ti nyieun deepfakes dumasar kana sora unggah sorangan, sarta blocking akun kalawan keluhan ngeunaan “eusi karasa”.

Sanaos léngkah-léngkah ieu tiasa ngabantosan, aranjeunna tetep henteu ngabéréskeun masalah ngagunakeun sora deepfakes pikeun tujuan anu curiga.

Kumaha deui deepfakes tiasa dianggo dina panipuan

Téknologi Deepfake sorangan henteu bahaya, tapi dina panangan penipu éta tiasa janten alat anu bahaya sareng seueur kasempetan pikeun panipuan, fitnah, atanapi disinformasi. Untungna, teu aya kasus panipuan massal anu ngalibetkeun parobihan sora, tapi aya sababaraha kasus profil luhur anu ngalibetkeun sora jero.

Taun 2019, penipu ngagunakeun téknologi ieu pikeun ngancurkeun perusahaan énergi anu berbasis di Inggris. Dina paguneman telepon, para penipu nyamar janten lulugu eksekutif perusahaan induk Jérman, sareng nungtut transfer urgent € 220,000 ($ 243,000) kana rekening perusahaan supplier anu tangtu. Saatos mayar éta, scammer disebut dua kali deui – kahiji kalina pikeun appease staf kantor Inggris sarta ngalaporkeun yén parusahaan induk geus dikirim ngabalikeun duit, sarta kadua kalina pikeun ménta mindahkeun sejen. Tilu kali CEO Inggris yakin yén anjeunna ngobrol sareng bosna sabab anjeunna terang aksen Jerman sareng nada sareng cara nyariosna. Mindahkeun kadua teu dikirim saukur kusabab scammer nu messed up na nelepon ti nomer Austria tinimbang angka Jerman, nu dijieun SEO UK curiga.

Sataun saterusna, dina taun 2020, penipu ngagunakeun deepfake pikeun maok nepi ka $35,000,000 ti perusahaan Jepang anu henteu namina (ngaran perusahaan sareng jumlah total barang anu dipaling henteu diungkabkeun salami panalungtikan).

Henteu dipikanyaho solusi mana (open source, mayar, atanapi malah sorangan) anu dianggo ku scammers pikeun ngabobodo sora, tapi dina dua kasus di luhur, perusahaan-perusahaan jelas sangsara – parah – tina panipuan palsu.

Naon salajengna?

Pendapat béda dina masa depan deepfakes. Kiwari, kalolobaan téknologi ieu aya dina panangan korporasi ageung, sareng kasadiaanna pikeun masarakat umum terbatas. Tapi sakumaha sajarah model generative leuwih populér kayaning DALL-E, Midjourney jeung Stable Diffusion nembongkeun, komo deui ku model basa badag (ChatGPT saha?), Téknologi sarupa bisa muncul dina domain publik dina mangsa nu bakal datang. Ieu dikonfirmasi ku bocor anyar tina korespondensi internal Google dimana wawakil raksasa internét prihatin yén aranjeunna bakal kaleungitan balapan AI pikeun muka konci solusi. Ieu écés bakal ngakibatkeun ngaronjat pamakéan sora deepfakes – kaasup pikeun panipuan.

Léngkah anu paling ngajangjikeun dina pamekaran deepfake nyaéta generasi sacara real-time, anu bakal mastikeun kamekaran ngabeledug tina deepfakes (sareng panipuan dumasar kana éta). Naha anjeun tiasa ngabayangkeun telepon pidéo sareng jalma anu wajah sareng sorana palsu? Nanging, tingkat pamrosésan data ieu peryogi sumber daya anu ageung ngan ukur pikeun korporasi ageung, ku kituna téknologi pangsaéna bakal tetep pribadi sareng panipuan moal tiasa ngiringan para profesional. Bar kualitas luhur ogé bakal ngabantosan pangguna diajar kumaha gampang ngaidentipikasi palsu.

Kumaha ngajaga diri

Ayeuna balik deui ka patarosan kahiji urang: naha urang tiasa percanten kana sora anu urang kadenge (nyaeta – upami aranjeunna henteu aya sora dina sirah urang)? Muhun, éta bisa jadi overkill lamun urang meunang paranoid sepanjang waktos tur mimitian mikir nepi kecap kode rusiah ngagunakeun kalawan babaturan sareng kulawarga; kumaha oge, dina kaayaan leuwih serius, paranoia misalna bisa jadi hade. Upami sadayana berkembang dumasar kana skénario pesimis, téknologi deepfake dina panangan scammers tiasa janten senjata anu kuat di hareup, tapi masih aya waktos pikeun nyiapkeun sareng ngawangun metode panyalindungan anu dipercaya ngalawan palsu: parantos seueur panalungtikan. dina deepfakes, sareng perusahaan ageung ngembangkeun solusi kaamanan. Nyatana, kami parantos ngobrol sacara rinci ngeunaan cara merangan pidéo deepfake di dieu.

Pikeun ayeuna, panyalindungan ngalawan AI fakery nembé ngamimitian, janten penting pikeun émut yén deepfakes mangrupikeun jinis rékayasa sosial anu sanés. Résiko ngajalankeun kana panipuan sapertos kieu leutik, tapi tetep aya, ku kituna patut dikenal sareng émut. Upami anjeun nampi telepon anu aneh, perhatikeun kualitas sora. Naha dina monoton anu teu wajar, teu kaharti, atanapi aya sora aneh? Salawasna ganda-pariksa informasi ngaliwatan saluran sejen, jeung inget yen reuwas jeung panik téh naon scammers ngandelkeun paling.


#Sora #deepfakes #téknologi #prospek #panipuan

Episode 299 tina The Transatlantik Cable Podcast dimimitian ku diskusi ngeunaan aplikasi manipulasi poto (alias: saringan) dina média sosial. Naha aranjeunna kedah dilarang atanapi diatur? Ti dinya, diskusi ngancik kana warta yén pangusaha 23 taun geus nyieun versi AI dirina anu bakal kabogoh anjeun $1 per menit.

Pindah gancang, tim teras ningali carita ti Amérika Serikat, nalika Wendy milarian AI pikeun ngabantosan aranjeunna dina urutan drive-through. Tungtungna, pikeun nyimpulkeun, tim ningali carita ti Cina sareng saurang lalaki di propinsi Gansu nembé ditéwak kusabab disangka ngagunakeun ChatGPT pikeun nyiptakeun carita palsu ngeunaan kacilakaan karéta.

Upami anjeun resep kana naon anu anjeun déngé, punten pertimbangkeun ngalanggan.


#Podcast #Kabel #Transatlantik #épisode

Abdi rada bosen ayeuna kana sadaya warta AI, tapi sigana kuring kedah tahan sakedik deui, sabab éta pasti bakal diomongkeun tanpa lirén sahenteuna sahenteuna atanapi dua taun deui. Henteu yén AI bakal ngeureunkeun ningkatkeun, tangtosna; Éta ngan ukur wartawan, blogger, TikTokers, Tweeter, sareng spiker sanésna di luar sana antukna bakal bosen kana topik éta. Tapi pikeun ayeuna, sumanget maranéhanana keur ngalarti teu ukur ku raksasa tech, tapi ogé ku pamaréntah: Britania ngarencanakeun pikeun ngawanohkeun tilu arah régulasi AI; Cina ngalebetkeun tagihan AI pikeun debat umum; AS nyauran “akuntabilitas algoritma”; EU keur ngabahas tapi teu acan lulus tagihan on AI, jeung saterusna. Rencana abound keur mangsa nu bakal datang, tapi, nepi ka ayeuna, kreasi sarta pamakéan sistem AI teu kungsi diwatesan pisan; Nanging, sigana bakal énggal-énggal robih.

Isu anu tiasa diperdebatkeun, tangtosna, nyaéta kieu: naha urang peryogi pangaturan pamaréntahan AI? Lamun enya – naha, sarta kumaha eta kasampak kawas?

Naon pikeun ngatur

Naon kecerdasan jieunan? (Henteu) hatur nuhun kana departemén pamasaran, istilah éta parantos dianggo pikeun seueur hal – tina modél generatif canggih sapertos GPT-4, dugi ka sistem pembelajaran mesin pangbasajanna, kalebet sababaraha anu parantos aya mangpuluh-puluh taun. Inget Т9 dina telepon push-tombol? Kantos nguping spam otomatis sareng klasifikasi file jahat? Naha anjeun ningali rekomendasi pilem dina Netflix? Sadayana téknologi akrab ieu dumasar kana algoritma pembelajaran mesin (ML), alias “AI”.

Di dieu di Kaspersky, urang geus ngagunakeun téhnologi misalna dina produk urang pikeun ampir 20 taun, sok preferring pikeun nelepon deui “mesin learning” – lamun ngan kusabab “kecerdasan jieunan” sigana ngingetkeun lolobana jalma hal kawas ngomong supercomputers dina spaceships jeung lianna. barang langsung kaluar tina fiksi ilmiah. Nanging, komputer sareng droids sapertos kitu kedah tiasa pinuh mikir sapertos manusa – pikeun maréntahkeun intelijen buatan umum (AGI) atanapi intelijen super-jieunan (ASI), tapi boh AGI atanapi ASI henteu acan diciptakeun, sareng boro-boro kitu. dina mangsa nu bakal datang.

Barina ogé, upami sagala jinis AI diukur ku yardstick anu sami sareng diatur sapinuhna, sakumna industri IT sareng seueur industri anu aya hubunganana henteu bakal saé pisan. Contona, upami urang (Kaspersky) bakal dipenta pikeun ménta idin ti sakabéh “pangarang” runtuyan latihan urang, urang, salaku parusahaan kaamanan informasi, bakal ngajalankeun kana roadblock a. Urang diajar tina malware sareng spam, sareng ngalebetkeun pangaweruh anu dicandak kana pembelajaran mesin urang, sedengkeun panyipta langkung resep nahan data kontakna (anu terang?!). Ogé, nunjukkeun yen data geus dikumpulkeun sarta algoritma urang geus dilatih pikeun ampir 20 taun ayeuna – sabaraha jauh deui nu geus kaliwat hiji ekspektasi?

Ku alatan éta, hal anu penting pikeun anggota DPRD ngadangukeun, teu pamasaran jalma, tapi pikeun mesin learning / ahli industri AI sarta ngabahas poténsi pangaturan dina cara husus tur difokuskeun: contona, kamungkinan ngagunakeun sistem multi-fungsi anu dilatih dina volume badag. tina data kabuka, ageung atanapi tanggung jawab luhur sareng sistem pengambilan kaputusan tingkat résiko.

Sareng aplikasi AI énggal ngabutuhkeun révisi pangaturan anu sering.

Naha diatur?

Jujur, kuring henteu percanten kana Poé Kiamat anu dibantuan intelijen super dina saratus taun ka hareup. Tapi kuring yakin dina loba headaches ti pamakéan thoughtless tina kotak hideung komputer.

Salaku panginget pikeun anu henteu acan maca tulisan kami ngeunaan kabungahan sareng kasedih tina pembelajaran mesin, aya tilu masalah utama sareng AI naon waé:

  • Henteu écés kumaha saé data latihan anu dianggo pikeun éta.
  • Henteu jelas pisan naon anu AI parantos “ngarti” tina stok data éta, atanapi kumaha AI nyandak kaputusan na.
  • Sareng anu paling penting – algoritma tiasa disalahgunakeun ku pamekar sareng pangguna na.

Sapertos kitu, naon waé tiasa kajantenan: tina panyalahgunaan AI anu jahat, dugi ka patuh kana kaputusan AI. Conto grafis tina kahirupan nyata: kasalahan autopilot fatal, deepfakes (1, 2, 3) anu ayeuna jadi kabiasaan di memes komo warta, kasalahan konyol dina kontrak guru sakola, pulisi nyekel shoplifters tapi jalma salah, sarta misogynistic AI parabot recruiting. . Sajaba ti éta, sagala AI bisa diserang ku bantuan sampel data adversarial husus crafted: kandaraan bisa tricked maké stiker, hiji bisa nimba informasi pribadi tina GPT-3, sarta anti virus atawa EDR ogé bisa ditipu. Sareng ku jalan kitu, serangan dina drone tempur AI anu dijelaskeun dina fiksi ilmiah sigana henteu langkung tebih deui.

Pondokna, pamakean AI henteu acan nyiptakeun masalah anu ageung, tapi pasti aya seueur poténsi pikeun éta. Ku alatan éta, prioritas pangaturan kudu jelas:

  1. Nyegah insiden infrastruktur kritis (pabrik/kapal/jalur transmisi listrik/pembangkit listrik nuklir).
  2. Ngaminimalkeun ancaman fisik (kandaraan nyetir sorangan, salah diagnosis panyakit).
  3. Ngaminimalkeun karuksakan pribadi jeung resiko bisnis (ditewak atawa rekrutmen dumasar kana ukuran tangkorak, requisition / pengadaan miscalculations, jsb).

Tujuan régulasi kedah maksa pangguna sareng padagang AI pikeun ati-ati supados henteu ningkatkeun résiko négatip ieu kajantenan. Sareng résiko anu langkung serius, langkung aktip kedah dipaksa.

Aya perhatian sejen anu mindeng timbul lamun datang ka AI: kudu sasuai jeung norma moral jeung etika, sarta pikeun minuhan kanyamanan psikologis, maksudna. Pikeun tujuan ieu, urang ningali panggeuing anu dipasihkeun pikeun ngabéjaan yén aranjeunna ningali obyék anu henteu aya (digambar AI) atanapi komunikasi sareng robot tibatan manusa, ogé béwara anu nginpokeun aranjeunna yén hak cipta dihormat nalika latihan AI, jeung saterusna. Jeung naha? Janten anggota parlemén sareng padagang AI henteu janten targét pikeun gerombolan ambek! Sareng ieu mangrupikeun perhatian anu nyata di sababaraha bagian dunya (inget protés ngalawan Uber, contona).

Kumaha nyetél

Cara pangbasajanna pikeun ngatur AI nyaéta ngalarang sadayana, tapi sigana pendekatan ieu henteu acan sayogi. Barina ogé, henteu gampang ngalarang AI tibatan komputer. Ku alatan éta, sagala ukuran pangaturan lumrah kudu nuturkeun prinsip “nu gede resiko, beuki stringent kaayaan”.

Modél pembelajaran mesin anu digunakeun pikeun hal anu rada sepele – sapertos rekomendasi pembeli ritel – tiasa teu tiasa diatur, tapi modél anu langkung canggih – atanapi langkung sénsitip kana daérah aplikasi – syarat anu drastis pikeun ngical paralatan sareng pangguna sistem. Salaku conto:

  • Kirimkeun kode modél atanapi set data latihan pikeun ditinjau ka régulator atanapi ahli.
  • Ngabuktoskeun kateguhan set data pelatihan, kalebet tina segi bias, hak cipta sareng sajabana.
  • Ngabuktikeun kawajaran “output” AI; contona, bebas tina halusinasi.
  • Labél operasi sareng hasil AI.
  • Ngamutahirkeun modél sareng set data pelatihan; contona, nyaring jalma kalawan warna kulit tangtu tina data sumber, atawa nyumputkeun rumus kimia pikeun hiji ngabeledug dina kaluaran model.
  • Uji AI pikeun “data lawan”, sareng ngapdet paripolahna upami diperyogikeun.
  • Kontrol saha anu ngagunakeun AI tangtu sareng kunaon. Nolak sababaraha jinis pamakean.
  • Ngalatih AI badag, atawa dilarapkeun ka wewengkon husus, ngan kalawan persetujuan pangaturan.
  • Ngabuktikeun yén éta aman ngagunakeun AI pikeun ngarengsekeun sababaraha masalah. Pendekatan ieu pisan aheng pikeun IT, tapi leuwih ti akrab, contona, pausahaan farmasi, pabrik pesawat, sarta loba industri lianna dimana kaamanan nyaeta di forefront. Kahiji datang lima taun nguji teleb, lajeng clearance pangaturan, sarta ngan lajeng hiji produk bisa dileupaskeun pikeun pamakéan umum.

Ukuran terakhir sigana ketat teuing, tapi ngan dugi ka anjeun terang ngeunaan kajadian dimana AI ngacokeun prioritas perawatan pikeun asma sareng penderita pneumonia akut sareng nyobian ngirim aranjeunna ka bumi tinimbang ka unit perawatan intensif.

Ukuran penegak tiasa dibasajankeun denda pikeun ngalanggar aturan AI (saluyu sareng hukuman Éropa pikeun ngalanggar GDPR) dugi ka lisénsi kagiatan anu aya hubunganana sareng AI sareng sanksi kriminal pikeun ngalanggar hukum (sakumaha anu diajukeun di China).

Tapi naon cara anu leres?

Di handap ieu ngagambarkeun pamadegan pribadi kuring – tapi dumasar kana 30 taun ngungudag aktip ngembangkeun téhnologis canggih dina industri cybersecurity: ti mesin learning kana sistem “aman-demi-desain”.

Kahiji, urang butuh regulasi. Tanpa éta, AI bakal sapertos jalan raya tanpa aturan lalu lintas. Atanapi, langkung relevan, éta nyarupaan kaayaan pangumpulan data pribadi online dina ahir taun 2000-an, nalika ampir saha waé bakal ngumpulkeun sadayana anu tiasa dicandak. Luhureun sadaya, pangaturan nyorong disiplin diri pamilon pasar.

Kadua, urang kedah maksimalkeun harmonisasi sareng kerjasama internasional dina peraturan – sapertos standar téknis dina komunikasi sélulér, internét, sareng sajabana. Ieu disada utopia tinangtu realitas geopolitik modern, tapi éta teu nyieun naon kirang desirable.

Katilu, pangaturan henteu kedah ketat pisan: sigana pondok pikeun ngahirupkeun industri ngora anu dinamis sapertos kieu kalayan régulasi anu langkung ageung. Ku alatan éta, urang peryogi mékanisme pikeun ngarévisi aturan remen pikeun tetep abreast téhnologi jeung kamajuan pasar.

Kaopat, aturan, tingkat résiko, sareng tingkat ukuran pelindung kedah ditangtukeun ku konsultasi sareng sajumlah ageung ahli anu berpengalaman sareng relevan.

Kalima, urang teu kudu nungguan sapuluh taun. Kuring parantos nyarioskeun ngeunaan résiko serius anu aya dina Internet of Things sareng ngeunaan kerentanan dina alat-alat industri salami langkung ti dasawarsa, sedengkeun dokumén sapertos EU Cyber ​​​​Resilience Act munggaran muncul (salaku draf!) ngan taun ka tukang.

Tapi éta sadayana pikeun ayeuna guys! Sareng ucapan salamet ka anjeun anu parantos maca ieu dugi ka akhir – hatur nuhun sadayana! Sareng ieu pikeun masa depan anu pikaresepeun – aman sareng AI anu ningkat!…


#Perda #pamaréntah #naha #sareng #kumaha

Pikeun 297th édisi tina Transatlantic Cable Podcast, Ahmed jeung kuring nutupan loba carita dipuseurkeun kana topik hottest dina web sosial – AI.

Carita munggaran urang ningali kumaha perusahaan ayeuna nawiskeun Deep Fakes sahandapeun $ 200… kami ngajawab ngeunaan naon anu salah. Ti dinya, urang ngaléngkah ka beja panganyarna ngeunaan Geoffrey Hinton kaluar tina Google.

The move jauh ti Hinton éta sanggeus anjeunna questioned tumuwuhna unhindered tur ngembangkeun AI – tanpa ningali naon nu salah. Sanaos ieu nambihan suluh kana seuneu, urang ngaleungitkeun sinisme urang ngeunaan AI sareng ningali sababaraha panalungtikan ti kolega urang di Kaspersky. Dina ieu panalungtikan, tim kami ningali naha ChatGPT suksés dina nangtukeun tumbu phishing atanapi henteu.

Pikeun nutup podcast, kami nuju ngabahas FYI pikeun jalma dina jangka waktu enol dinten anu aktip dianggo di perusahaan téknologi ageung sareng kunaon anjeun kedah nambal ayeuna.

Upami anjeun resep kana naon anu anjeun denge, punten pertimbangkeun ngalanggan, di handap ieu mangrupikeun carita anu kami tutup upami anjeun hoyong teuleum langkung jero.


#Transatlantic #Cable #Podcast #episode

Episode 295 tina Kabel Transatlantik dimimitian ku diskusi ngeunaan peraturan AI LLM (Modél Basa ageung), kumaha ogé, ieu sakedik teuing, telat? Ti dinya tim ngobrolkeun ngeunaan kasus panyerang anu ngagunakeun audio jero palsu pikeun nyobaan maling artos korban.

Sanggeus éta, aya deui sawala sabudeureun AI, kaasup warta yén poto palsu geus meunang pangajén fotografi bergengsi, sarta naha LLM AI hack éta mimiti hal anyar dina dunya cybersecurity?

Salian ti éta, kami ogé ngagaduhan wawancara sareng Marc Rivero, Panaliti Kaamanan Senior di Kaspersky pikeun ngobrolkeun ngeunaan webinar anu bakal datang anu judulna “Awas ransomware TTPs: nerapkeun MITRE kana kampanye ransomware”.

Upami anjeun resep kana naon anu anjeun déngé, punten pertimbangkeun ngalanggan.


#Transatlantic #Cable #Podcast #episode

Jaringan (saraf) anjeun bocor

Panaliti di paguron luhur di AS sareng Swiss, dina kolaborasi sareng Google sareng DeepMind, parantos nyebarkeun makalah anu nunjukkeun kumaha data tiasa bocor tina sistem generasi gambar nganggo algoritma pembelajaran mesin DALL-E, Imagen, atanapi Stable Diffusion. Sagalana jalan dina cara nu sarua dina sisi pamaké: Anjeun ngetik query téks husus – contona, “korsi leungeun ngawangun kawas alpukat” – sarta meunang hiji gambar balik gantina.

Gambar dihasilkeun ku jaringan saraf Dall-E

Gambar dihasilkeun ku jaringan saraf Dall-E. Sumber.

Sadaya sistem ieu dilatih dina sajumlah ageung (puluhan atanapi ratusan rébu) gambar sareng déskripsi anu tos disiapkeun. Gagasan di balik jaringan saraf sapertos kitu, ku ngonsumsi jumlah data latihan anu ageung, aranjeunna tiasa nyiptakeun gambar anu énggal sareng unik. Sanajan kitu, kacindekan utama tina ulikan anyar éta gambar ieu teu salawasna unik. Dina sababaraha kasus, kasebut nyaéta dimungkinkeun pikeun maksa jaringan saraf pikeun baranahan ampir persis gambar aslina saméméhna dipaké pikeun latihan. Sareng éta hartosna jaringan saraf tanpa disadari tiasa ngungkabkeun inpormasi pribadi.

Gambar dihasilkeun ku Stable Diffusion neural network (katuhu) sareng gambar asli tina set latihan (kénca)

Gambar dihasilkeun ku Stable Diffusion neural network (katuhu) sareng gambar asli tina set latihan (kénca). Sumber.

Langkung seueur data pikeun “dewa data”

Kaluaran tina sistem pembelajaran mesin pikeun ngaréspon patarosan tiasa sigana sapertos sihir pikeun non-spesialis: “woah – éta sapertos robot anu terang!”! Tapi sabenerna teu aya keajaiban …

Sadaya jaringan saraf dianggo langkung atanapi kirang dina cara anu sami: algoritma diciptakeun anu dilatih dina sakumpulan data – sebutkeun runtuyan gambar ucing sareng anjing – kalayan pedaran naon anu sabenerna digambarkeun dina unggal gambar. Sanggeus fase latihan, algoritma ditémbongkeun gambar anyar jeung dipenta pikeun nangtukeun naha éta téh ucing atawa anjing. Ti mimiti anu hina ieu, pamekar sistem sapertos kitu ngalih ka skenario anu langkung kompleks: algoritma anu dilatih dina sababaraha gambar ucing nyiptakeun gambar piaraan anu henteu pernah aya dina paménta. Ékspérimén sapertos kitu dilaksanakeun henteu ngan ukur nganggo gambar, tapi ogé nganggo téks, pidéo sareng sora: kami parantos nyerat ngeunaan masalah deepfakes (dimana pidéo anu dirobih sacara digital tina (lolobana) politikus atanapi selebriti sigana nyarioskeun hal-hal anu henteu pernah dilakukeun) . ngalakukeun.).

Pikeun sakabéh jaringan saraf, titik awal nyaéta sakumpulan data latihan: jaringan saraf teu bisa nyieun éntitas anyar kaluar nanaon. Pikeun nyieun gambar ucing, hiji algoritma kudu diajar rébuan poto sabenerna atawa gambar sato. Aya seueur alesan pikeun ngajaga set data ieu pribadi. Sababaraha di antarana aya dina domain publik; set data sejenna mangrupakeun hak cipta intelektual pausahaan ngembangkeun nu investasi deal gede waktu jeung usaha pikeun nyieun aranjeunna dina harepan achieving kaunggulan kalapa. Masih batur anu, ku harti, informasi sénsitip. Contona, percobaan keur dijalankeun pikeun ngagunakeun jaringan saraf pikeun nangtukeun jenis panyakitna kasakit dumasar kana sinar-X sarta scan médis séjén. Ieu ngandung harti yén data latihan algorithmic ngandung data kaséhatan sabenerna ti jalma nyata, nu, alesan atra, teu kudu digolongkeun kana leungeun salah.

Diffuse

Sanaos algoritma pembelajaran mesin sigana sami sareng urang luar, aranjeunna saleresna béda. Dina makalahna, panalungtik nengetan husus ka mesin learning modél difusi. Gawéna saperti kieu: data latihan (deui gambar jalma, mobil, imah, jsb) distort ku nambahkeun noise. Sareng jaringan saraf teras dilatih pikeun ngabalikeun gambar ka kaayaan aslina. Metoda ieu ngamungkinkeun pikeun ngahasilkeun gambar tina kualitas santun, tapi hiji aral poténsial (dibandingkeun jeung algoritma dina jaringan adversarial generative, contona) nyaeta kacenderungan na gede pikeun bocor data.

Data aslina bisa sasari ti aranjeunna dina sahanteuna tilu cara béda: Kahiji, ngagunakeun query custom, anjeun tiasa maksakeun jaringan neural balik – lain hal unik, dihasilkeun dumasar kana rébuan gambar – tapi gambar sumber husus. Kadua, gambar asli tiasa direkonstruksi sanaos ngan ukur sawaréh aya. Katilu, mungkin pikeun nangtukeun naha gambar tinangtu aya dina data latihan atanapi henteu.

Sering pisan, jaringan saraf … puguh, sarta tinimbang gambar anyar, aranjeunna ngahasilkeun hal ti set latihan lamun ngandung sababaraha duplikat tina gambar anu sarua. Salian conto di luhur sareng poto Ann Graham Lotz, ieu panalungtikan nyayogikeun sababaraha hasil anu sami:

Baris ganjil: gambar aslina.  Baris malah: gambar dihasilkeun ku Stabil Difusi v1.4

Baris ganjil: gambar aslina. Baris malah: gambar dihasilkeun ku Stabil Difusi v1.4. Sumber.

Upami gambar diduplikasi dina set latihan langkung ti saratus kali, kamungkinan kamungkinan bocor dina bentuk aslina. Nanging, panalungtik nunjukkeun cara pikeun nyandak gambar latihan anu ngan ukur muncul sakali dina set aslina. Metoda ieu jauh kurang éfisién: tina lima ratus gambar anu diuji, algoritma sacara acak ngan ukur tilu. Métode anu paling artistik pikeun nyerang jaringan saraf ngalibatkeun nyiptakeun gambar sumber ngan ukur nganggo bagian tina éta salaku input.

Para panalungtik naroskeun ka jaringan saraf pikeun ngalengkepan gambar, saatos ngaleungitkeun sababaraha éta.  Ngalakukeun ieu bisa dipaké pikeun nangtukeun kalawan akurasi lumrah naha gambar tinangtu aya dina set latihan.  Lamun kitu, algoritma machine learning ngahasilkeun salinan ampir-pasti tina poto atawa gambar aslina

Para panalungtik naroskeun ka jaringan saraf pikeun ngalengkepan gambar, saatos ngaleungitkeun sababaraha éta. Ngalakukeun ieu bisa dipaké pikeun nangtukeun kalawan akurasi lumrah naha gambar tinangtu aya dina set latihan. Lamun kitu, algoritma machine learning ngahasilkeun salinan ampir-pasti tina poto atawa gambar aslina. Sumber.

Dina titik ieu, hayu urang ngalihkeun perhatian urang kana masalah jaringan saraf sareng hak cipta.

Anu maling ti saha?

Dina Januari 2023, tilu seniman ngagugat panyipta layanan ngahasilkeun gambar anu ngagunakeun algoritma pembelajaran mesin. Aranjeunna ngaku (justifiably) yén pamekar jaringan neural geus ngalatih aranjeunna dina gambar dikumpulkeun online tanpa respecting hak cipta. Jaringan saraf memang tiasa niru gaya seniman anu tangtu, sareng ku kituna ngaleungitkeun pendapatan. Tulisan nunjukkeun yén dina sababaraha kasus algoritma tiasa, pikeun sababaraha alesan, kalibet dina plagiarisme langsung, nyababkeun gambar, foto sareng gambar sanés anu ampir sami sareng karya jalma nyata.

Panaliti ngadamel saran pikeun nguatkeun privasi set latihan asli:

  • Nyingkirkeun duplikat.
  • Reprocess gambar latihan, contona ku nambahkeun noise atawa ngarobah kacaangan; ieu ngajadikeun data bocor kurang kamungkinan.
  • Uji algoritma nganggo gambar latihan khusus sareng pariksa yén éta henteu ngahaja ngahasilkeun deui sacara akurat.

Naon salajengna?

Étika sareng legalitas seni generatif tangtosna mangrupikeun perdebatan anu pikaresepeun – dimana kasaimbangan kedah dipilarian antara seniman sareng pamekar téknologi. Di hiji sisi, hak cipta kudu dihargaan. Di sisi anu sanés, naha seni komputer béda pisan sareng manusa? Dina dua kasus, panyipta ngagambar inspirasi tina karya kolega sareng pesaing.

Tapi hayu urang balik deui ka bumi sareng ngobrol ngeunaan kaamanan. Tulisan ieu nyayogikeun sakumpulan fakta khusus ngeunaan ngan hiji modél pembelajaran mesin. Manjangkeun konsép pikeun sadayana algoritma sarupa, urang anjog ka kaayaan metot. Henteu sesah ngabayangkeun skenario dimana asisten pinter operator sélulér ngabagi inpormasi perusahaan anu sénsitip pikeun ngaréspon pamundut pangguna: saatosna, éta aya dina data pelatihan. Atanapi, contona, patarosan licik anu menipu jaringan saraf umum pikeun ngahasilkeun salinan paspor batur. Para panalungtik negeskeun yén masalah sapertos kitu tetep téoritis pikeun ayeuna.

Tapi masalah anu sanés parantos aya di urang. Nalika urang nyarios, jaringan saraf anu ngahasilkeun téks ChatGPT dianggo pikeun nyerat kode jahat nyata anu (kadang-kadang) jalanna. Jeung GitHub Copilot mantuan programer nulis kode ngagunakeun jumlah badag software open source salaku input. Sareng alat-alat éta henteu salawasna hormat hak cipta sareng privasi pangarang anu kodena ditungtungan dina set data pelatihan anu ageung. Nalika jaringan saraf berkembang, serangan ngalawan aranjeunna ogé bakal kajantenan – kalayan akibat anu teu acan aya anu ngartos.


#Jaringan #saraf #nembongkeun #gambar #anu #digunakeun #pikeun #ngalatih #aranjeunna

Pikeun 293rd épisode Kaspersky Kabel Transatlantik podcast, urang turun ka stan dua jalma sabab Dave jeung Jag éta jauh dina pakansi. Pikeun ngamimitian, Ahmed jeung kuring nempo carita nu muka curtain dina salah sahiji situs web nu pang populerna – 4Chan. Kami rada reuwas nalika urang ningali saha salah sahiji anu berehan sareng kuring yakin yén anjeun bakal ogé.

Urang teras kaluar tina cesspool sateuacan aub dina carita ngeunaan scam nargetkeun pembayar pajak. Ti dinya, carita katilu urang nempo kasus AI positif – enya, anjeun baca katuhu, kami AI positif sakali dina podcast. Dina carita ieu, saurang mahasiswa universitas ngagunakeun AI pikeun ngabantosan anjeunna kaluar tina tikét.

Carita-carita bagja ditungtungan di dinya, sabab dongéng salajengna urang ningali tragis dina panggunaan airtags pikeun kaadilan vigilante di Texas. Lamun maca judul di handap, anjeun terang carita. Pikeun nyimpulkeun, urang ngobrol ngeunaan gerakan ganjil Elon Musk pikeun nambihan logo Dodge Coin ka Twitter, ngagentos manuk anu teu biasa.

Upami anjeun resep kana naon anu anjeun déngé, punten pertimbangkeun ngalanggan.


#Transatlantic #Cable #Podcast #episode

Episode 291 tina The Transatlantik Cable Podcast dimimitian ku warta sabudeureun kaputusan panganyarna OpenAI pikeun ngurangan jumlah informasi eta babagi ngeunaan kumaha ChatGPT dilatih, ngabalukarkeun sababaraha hariwang yén éta henteu deui sakumaha kabuka sakumaha eta dirancang pikeun jadi.

Ti dinya diskusi ngalih ka carita panganyarna ngeunaan DEA (Administrasi Penegakan Narkoba) di Amérika sarta hacker anu rék ngamangpaatkeun parabot internal DEA urang. Sanggeus éta, warta ngeunaan ATM crypto hacked jeung carita anyar ti Securelist ngeunaan grup APT karek kapanggih, CommonMagic.

Épisode ieu ogé kalebet diskusi sareng Susi O’Neil of Kaspersky’s Brand Activation Studio pikeun ngobrol ngeunaan séri mini audio anu bakal datang anu judulna “Insight Story”. Séri ieu tujuanana pikeun ngabantosan pamimpin bisnis langkung ngartos téknologi digital sapertos AI, Metaverse, sareng seueur deui. Pikeun ngadangukeun episode hiji, anjeun tiasa ngadangukeun di dieu.

Upami anjeun resep kana naon anu anjeun déngé, punten pertimbangkeun ngalanggan.


#Transatlantic #Cable #Podcast #episode