Deepfake Incalcarea protectiei datelor in Europa
Industrie 4.0 Politica STIRI

Deepfake plus Voce – Incalcarea protectiei datelor in Europa

Deepfake și modificarea vocii ca următoarea încălcare a protectiei datelor cu Tehnologia Deepfake, care folosește învățarea profundă pentru a crea conținut video și audio fals sau alterat, continuă să reprezinte o amenințare majoră pentru întreprinderi, consumatori și societate în general. În timpul alegerilor prezidențiale din 2020 din SUA, oficialii guvernamentali și-au exprimat îngrijorarea cu privire la potențialele atacuri profunde pentru a răspândi dezinformarea, iar dovezile sugerează că, în timp ce această tehnologie avansează rapid, guvernele și companiile tehnologice sunt încă prost pregătite să o detecteze și să o combată.

Deepfake Elon Musk copil
Deepfake exemplu – Figura lui Elon Musk suprapusa pe video unui copil de 3 ani

Tehnologia Deepfake si retelele de socializare

Am văzut cât de rapid pot fi captivate videoclipurile cu deepfake, cu instrumente precum rețelele de socializare care le permit să se răspândească ca focul sălbatic. Exemple recente au inclus un videoclip modificat al purtatorului de cuvant de la Casa Albe, Nancy Pelosi, vorbind neclar, precum și imagini video cu Mark Zuckerberg de la Facebook vorbind despre puterea datelor personale ale fiecarui utilizator. Mai mult actorul Bill Hader la imitat pe  Tom Cruise, și actrița Jennifer Lawrence a oferit un discurs cu chipul lui Steve Buscemi.

Nu toate aceste videoclipuri de tip deepfake aveau erau rau intentionate, dar arată cât de simplu este sa fim influentati de ce vedem online sau la TV. Fiind o era a tehnologiei si a continutului Online, care poate fi repurificat pentru a gasi identitatea oricarui locuitor de pe planeta, această tehnologie continuă să avanseze si specialistii spun ca nu va trece mult timp până când infractorii vor avea instrumentele necesare asumarii oricarei persoane de pe glob.Companiile de securitate cibernetică s-au intalnit deja cu atacuri audio de tip Deepfake asupra întreprinderilor, ceea ce sugerează că următoarea țintă mare pentru atacurile de tip deepfake ar putea fi oricine. După cum a spus senatorul american Marco Rubio, „Pe vremuri, dacă vrei să ameninți Statele Unite, aveai nevoie de 10 portavioane, arme nucleare și rachete de lungă actiune … și din ce în ce mai mult, tot ce îți trebuie este capacitatea de a produce foarte mult video fals realist care ar putea submina alegerile noastre, care ar putea arunca țara noastră într-o criză imensă în interior și ne poate slăbi profund ”. Nu greșește și este doar o chestiune de a găsi un videoclip pe Youtube sau de a înregistra un eșantion vocal la un apel telefonic pentru a-l modifica.

Deepfake poate fi folosit de infractori

Incentivați de câștigurile potentiale mari , un nou val de fraude incep cu strângerea de informații asupra victimelor, ganditi-va doar la cazurile pe care le vedem la stiri, metoda accidentul, cu apelarea persoanelor in varsta cu scenariul fiului care suna dupa accident si cere bani, multi bani! Nu numai numărul de atacuri este in urcare, ci si valoarea sumelor fraudate. Frauda vocală poate fi costisitoare atât pentru companii cât și pentru consumatori, furtul de identificare prin telefon costând consumatorii din SUA aproximativ 12 miliarde de dolari în fiecare an. Având în continuare progrese în tehnologia vocii și a inteligenței artificiale, ne așteptăm ca aceste atacuri vor continua sa creasca si sa se perfectioneze.

Vocea este următoarea încălcare a datelor

Deoarece criminalii ciberneticii continuă să-și evolueze tactica și să identifice canale suplimentare de vizat, anticipez că vocea va fi următoarea încălcare a datelor majore. Companiile trebuie să construiască apărări împotriva tehnologiei înainte ca aceasta să devină prea simpla de folosit. De fapt, în ultimii cinci ani, Pindrop(call center software) a cunoscut o crestere masiva a atacurilor audio sintetice. Înțelegând pericolele reale ale sunetului sintetic, si-au propus să înțeleaga și să detecteze mai bine aceste atacuri. Au dezvoltat propriile analize audio folosind vocile liderilor mondiali populari și celebrități care apar în mod regulat în mass-media (de exemplu, președintele Barack Obama și Ellen DeGeneres). Au constatat că, deși sunetul sintetic sună normal pentru urechea umană, nu este invizibil pentru inteligenta artificiala. Astfel s-a aflat că tehnologiile biometrice AI și vocale pot analiza mostre audio pentru a diferenția cu succes realul de un audio sintetic. Până la realizarea mai multor progrese, consumatorii ar trebui să se gândească de două ori înainte să partajeze conținut potențial fals pe rețelele de socializare, la fel si companiile, înainte de a răspunde la solicitările suspecte ale clienților. Dacă ceva pare fake, faceți propriile cercetări pentru a verifica sursele înainte de a accepta orice conținut(email, link, sharel. Pentru a ține pasul cu infractionalitatea cibernetica va fi important pentru companii și consumatori deopotrivă să fie vigilenți pentru a se proteja de dezinformarea și fraudele răspândite prin tehnologia deepfake și atacurile audio sintetice.

Alin Dodea
Virtual CEO | Web Developer | Profesionist Telecomunicatii
http://www.porteaza.ro

Leave a Reply

Your email address will not be published. Required fields are marked *