
În ultimii ani, tehnologiile bazate pe inteligență artificială au început să joace un rol esențial și în frauda informatică. Printre cele mai spectaculoase (și periculoase) evoluții se numără deepfake-urile și clonele vocale – metode prin care se pot crea identități false extrem de convingătoare, atât în imagine, cât și în sunet.
Un deepfake este un material video în care chipul sau vocea unei persoane este înlocuită, cu acuratețe, cu cele ale altei persoane. Aceste clipuri pot fi generate în câteva minute, folosind doar câteva poze sau înregistrări video, și pot părea complet reale. În trecut, era nevoie de echipe de graficieni și software avansat. Astăzi, există aplicații online gratuite care pot crea astfel de conținut în mod automatizat.
La nivelul fraudei prin inginerie socială, deepfake-urile pot fi folosite pentru:
▣ crearea de mesaje video în care o persoană aparent cunoscută (un manager, profesor, politician) transmite o solicitare falsă;
▣ falsificarea de videoclipuri compromițătoare pentru a șantaja victimele;
▣ convingerea angajaților să transfere bani sau să acorde acces la date confidențiale.
Un caz devenit faimos este al unei companii britanice care a transferat peste 200.000 de euro în urma unui apel telefonic în care CEO-ul „spunea” clar ce trebuie făcut – doar că vocea era o clonă vocală generată de AI, construită din înregistrări publice.
Clonele vocale funcționează pe același principiu. Cu doar câteva minute de înregistrare audio, un algoritm poate reproduce vocea unei persoane, permițând unui atacator să genereze fraze complet noi cu intonația, accentul și tonul original. Astfel, apeluri telefonice aparent reale pot fi inițiate de „șefi”, „colegi”, „părinți” sau „prieteni”, cerând lucruri banale (coduri, parole, aprobări de tranzacții) care par în regulă.
🛑 De ce sunt periculoase aceste tehnici?
▣ Încrederea în video și voce este adânc înrădăcinată. Oamenii tind să creadă ce văd și aud.
▣ Detectarea este extrem de dificilă. Chiar și experții pot fi păcăliți fără o analiză tehnică.
▣ Pot compromite relații profesionale, reputații, tranzacții și procese legale.
Tot mai multe companii încep să implementeze politici de verificare în doi pași chiar și pentru comunicările interne. Dacă primești un mesaj video cu o solicitare urgentă, regula devine simplă: verifică și pe alt canal. Dacă CEO-ul cere un transfer urgent prin video, sună-l. Dacă un profesor îți cere printr-un mesaj vocal acces la conturile școlii, cere confirmare pe e-mail oficial. Frauda de identitate vizuală e eficientă doar dacă nu punem întrebări.
🧠 Cum recunoști un deepfake?
▣ Sincronizarea buzelor cu vocea poate părea puțin forțată;
▣ Privirea este uneori „goală” sau mișcările sunt ușor nenaturale;
▣ Unele clipuri au artefacte vizuale sau glitch-uri scurte;
▣ Contextul poate părea ciudat – persoana pare să spună ceva nelalocul lui.
Din păcate, cu cât tehnologia avansează, cu atât aceste semne devin mai greu de observat. De aceea, soluția nu este doar tehnică, ci comportamentală: să cultivăm scepticismul sănătos și să nu tratăm niciun mesaj (video, audio, text) ca fiind autentic fără o verificare paralelă.
🎯 Recomandări esențiale:
▣ Nu răspunde impulsiv la mesaje video/audio cu solicitări urgente;
▣ Verifică identitatea expeditorului prin canale alternative;
▣ Nu divulga date sensibile pe baza unui apel vocal „emoțional”;
▣ Fii atent la „semnătura digitală” a unui material: fonturi, fundal, tonalitate.
În lecția următoare vom vorbi despre atacurile țintite (spear phishing) și despre cum atacatorii folosesc informații reale pentru a pătrunde în organizații prin încredere și manipulare. Aceste forme avansate de inginerie socială nu se bazează pe volum, ci pe precizie.