În anul 2025, fețele, vocile și mișcările generate de inteligența artificială au devenit extrem de greu de distins de cele reale. Acest lucru este valabil în special pentru materialele cu rezoluție scăzută, apelurile video sau conținutul de pe rețelele sociale. Creațiile deepfake sunt capabile să inducă în eroare majoritatea oamenilor, conform unei analize realizate de The Conversation.
Distincția între conținutul autentic și cel artificial s-a dovedit a fi aproape imposibilă atât pentru utilizatorii obișnuiți, cât și pentru autorități.
În ceea ce privește volumul de conținut fals, nu doar calitatea a avansat, ci și cantitatea. Datele furnizate de compania de securitate cibernetică DeepStrike relevă o creștere semnificativă a numărului deepfake-urilor disponibile online, de la aproximativ 500.000 în 2023 la aproape 8 milioane în 2025, ceea ce reprezintă o creștere de aproximativ 900% anual.
Acest amestec între un realism crescut și o producție pe scară largă amplifică riscurile asociate cu dezinformarea, fraudele financiare și hărțuirea direcționată.
Progresele realizate se datorează îmbunătățirilor tehnologice semnificative. Modelele moderne de generare video reușesc să mențină coerența mișcărilor și a identității personajelor pe parcursul mai multor cadre, eliminând practic imperfecțiunile vizibile anterior.
În același timp, tehnologia de clonare vocală a atins un nivel extrem de avansat. Acum, câteva secunde de înregistrare audio sunt suficiente pentru a crea o voce artificială aproape identică cu cea reală, incluzând emoții, intonații și pauze naturale. Această evoluție a condus la o creștere alarmantă a apelurilor frauduloase, unele companii raportând mii de astfel de tentative zilnic.
Mai mult, instrumentele AI disponibile publicului permit acum crearea rapidă de materiale video complexe. Se pot genera scenarii și interpretări audio-video convingătoare fără a necesita competențe tehnice avansate.
Privind spre viitor, experții anticipează că în 2026 vor apărea deepfake-uri interactive care vor funcționa în timp real. Acestea nu vor mai fi doar materiale preînregistrate, ci „actori” digitali capabili să răspundă instantaneu în apelurile video sau conversațiile online.
Asemenea sisteme vor putea reproduce nu doar aspectul unei persoane, ci și comportamentele sale, inclusiv modul de exprimare, gesturile și reacțiile în diverse situații, totul cu un grad extrem de realism. Aceasta va conduce la o creștere semnificativă a riscurilor de fraude complexe și greu de depistat.
Pe măsură ce diferențele vizibile între real și artificial dispar, eficiența verificării manuale se diminuează. Specialiștii subliniază necesitatea implementării de soluții la nivel structural, inclusiv semnături criptografice pentru conținut media, mecanisme de certificare a autenticității și instrumente avansate de analiză bazate pe inteligența artificială.
Într-o lume în care granița dintre real și artificial devine tot mai invizibilă, analiza vizuală sau auditivă simplă nu va putea garanta identificarea corectă a falsurilor.













