Salt la conținut
Semnal

Explozie de înșelăciuni cu inteligență artificială în 2025: Poliția Română avertizează asupra valului de deepfake-uri folosite în fraude masive

··3 min citire

Poliția Română trage un semnal de alarmă cu privire la creșterea accelerată a videoclipurilor și imaginilor false realizate cu ajutorul inteligenței artificiale (AI), utilizate de infractori în scop de fraudă, manipulare sau hărțuire. Potrivit autorităților, deepfake-urile sunt folosite pentru a crea impostori – de la „polițiști” și „oameni de știință”, până la celebrități și lideri politici – capabili să inducă în eroare chiar și persoane obișnuite cu mediul digital.

„Deepfake-urile au devenit instrumentele preferate ale autorilor infracțiunilor informatice. Oamenii cred că văd celebrități, experți financiari sau persoane aflate la nevoie, dar totul este fals”, arată instituția într-un comunicat.

Cele mai frecvente tipuri de fraude cu AI în 2025

1. Escrocherii cu investiții (trading scam & investment fraud)
Oameni de afaceri, influenceri sau politicieni – copiați digital – „recomandă” platforme miraculoase de investiții în crypto, forex sau AI. Victimele depun bani pe site-uri false, iar sumele ajung direct la infractori.

2. Scam-uri caritabile
Deepfake-uri cu „copii bolnavi” sau „celebrități care cer donații urgente”. Fondurile sunt direcționate către conturi controlate de escroci.

3. Romance scam cu AI
Profiluri impecabile, generate artificial, creează relații emoționale cu victimele. Urmează solicitări de bani pentru „urgențe medicale” sau „bilete de avion”.

4. Fraudă de tip CEO/CFO
Infractorii folosesc chiar video-call-uri deepfake: „șeful” cere transferuri urgente, aparent cu vocea și chipul lui real.

5. Impersonarea celebrităților pentru vânzarea unor produse false
Deepfake-uri cu personalități care oferă „gratuit” gadgeturi sau suplimente-minune.

Conform statisticilor, tentativele de fraudă cu deepfake au explodat în 2025, generând pierderi de zeci de miliarde de dolari anual.

Imagini cu persoane inexistente: noua generație de înșelătorii

Infractorii creează personaje complet fictive, extrem de realiste, folosite pentru:

  • romance scam și catfishing,
  • promovarea falsă a unor produse,
  • „testimoniale” trucate despre investiții,
  • șantaj și hărțuire.

Deepfake-uri folosite și pentru manipulare și dezinformare

Autoritățile avertizează că AI-ul este folosit și pentru a fabrica „declarații” atribuite fals unor oameni de știință, astronauți sau medici:

  • „aselenizarea a fost filmată în studio”,
  • „vaccinurile conțin cipuri 5G”,
  • „încălzirea globală este o minciună”,
  • „tratament miraculos contra cancerului cu lămâie”.

În 2025, astfel de videoclipuri ajung în trending pe rețele sociale și sunt distribuite în masă, uneori chiar de publicații care nu verifică sursele.

Atenție la impostorii „polițiști” creați cu AI

Poliția Română semnalează și apariția unor deepfake-uri în care indivizi se prezintă fals drept ofițeri și cer date financiare sau „oferă recomandări de investiții”.

Instituția subliniază clar:

  • polițiștii nu sună cetățenii prin video-call,
  • nu oferă sfaturi despre investiții,
  • nu vă anunță că veți fi sunați de o bancă,
  • colaborează cu băncile numai instituțional, în investigații.

Uniformele fictive din aceste deepfake-uri au elemente inexistente în structura reală a Poliției Române.

Cum recunoști un deepfake – indicii tehnice din 2025

  • Clipit anormal al ochilor (deși algoritmii au devenit mult mai buni).
  • Asincron între voce și buze.
  • Iluminare sau umbre care nu se potrivesc cu fundalul.
  • Reflexii nenaturale în ochi și dinți.
  • Mâini deformate, degete în plus sau în minus.
  • Artefacte vizibile: blur, pete, marginile feței „topite”.
  • Fundal distorsionat sau obiecte deformate.
  • Ochi asimetrici sau pupile ciudate.
  • Păr artificial, fără textură naturală.
  • Imagini care nu apar nicăieri online la căutarea inversă (reverse image search).

Măsuri de protecție pentru cetățeni

  • Dacă pare prea frumos ca să fie adevărat, e fals.
  • Nu accesa link-uri primite în mod neașteptat.
  • Nu transfera bani persoanelor cunoscute doar online.
  • Verifică mereu conturile oficiale ale unei personalități.
  • Activează autentificarea în doi pași (2FA).
  • Raportează conținutul suspect.
  • Folosește extensii care detectează deepfake-uri.
  • Dacă ai fost victima unei fraude, anunță de urgență organele judiciare.