Înșelăciuni tehnologice în 2025: imagini false cu polițiști, cercetători și vedete utilizate pentru fraude de proporții uriașe
Poliția Română a emis un avertisment cu privire la proliferarea videoclipurilor false realizate cu ajutorul inteligenței artificiale (AI), folosite de infractori pentru fraude și manipulare. Acestea sunt utilizate pentru a distruge reputația unor persoane, a provoca traume emoționale sau a induce în eroare în legătură cu adevăruri științifice. Infractorii pretind adesea că sunt polițiști, iar Poliția Română recomandă cetățenilor să fie vigilenți.
„Deepfake-urile și imaginile generate artificial au devenit instrumente preferate ale autorilor infracțiunilor din domeniul criminalității informatice, promovate pe rețelele de socializare. Cetățenii de bună-credință sunt induși în eroare, crezând că văd celebrități, experți financiari sau persoane aflate în dificultate”, se arată în comunicatul de presă al Poliției Române.
Moduri de operare frecvente în 2025
Printre cele mai comune metode de fraudă se numără:
- Trading scam și investment fraud: Videoclipuri deepfake cu oameni de afaceri sau politicieni care „recomandă” platforme de investiții crypto sau forex, direcționând victimele către site-uri false pentru a depune bani.
- Scam-uri caritabile: Deepfake-uri cu copii bolnavi sau celebrități care cer donații urgente, cu fonduri care ajung la infractori.
- Romance scam: Crearea de profiluri false cu imagini generate de AI pentru a dezvolta relații emoționale și a cere bani pentru „urgențe medicale”.
- CEO/CFO fraud: Utilizarea video-call-urilor deepfake în care „șeful” cere transferuri urgente de bani.
- Impersonarea celebrităților pentru produse false: Deepfake-uri cu personalități care „oferă gratuit” produse.
Statisticile din 2025 arată o creștere semnificativă a tentativelor de fraudă cu deepfake, cu pierderi financiare globale estimate la zeci de miliarde de dolari anual.
Imagini false cu persoane fictive
Un alt fenomen este crearea de imagini cu persoane complet fictive, generate de instrumente AI, utilizate în moduri precum:
- Romance scams și catfishing;
- Profiluri false de influenceri care promovează produse sau înșelătorii;
- Crearea de „martori” în povești false de investiții;
- Șantaj sau hărțuire.
Utilizarea inteligenței artificiale în scopuri ilegale poate duce la consecințe grave, inclusiv pierderi financiare directe, traume emoționale și manipulare politică.
Măsuri de protecție și prevenire
Poliția Română recomandă cetățenilor următoarele măsuri pentru a contracara înșelăciunile:
- Dacă pare prea frumos ca să fie adevărat, este probabil fals;
- Nu dați click pe linkuri din reclame sau mesaje nesolicitate;
- Nu transferați bani persoanelor cunoscute doar online;
- Verificați întotdeauna sursa oficială a informațiilor;
- Activați autentificarea în doi pași pentru conturile importante;
- Raportați conținutul suspect pe platformele respective;
- Utilizați extensii de browser care detectează deepfake-uri;
- În caz de fraudă, sesizați rapid autoritățile.
Infractorii folosesc videoclipuri AI hyper-realiste pentru a induce în eroare populația în privința adevărurilor științifice. Exemple includ clipuri false în care „astronauți NASA” afirmă că aselenizarea a fost filmată în studio sau „oameni de știință” care neagă vaccinurile și schimbările climatice.
Imagini false cu polițiști
Recent, au fost raportate fapte în care au fost create videoclipuri false cu ofițeri de poliție sau consultanți financiari, având scopul de a induce în eroare victimele. Poliția Română subliniază că niciodată polițiștii nu vor apela cetățenii prin video și nu vor face recomandări de investiții.
De asemenea, s-au prezentat fotografii cu persoane care pretind a fi de la Poliția Română, dar care nu respectă uniformele corespunzătoare, indicând clar că sunt false.