Răspândirea deepfake-urilor: tentativele de escrocherie au crescut cu 3.000% în doar doi ani; experții recomandă măsuri de protecție

Autor:
4 Min Citire

Răspândirea deepfake-urilor: tentativele de escrocherie au crescut cu 3.000% în doar doi ani; experții recomandă măsuri de protecție

Videoclipurile deepfake au crescut de la o jumătate de milion în 2023 la peste opt milioane, anul acesta. Tentativele de escrocherie au crescut cu 3.000% în doar doi ani, potrivit firmei de securitate cibernetică DeepStrike. Experții recomandă măsuri de protecție.

Videoclipurile generate de inteligența artificială se răspândesc rapid pe rețelele de socializare și afectează milioane de utilizatori. Experții spun că lumea a intrat într-o nouă eră a conținutului video online, una periculoasă.

Instrumentele video ultrarealiste bazate pe inteligență artificială, precum Sora 2, sunt disponibile pe platforme publice. Acestea au fost exploatate de escroci pentru a alimenta un val de escrocherii deepfake.

Un expert în tehnologie a declarat că devine din ce în ce mai dificil să se facă diferența între ceea ce este real și ceea ce nu este. El a spus că „oamenii pot detecta acum deepfake-uri de înaltă calitate doar în unul din patru cazuri”, ceea ce înseamnă că milioane de oameni pot fi înșelați fără să-și dea seama.

Spațiu publicitar! Cereți o ofertă!
Ad Image

Deepfake-urile au evoluat de la divertisment online la o industrie criminală de miliarde de dolari. Escrocii folosesc inteligența artificială pentru a clona voci, fețe și expresii. Aceste practici sunt folosite pentru a sustrage bani și pentru a răspândi știri false.

Specialiștii avertizează că apelurile video deepfake în timp real vor deveni mult mai frecvente. Escrocii se pot prezenta drept persoane cunoscute sau superiori, folosind voci și gesturi clonate. Acest lucru este posibil datorită instrumentelor disponibile pe platforme precum Sora, o aplicație text‑video capabilă să creeze videoclipuri realiste în mai puțin de un minut.

Experții în tehnologie de la compania de software Outplayed au prezentat semne cheie pentru a identifica un videoclip generat de inteligență artificială. Ei au menționat următoarele semne:

„Clipitul și ochii: subiecții clipesc mai puțin sau își mișcă ochii în modele robotice. Mâini și degete: atenție la degete deformate sau îmbinate — inteligența artificială încă are dificultăți în redarea mâinilor. Erori de iluminare: umbrele cad în direcții ciudate sau fețele par prea luminoase. Apă și reflexii: lichidul pare „prea perfect” sau nenatural, nemișcat. Probleme de sincronizare a buzelor: buzele nu se potrivesc perfect cu cuvintele — în special la sunetele „p” și „b”. Piele netedă: fețele generate de inteligență artificială par plastice, fără pori sau textură. Fundaluri cu erori: obiectele deformate sau marginile pâlpâitoare trădează editarea. Mișcarea țesăturilor: hainele se mișcă rigid în vânt. Tranziții de scenă: salturi sau „sclipiri” stângace la mijlocul cadrului sugerează editarea. Context ciudat: persoane care apar în locuri nepotrivite sau în afara cadrului. Presimțire: dacă pare ciudat — probabil că este.”

Un expert a declarat: „Odinioară, studiourile de la Hollywood aveau nevoie de săptămâni pentru a produce ceva ce, în prezent, poate fi realizat rapid de oricine are un laptop. Videoclipurile generate cu cele mai recente instrumente de inteligență artificială, cum ar fi Sora 2, sunt aproape imposibil de detectat, iar acest lucru este terifiant în mâini greșite.”

Referitor la impactul asupra încrederii publice, un specialist a spus: „Oamenii au încredere în dovezile video. De aceea intrăm într-o nouă eră periculoasă, cu deepfake-uri în creștere rapidă. Acestea ocolesc logica și mizează pe emoții.”

Persoanele cad victime ale fraudelor financiare și ale escrocheriilor romantice. Escrocii au folosit imagini și voci copiate după vedete precum Jake Paul, Michael Jackson și Martin Luther King Jr.

Aplicația Sora a depășit un milion de descărcări. Utilizatorii generează clipuri scurte care stârnesc frecvent dezbateri.

Distribuie acest articol
Niciun comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *