Creștere semnificativă a materialelor false generate cu AI legate de conflictul din Orientul Mijlociu
Pe platforma X a devenit viral un videoclip care pretindea să arate un atac cu rachete asupra unei baze militare israeliene, dar care, în realitate, era filmat în timpul unei explozii dintr-un cazinou din Culiacán, Mexic, în ianuarie, mai arată Il Post.
Postarea a adunat peste 200.000 de vizualizări în doar câteva ore, ilustrând viteza cu care astfel de materiale se pot răspândi în momente de criză. Un alt clip, vizionat de milioane de ori, pretindea să arate bombardamente masive la Tel Aviv, însă analizele au confirmat că imaginile erau create cu ajutorul inteligenței artificiale.
Un tweet publicat pe 28 februarie de Shayan Sardarizadeh menționa: „This video, viewed over five million times, claims to show Iranian ballisitic missiles over Dubai. But the clip is old. It was filmed in October 2024, showing Iranian missiles fired towards Tel Aviv at the time.”
În perioadele de conflict, dezinformarea tinde să crească. Jurnaliști de la BBC Verify și experți în verificarea informațiilor au raportat o amplificare a materialelor false legate de războiul din Orientul Mijlociu. Unele videoclipuri conțin imagini reale din alte evenimente sau perioade, precum un clip distribuit pe scară largă care susținea că arată rachete iraniene pe cerul din Dubai, dar care, de fapt, provenea dintr-un atac din 2024 asupra Israelului.
Alte materiale sunt complet generate cu inteligență artificială, cum ar fi imagini ce pretind să arate corpul liderului suprem iranian sub dărâmături.
Videoclipurile false se răspândesc rapid deoarece imaginile șocante sau spectaculoase atrag atenția și emoțiile publicului. De asemenea, susținătorii ambelor tabere au interesul să promoveze imagini care să sugereze succese militare sau distrugeri majore.
Platformele sociale amplifică acest fenomen, algoritmii favorizând conținutul viral indiferent de veridicitatea sa. Pe platforma X, bifa albastră care indica un cont verificat nu mai este neapărat o garanție a credibilității, deoarece orice utilizator poate obține statutul premium prin abonament, iar unele conturi monetizează conținutul viral.
Astfel, utilizatorii sunt stimulați să distribuie materiale spectaculoase, chiar dacă acestea sunt false sau manipulate.
Există câteva instrumente utile pentru verificarea conținutului generat cu inteligență artificială, inclusiv tehnologia SynthID dezvoltată de Google și platforme specializate în analizarea imaginilor. Totuși, aceste tehnologii nu oferă întotdeauna răspunsuri definitive, motiv pentru care specialiștii recomandă verificarea informațiilor din mai multe surse înainte de a distribui imagini sau videoclipuri virale.

