Cine suportă consecințele erorilor inteligenței artificiale?
Companiile acuză Google și Meta pentru dezinformarea care le-a afectat imaginea.
Reprezentanții de vânzări ai Wolf River Electric, o companie de panouri solare din Minnesota, au observat o creștere neașteptată a contractelor anulate la sfârșitul anului trecut. Clienții au renunțat după ce au aflat din căutările Google că firma ar fi fost implicată într-un proces cu procurorul general al statului pentru practici comerciale înșelătoare, deși compania nu a fost niciodată dată în judecată de guvern.
Problema s-a agravat când conducerea Wolf River a verificat personal. Rezultatele căutărilor generate de Gemini, tehnologia de inteligență artificială a Google, afișau aceste informații false în topul paginii, iar mențiunile despre presupusa soluționare a procesului apăreau automat când se căuta „Wolf River Electric”. Compania a decis să dea în judecată gigantul tech pentru defăimare, invocând investițiile semnificative în construirea unei reputații bune.
Acesta este unul dintre cele cel puțin șase cazuri de defăimare intentate în SUA în ultimii doi ani pentru conținut generat de instrumente AI. Reclamanții susțin că tehnologia nu doar că a creat informații false și dăunătoare, dar a continuat să le publice chiar și după ce companiile dezvoltatoare au fost informate despre problemă.
Aceste cazuri caută să definească drept defăimător un conținut necreat de oameni, un concept nou în domeniul juridic. „Nu există nicio îndoială că aceste modele pot publica afirmații dăunătoare”, afirmă Eugene Volokh, expert în Primul Amendament la UCLA. Întrebarea centrală este cine răspunde pentru aceste afirmații false.
Unul dintre primele cazuri de defăimare prin AI a fost depus în Georgia în 2023, unde reclamanții au susținut că chatbotul ChatGPT le-a afectat reputația prin informații false despre Mark Walters, gazdă radio și susținător al Dreptului la armă. În multe cazuri de defăimare, esențial este să se dovedească intenția, dar, fiind imposibil de știut ce se întâmplă în algoritmii AI, reclamanții au încercat să dea vina pe compania care a creat codul.
Până acum, niciun caz de defăimare prin AI din SUA nu a ajuns la juriu. Totuși, un alt caz, intentat în aprilie împotriva Meta de Robby Starbuck, influencer cunoscut pentru campaniile sale împotriva programelor de diversitate, echitate și incluziune, a fost soluționat. Starbuck a susținut că a găsit o imagine cu informații false despre el generate de Llama, un chatbot AI al Meta, afirmând că ar fi avut legături cu teoria conspirației QAnon, în timp ce el era acasă în Tennessee.
Meta a soluționat cazul în august, fără a răspunde oficial la plângere, și l-a angajat pe Starbuck ca consilier pentru supravegherea AI-ului companiei.


