Pentagonul câștigă disputa cu Anthropic, iar judecătorii cresc incertitudinea în AI

4 Min Citire

Pentagonul câștigă disputa juridică cu Anthropic, iar instanțele sporesc incertitudinea privind AI

O curte federală de apel din Washington, D.C. a respins solicitarea companiei Anthropic de a bloca temporar măsurile Pentagonului care o clasifică drept risc pentru securitatea lanțului de aprovizionare, într-un nou episod al disputei juridice dintre companie și administrația fostului președinte Donald Trump, potrivit Associated Press.

Decizia vine într-un context juridic complicat, marcat de hotărâri contradictorii între instanțe federale din SUA și de implicații majore pentru sectorul tehnologic global.

Instanța de apel a refuzat să emită un ordin care să protejeze compania de efectele acestei etichetări, în timp ce procesul este încă în desfășurare, potrivit Reuters.

Curtea de Apel a SUA pentru Circuitul Districtului Columbia a concluzionat că nu există, în acest moment, suficiente motive pentru a suspenda acțiunile Pentagonului, chiar dacă a recunoscut că Anthropic „ar putea suferi un anumit grad de prejudiciu ireparabil”.

Publicitate
Ad Image

Instanța a argumentat însă că „valoarea exactă a prejudiciului financiar nu este pe deplin clară”, ceea ce a cântărit în decizia de a nu interveni imediat.

Compania solicitase un ordin de urgență pentru a evita consecințele reputaționale și comerciale generate de clasificarea sa drept risc de securitate, o măsură care îi limitează accesul la contracte guvernamentale și poate influența relațiile comerciale cu alți parteneri.

Decizia de la Washington contrastează cu o hotărâre anterioară pronunțată într-un tribunal federal din San Francisco, unde un judecător a obligat administrația Trump să elimine eticheta de risc aplicată companiei. Instanța din California a considerat că guvernul a depășit limitele legale în modul în care a tratat Anthropic.

Această divergență juridică creează un cadru incert, în care aceeași problemă este interpretată diferit de instanțe federale distincte, fără o soluție definitivă în acest moment.

Disputa dintre Anthropic și Pentagon își are originea în dezacordurile privind modul în care tehnologia companiei ar putea fi utilizată de armata americană. Anthropic a refuzat să elimine anumite restricții impuse asupra modelului său AI, Claude, în special în ceea ce privește utilizarea în arme autonome și în supravegherea populației.

Potrivit documentelor din instanță, compania susține că administrația a desfășurat o „campanie ilegală de represalii” după ce aceasta a încercat să limiteze utilizarea tehnologiei sale în astfel de scenarii.

De cealaltă parte, autoritățile americane au argumentat că decizia de a desemna Anthropic drept risc de securitate nu are legătură cu pozițiile sale etice, ci cu refuzul de a accepta anumite condiții contractuale impuse de Pentagon.

Reprezentanții companiei și ai industriei tehnologice au avertizat că această situație creează incertitudine într-un moment critic pentru competiția globală în domeniul inteligenței artificiale.

Anthropic a transmis într-un comunicat: „Suntem recunoscători că instanța a recunoscut necesitatea unei soluționări rapide a acestor probleme și rămânem încrezători că instanțele vor concluziona că aceste desemnări au fost ilegale.”

La rândul său, Matt Schruers, directorul unei organizații din industrie, a declarat că „acțiunile Pentagonului și decizia instanței din DC creează o incertitudine semnificativă pentru mediul de afaceri într-un moment în care companiile americane concurează la nivel global în domeniul AI”.

Cazul este departe de a fi încheiat. O nouă audiere este programată pentru 19 mai, când instanța de apel va analiza probe suplimentare.

Până atunci, Anthropic rămâne într-o poziție juridică incertă, fiind afectată simultan de o decizie favorabilă în California și de una nefavorabilă în Washington, ceea ce reflectă complexitatea relației dintre guvernul american și companiile din domeniul inteligenței artificiale.

Distribuie acest articol
Niciun comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *