ChatGPT, dat în judecată. Sursa foto: colaj EVZ
Un proces deschis în Illinois, SUA, aduce în prim-plan responsabilitatea inteligenței artificiale generative.
ChatGPT este acuzat că ar fi oferit asistență juridică personalizată, generând consecințe financiare pentru un asigurător, relatează Daily Journal.
La 4 martie 2026, o acțiune în justiție depusă la nivel federal, în districtul de nord al statului Illinois, a deschis o dezbatere juridică cu implicații extinse. Compania Nippon Life Insurance Company of America a chemat în judecată OpenAI Foundation și OpenAI Group PBC, invocând prejudicii generate indirect de utilizarea ChatGPT.
Reclamanta susține că sistemul ar fi oferit unei cliente asigurate asistență juridică personalizată. Potrivit cererii, această intervenție ar fi determinat încălcarea unui acord tranzacțional definitiv și reluarea unor acțiuni judiciare considerate nefondate. Nippon afirmă că a fost obligată să suporte costuri semnificative de apărare.
Acțiunea se bazează pe trei capete principale de cerere: interferență delictuală cu un contract, abuz de procedură și exercitarea ilegală a profesiei de avocat.
Litigiul nu se limitează la o simplă dispută comercială. El deschide o discuție mai amplă despre modul în care trebuie calificată activitatea sistemelor de inteligență artificială generativă.
În centrul dezbaterii se află distincția dintre furnizarea de informații generale și acordarea de consultanță juridică. Dacă un sistem oferă doar acces la date sau sintetizează informații, responsabilitatea se leagă de acuratețea conținutului. Situația se schimbă atunci când răspunsurile devin adaptate unei situații concrete.
În acest caz, reclamanta susține că sistemul ar fi depășit rolul informativ. Ar fi furnizat analize juridice aplicate, ar fi sugerat strategii procedurale și ar fi generat documente destinate utilizării în instanță. În această interpretare, activitatea ar putea fi asimilată unei prestații juridice.
Un element central al dosarului îl reprezintă demonstrarea legăturii dintre răspunsurile generate și prejudiciul invocat. Pentru a susține această conexiune, Nippon a prezentat capturi de ecran ale interacțiunilor cu sistemul, precum și similitudini între textele generate și documentele depuse ulterior în instanță.
Acest tip de probă ridică dificultăți. Utilizatorul rămâne factorul decizional. El poate accepta, modifica sau ignora sugestiile primite. De asemenea, poate consulta alte surse de informare.
Această intervenție umană face dificilă stabilirea unei relații cauzale directe. În plus, caracterul probabilistic al răspunsurilor generate complică orice reconstrucție ulterioară a procesului decizional.
Acțiunea în instanță face referire și la modificările ulterioare ale politicilor de utilizare. Reclamanta consideră că restricțiile introduse ulterior de furnizor ar putea indica o conștientizare a riscurilor asociate utilizării sistemului pentru consultanță juridică.
Pe de altă parte, condițiile de utilizare includ avertismente explicite. Acestea precizează că răspunsurile nu constituie sfaturi juridice și nu pot înlocui un profesionist autorizat.
Din punct de vedere juridic, aceste clauze nu definesc natura serviciului. Ele pot însă influența analiza privind diligența furnizorului și previzibilitatea riscurilor. În acest sens, politicile de utilizare devin un instrument de evaluare a conduitei, nu un factor decisiv de calificare juridică.
Tema acestui litigiu reflectă o evoluție mai amplă. Inteligența artificială generativă a devenit un instrument frecvent utilizat în domeniul juridic. Aplicațiile includ cercetarea documentară, redactarea asistată și analiza predictivă a litigiilor.
Aceste tehnologii contribuie la eficientizarea activității. În același timp, ele ridică întrebări legate de responsabilitate. În mod tradițional, avocatul răspunde pentru competența și diligența sa. Introducerea unui instrument tehnologic în relația cu clientul complică această ecuație.
Apare astfel problema responsabilității în cazul unor erori generate de sistem. Se pune întrebarea dacă utilizatorul poate invoca „defectarea” tehnologiei sau dacă rămâne obligat să verifice și să valideze informațiile primite.
Cazul din Illinois evidențiază lipsa unui cadru legislativ complet adaptat acestor situații. În absența unor reglementări specifice, instanțele sunt chemate să aplice concepte juridice existente unor realități noi.
Această abordare se bazează pe flexibilitatea dreptului comun. Categorii precum răspunderea civilă, abuzul de drept sau exercitarea ilegală a unei profesii sunt utilizate pentru a analiza comportamente generate de sisteme automatizate.
În același timp, evoluția rapidă a tehnologiei face dificilă anticiparea legislativă. Practica judiciară capătă astfel un rol esențial în adaptarea normelor la noile realități.
Cazul analizat nu stabilește, în acest stadiu, o regulă generală privind răspunderea furnizorilor de inteligență artificială. El indică însă direcția în care se pot dezvolta viitoarele litigii.
Pe măsură ce sistemele devin mai performante și mai orientate spre acțiune, crește și potențialul lor de a influența deciziile utilizatorilor. Astfel, criteriul esențial ar putea deveni gradul în care aceste sisteme se substituie, în practică, activității unor profesioniști reglementați.
Dezbaterea rămâne deschisă. Evoluția acestui dosar va fi urmărită atent, fiind considerată un posibil reper pentru viitorul dreptului aplicabil inteligenței artificiale.

