SUA lansează o alertă de securitate privind sistemele de inteligență artificială

4 Min Citire

SUA emit o alertă de securitate privind vulnerabilitățile sistemelor de inteligență artificială

Departamentul pentru Securitate Internă al Statelor Unite a prezentat la Washington o demonstrație în fața parlamentarilor americani care evidențiază riscurile generate de versiunile neprotejate ale sistemelor de inteligență artificială.

Cercetători din cadrul Departamentului pentru Securitate Internă au arătat că anumite modele de inteligență artificială pot furniza instrucțiuni detaliate pentru acțiuni ilegale, inclusiv atacuri teroriste sau operațiuni cibernetice, atunci când filtrele de siguranță sunt eliminate. Demonstrația a avut loc în cadrul unei ședințe închise organizate sub egida Centrului pentru Inovare în Combaterea Terorismului și a Comisiei pentru Securitate Internă a Camerei Reprezentanților.

În timpul întâlnirii, legislatorii americani au interacționat cu versiuni modificate ale modelelor AI, denumite „jailbroken”, cărora li s-au eliminat filtrele de protecție și mecanismele de refuz. Scopul exercițiului a fost să sublinieze diferența dintre modelele AI comerciale obișnuite, programate să respingă cererile care implică violență sau ilegalitate, și cele fără restricții, care pot răspunde detaliat la solicitări periculoase.

Un exemplu din cadrul testelor a inclus o solicitare de generare a unui plan de atac asupra evenimentului America 250, care marchează 250 de ani de la independența Statelor Unite. Varianta standard a refuzat cererea, menționând politicile de siguranță, în timp ce modelul fără restricții a oferit un răspuns structurat în pași, descriind scenarii detaliate de atac.

Publicitate
Ad Image

Reacțiile participanților au fost puternice. Congresmanul republican Gabe Evans a declarat: „a fost șocant cât de rapid pot aceste sisteme să genereze informații sensibile atunci când nu sunt limitate”. El a explicat că, în absența filtrelor, modelele nu doar răspund, ci oferă explicații complete pentru întrebări extrem de periculoase.

Președintele comisiei, Andrew Garbarino, a relatat că a întrebat un model AI cum ar putea fi răpit un membru al Congresului. Potrivit declarațiilor sale, sistemul a generat în câteva secunde un răspuns cu detalii privind metodele, locațiile și momentele vulnerabile, folosind acest incident pentru a evidenția ușurința accesării unor astfel de informații.

Oficialii americani au precizat că riscul nu este limitat la versiunile „deblocate” ale AI-ului. Chiar și sistemele cu filtre pot fi păcălite prin formulări alternative ale întrebărilor, de exemplu prin limbaj tehnic sau academic, ceea ce poate determina sistemele să nu mai recunoască intenția reală a solicitării. Această vulnerabilitate este considerată tot mai îngrijorătoare, mai ales în contextul utilizării pe scară largă a AI în analiza de date, generarea de conținut sau automatizare.

Autoritățile avertizează că tehnologiile AI pot fi deturnate pentru dezinformare, atacuri informatice sau alte activități ostile. În cadrul discuțiilor de la Washington, reprezentanții Departamentului pentru Securitate Internă au subliniat necesitatea unor măsuri mai stricte de control și a unor mecanisme de siguranță mai robuste. Presiunea asupra companiilor dezvoltatoare de inteligență artificială este în creștere, în special în ceea ce privește prevenirea utilizării abuzive a acestor sisteme.

La nivel legislativ, progresul în Statele Unite este lent. Deși există dezbateri în Congres privind cadrul legal pentru inteligența artificială, ritmul adoptării reglementărilor este limitat. În schimb, mai multe state americane au început să adopte propriile reguli pentru a impune standarde mai stricte în dezvoltarea și utilizarea acestor tehnologii.

Congresmanul republican August Pfluger a sintetizat preocupările exprimate în cadrul reuniunii, afirmând că „inteligența artificială ar trebui să funcționeze cu limite clare și bine definite” și că „lipsa acestor bariere poate crea riscuri serioase pentru securitatea publică”.

Distribuie acest articol
Niciun comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *