OpenAI limitează accesul la GPT-5.4-Cyber, model ce identifică vulnerabilități informatice

4 Min Citire

OpenAI restricționează accesul la GPT-5.4-Cyber, model destinat identificării vulnerabilităților cibernetice

OpenAI a anunțat lansarea limitată a unui nou model de inteligență artificială specializat în securitate cibernetică, într-un context global marcat de îngrijorări tot mai mari privind utilizarea AI atât pentru apărare, cât și pentru atacuri informatice.

Compania a prezentat GPT-5.4-Cyber, o versiune optimizată pentru analiza și prevenirea amenințărilor informatice, care funcționează cu mai puține restricții comparativ cu versiunile standard. Anunțul oficial, publicat pe blogul OpenAI, indică faptul că modelul a fost antrenat pentru a oferi „capacități cibernetice suplimentare”.

Din cauza acestor caracteristici, accesul la GPT-5.4-Cyber este momentan limitat la un grup restrâns format din furnizori de securitate, organizații și cercetători validați, pentru a preveni utilizarea abuzivă a tehnologiei.

„Pentru că acest model este mai permisiv, începem cu o implementare limitată (…) pentru organizații și cercetători aprobați”, se menționează în comunicatul oficial al companiei.

Publicitate
Ad Image

Lansarea survine într-o perioadă tensionată, în care riscurile generate de AI în domeniul securității cibernetice sunt intens dezbătute. Cu o săptămână înainte, Anthropic a anunțat amânarea lansării modelului Claude Mythos, invocând riscuri legate de descoperirea unor vulnerabilități informatice.

Modelul Anthropic ar fi identificat mii de vulnerabilități necunoscute anterior în diverse sisteme informatice, ceea ce a ridicat întrebări privind posibila utilizare ofensivă a acestor tehnologii.

Lideri ai unor mari bănci americane au discutat aceste riscuri cu oficiali de rang înalt, inclusiv cu secretarul Trezoreriei SUA și conducerea Rezervei Federale.

OpenAI afirmă că GPT-5.4-Cyber este conceput pentru a sprijini profesioniștii în securitate în evaluarea software-ului și infrastructurilor digitale. Printre funcționalitățile modelului se numără:

analiza codului pentru identificarea comportamentelor malițioase;

detectarea vulnerabilităților și a punctelor slabe din sisteme;

evaluarea nivelului de reziliență al aplicațiilor;

simularea unor scenarii de atac pentru testarea apărării.

Compania subliniază că principalul obiectiv este consolidarea mecanismelor de apărare, nu facilitarea atacurilor. Totuși, având în vedere că modelul operează cu restricții reduse, s-a adoptat o strategie precaută de distribuție.

Atât OpenAI, cât și Anthropic au optat pentru lansări restrânse, însă fiecare urmează o strategie diferită. Anthropic a limitat accesul la modelul său la aproximativ 40 de organizații în cadrul proiectului „Glasswing”, în timp ce OpenAI intenționează să extindă treptat disponibilitatea modelului către un public mai larg.

„Nu considerăm că este practic sau adecvat să decidem centralizat cine are dreptul să se apere”, a transmis OpenAI, indicând o deschidere mai mare în viitorul apropiat.

Introducerea GPT-5.4-Cyber marchează o schimbare semnificativă în modul în care firmele de tehnologie abordează dezvoltarea AI în domenii sensibile.

Pe de o parte, astfel de modele pot spori considerabil capacitatea de apărare împotriva atacurilor informatice; pe de altă parte, folosirea lor fără controale adecvate poate genera riscuri serioase.

În aceste condiții, industria pare să adopte o metodă de testare controlată, în care limitarea accesului devine un instrument crucial pentru echilibrarea inovației cu securitatea.

Distribuie acest articol
Niciun comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *