Într-un articol publicat recent pe blogul companiei, OpenAI a comparat aceste tipuri de atacuri cu fraudele și tehnicile de inginerie socială utilizate pe internet. Compania afirmă că aceste vulnerabilități „probabil nu vor fi niciodată complet eliminate”.
De asemenea, compania a recunoscut faptul că funcția „agent mod” a browserului AI, ChatGPT Atlas, „agravează suprafața de expunere” în privința securității.
ChatGPT Atlas a fost lansat în luna octombrie. În scurt timp, experții în domeniul securității au demonstrat că este posibil să influențeze comportamentul browserului prin comenzi ascunse în documente sau pagini aparent nesemnificative.
Totodată, Centrul Național de Securitate Cibernetică din Regatul Unit a avertizat recent că astfel de atacuri „pot fi imposibil de prevenit în totalitate”.
Pentru a reduce riscurile, OpenAI menține o strategie de testare continuă și de intervenție rapidă. Un element central în această abordare este crearea unui „atacator automatizat” bazat pe modele lingvistice avansate (LLM), antrenat cu învățare prin recompensă să simuleze activitatea unui hacker.
Acest sistem realizează teste în medii simulate, identificând noi tehnici de atac și ajutând compania să descopere vulnerabilități înainte ca acestea să fie exploatate în mediul real.
Un exemplu oferit de OpenAI ilustrează cum un e-mail malițios a determinat agentul AI să trimită accidental un mesaj de demisie. După implementarea măsurilor de securitate, browserul a reușit să recunoască atacul și să atragă atenția utilizatorului.
Experții în securitate cibernetică avertizează totuși asupra unui risc semnificativ în continuare.
OpenAI recomandă utilizatorilor să limiteze accesul agenților AI și să solicite confirmare înainte de efectuarea operațiunilor importante, precum trimiterea de mesaje sau realizarea de plăți.










Lasă un răspuns