Microsoft a descoperit că AI nu poate fi complet securizată, potrivit unui studiu în care compania americană și-a testat peste 100 dintre produsele proprii de inteligență artificială generativă. De asemenea, factorul uman rămâne esențial în gestionarea acestor riscuri.
Echipa de experți care a derulat aceste teste a concluzionat că modelele AI amplifică riscurile existente și creează altele noi, iar securizarea acestora va fi un proces continuu.
Studiul, condus de 26 de cercetători, inclusiv Mark Russinovich, CTO-ul Azure, subliniază că, deși riscurile nu pot fi eliminate complet, acestea pot fi diminuate prin măsuri de securitate stratificate și design responsabil.
Una dintre lecțiile principale este că modelele trebuie înțelese și evaluate în funcție de scopul lor pentru a implementa protecții eficiente.
De exemplu, modelele mai mari respectă mai bine instrucțiunile utilizatorilor, ceea ce este util, dar le face mai vulnerabile la atacuri.
Alte constatări includ faptul că atacurile simple, cum ar fi manipularea interfeței utilizator, pot fi mai eficiente decât metodele complexe, cum ar fi cele bazate pe gradient.
Oamenii rămân de bază
Microsoft a dezvoltat un cadru open-source numit PyRIT pentru a automatiza testele de securitate, dar avertizează că acesta poate fi folosit și pentru a exploata vulnerabilitățile modelelor AI.
Un alt punct cheie este că elementul uman rămâne crucial în evaluarea securității, chiar și cu automatizarea în creștere.
De asemenea, riscurile create de AI sunt dificil de cuantificat, mai ales când implică prejudecăți sociale, cum ar fi generarea imaginilor care reflectă stereotipuri de gen.
Studiul avertizează că modelele lingvistice mari (LLMs) pot amplifica riscurile de securitate existente și pot introduce altele noi.
De exemplu, dacă primesc date nesigure sau confidențiale, pot genera răspunsuri inadecvate sau pot dezvălui informații sensibile.
Aceste constatări vin într-un moment în care Microsoft integrează AI în tot mai multe aplicații, subliniind importanța abordării proactive a noilor riscuri de securitate.