Astăzi a fost semnată convenția-cadru a Consiliului Europei privind Inteligența Artificială, primul acord internațional cu caracter juridic obligatoriu referitor la IA.
Această convenție este aliniată cu AI Act al Uniunii Europene, asigurând că tehnologiile AI sunt compatibile cu drepturile omului, democrația și statul de drept, în timp ce promovează inovația.
Tratatul va intra în vigoare la trei luni după ce va fi ratificat de cele cinci state semnatare, inclusiv cel puțin trei state membre ale Consiliului Europei.
Acordul a fost semnat astăzi de Andorra, Georgia, Islanda, Norvegia, Republica Moldova, San Marino, Regatul Unit, Israel, SUA și UE, a anunțat Consiliul Europei.
Cele 46 de state membre ale Consiliului Europei, inclusiv țările UE și 11 state non-UE, printre care Australia, Canada, Israel, Japonia și Argentina, au negociat acest acord.
Țările din întreaga lume vor putea adera la tratat și vor fi obligate să respecte prevederile sale.
Legislația va fi extinsă la nivel mondial
În paralel cu această inițiativă, alte regiuni ale lumii lucrează la diverse proiecte legate de IA.
De exemplu, Summitul pentru Siguranța AI își propune să avanseze discuțiile globale privind IA, cu un accent pe siguranță și pe gestionarea capabilităților avansate ale celor mai moderne modele de IA.
La nivelul G7, sub președinția Japoniei, a fost lansat procesul de la Hiroshima, care are ca scop promovarea unei inteligențe artificiale sigure, securizate și de încredere.
Cele 11 principii directoare și Codul de Conduită voluntar sunt menite să completeze, la nivel internațional, Actul privind AI din Uniunea Europeană.
Ce este AI Act al UE?
Legea privind Inteligența Artificială reprezintă primul cadru juridic mondial care vizează gestionarea riscurilor legate de IA.
Acesta stabilește cerințe și obligații clare pentru dezvoltatorii și operatorii de IA, concentrându-se pe utilizările specifice ale acestei tehnologii.
Totodată, regulamentul urmărește reducerea poverilor administrative și financiare pentru companii, în special pentru IMM-uri.
Legea face parte dintr-un pachet mai amplu de politici care susțin dezvoltarea unei IA de încredere, incluzând pachetul pentru inovare în IA și Planul coordonat privind IA. Aceste măsuri asigură siguranța cetățenilor și companiilor, respectarea drepturilor fundamentale și sprijină investițiile și inovația în UE.
Noile norme urmăresc să promoveze o IA de încredere la nivel global, garantând că sistemele IA respectă drepturile fundamentale și principiile etice, abordând totodată riscurile create de modelele avansate de IA.
Necesitatea acestor reguli vine din dorința de a construi încredere în IA, având în vedere că anumite aplicații pot genera riscuri nedorite, cum ar fi deciziile netransparente care pot afecta persoane în mod negativ, de exemplu în cazul angajării sau accesului la servicii publice.
Principalele măsuri ale legii includ
- gestionarea riscurilor specifice asociate aplicațiilor IA
- interzicerea practicilor IA cu riscuri inacceptabile
- stabilirea unei liste de aplicații IA cu grad ridicat de risc și impunerea unor cerințe clare pentru acestea
- obligații specifice pentru operatorii și furnizorii de sisteme IA cu risc ridicat
- evaluarea conformității înainte de introducerea pe piață a unui sistem IA
- supravegherea post-comercializare a sistemelor IA
- instituirea unei structuri de guvernanță la nivel european și național
Cadrul de reglementare clasifică riscurile IA în patru niveluri: risc inacceptabil, ridicat, limitat și minim sau inexistent.
Sistemele care prezintă riscuri majore pentru siguranță, drepturile fundamentale sau viața oamenilor vor fi interzise, cum ar fi evaluările sociale realizate de guverne sau jucăriile care utilizează IA vocală pentru a încuraja comportamente periculoase.