Microsoft a publicat un blog care detaliază un plan în cinci puncte pentru guvernanța AI în Europa

Președintele Microsoft, Brad Smith, prezent la evenimentul „Transformarea digitală a Europei – Îmbrățișând oportunitatea AI„, la Bruxelles, a susținut un discurs despre abordarea Microsoft în ceea ce privește dezvoltarea responsabilă a inteligenței artificiale, precum și despre guvernanța AI în Europa. În timpul evenimentului, Microsoft a publicat un blog care detaliază un plan în cinci puncte pentru guvernarea AI în Europa, în conformitate cu discuțiile legate de Legea UE privind inteligența artificială.

”Microsoft susține eforturile internaționale de a dezvolta un cod de conduită cu privire la inteligența artificială pentru a reuni parteneri privați și publici în vederea implementării unor standarde internaționale fără caracter obligatoriu privind transparența AI, gestionarea riscurilor și alte cerințe tehnice pentru firmele care dezvoltă și implementează sisteme AI.”

Microsoft

Pentru buna funcționare la nivel internațional a numeroaselor aspecte legate de guvernanța AI, va fi nevoie de un cadru multilateral care să conecteze diverse norme naționale și să garanteze că un sistem de inteligență artificială certificat ca fiind sigur într-o jurisdicție poate fi considerat sigur și într-o altă jurisdicție.

Microsoft consideră că un cod internațional ar trebui să se bazeze pe activitatea desfășurată deja în cadrul OCDE pentru a elabora principii privind inteligența artificială, să furnizeze mijloace prin care dezvoltatorii de AI reglementați să ateste siguranța acestor sisteme în conformitate cu standardele convenite internațional și să promoveze inovarea și accesibilitatea, oferind un mijloc de recunoaștere reciprocă a conformității și siguranței peste granițe.

În această abordare, guvernul ar defini clasa de sisteme AI cu risc ridicat care controlează infrastructura critică și garantează astfel de măsuri de siguranță ca parte a unei abordări cuprinzătoare a managementului sistemului. Noile legi ar impune operatorilor acestor sisteme să construiască măsuri de siguranță iar guvernul ar obliga apoi operatorii să testeze în mod regulat sistemele cu risc ridicat. Și aceste sisteme ar fi implementate numai în centre de date AI licențiate care ar oferi un al doilea nivel de protecție și ar asigura securitatea.

De asemenea, modelelor puternice de IA au și obligația securității acestora, iar acest lucru va necesita noi reglementări pentru aceste modele și va presupune obligații pentru operatorii de infrastructură AI pe care sunt dezvoltate și implementate aceste modele.

Citește și

spot_img

Alte știri din aceeași rubrică

spot_img