Comisia Europeană (CE) a publicat vineri un set de ghiduri menite să ajute modelele de inteligență artificială (AI) considerate cu riscuri sistemice să respecte noile reguli ale Uniunii Europene în materie. Este vorba despre modele care vor avea de îndeplinit cerințe mai stricte, tocmai pentru a preveni eventuale amenințări la adresa siguranței, sănătății publice sau drepturilor fundamentale.
Prin această inițiativă, Comisia încearcă să răspundă criticilor venite din partea unor companii care consideră Legea privind inteligența artificială (AI Act) prea împovărătoare.
„Prin ghidurile publicate azi, Comisia sprijină o implementare clară și eficientă a Legii privind inteligența artificială”, a declarat comisarul european pentru tehnologie, Henna Virkkunen.
Totodată, oferă mai multă claritate firmelor care riscă amenzi considerabile dacă nu se conformează: între 7,5 milioane de euro sau 1,5% din cifra de afaceri, și până la 35 de milioane de euro sau 7% din cifra de afaceri globală, în funcție de gravitatea încălcării.
Legea, adoptată anul trecut, va intra în vigoare în 2 august pentru modelele de AI considerate cu risc sistemic și pentru modelele fundamentale, precum cele dezvoltate de Google, OpenAI, Meta, Anthropic sau Mistral.
Companiile au termen până în 2 august 2026 pentru a se alinia noilor cerințe.
Tot mai mulți experți în securitate cibernetică trag semnale de alarmă cu privire la riscurile legate de atacuri și utilizarea abuzivă a inteligenței artificiale.
Comisia definește modelele cu risc sistemic ca fiind acele modele extrem de performante, capabile să influențeze major societatea, siguranța cetățenilor sau drepturile fundamentale.
Primul val de modele vizate de reglementări va trebui să realizeze evaluări tehnice, analize de risc, testări împotriva atacurilor, să raporteze incidentele grave către Comisie și să implementeze măsuri solide de securitate cibernetică.
Modelele generale de AI (GPAI) sau modelele de bază vor trebui să respecte reguli de transparență, să întocmească documentație tehnică, să adopte politici clare privind drepturile de autor și să furnizeze rezumate detaliate despre datele folosite pentru antrenarea algoritmilor.

