Sistemele AI care amenință drepturile omului sunt acum interzise în Europa

Uniunea Europeană a făcut un pas decisiv în reglementarea tehnologiilor emergente, interzicând utilizarea sistemelor de inteligență artificială care prezintă un „risc inacceptabil”. Începând de astăzi, această măsură marchează prima etapă de conformare la noul Act privind Inteligența Artificială (AI), un cadru legislativ menit să protejeze cetățenii europeni de posibilele abuzuri ale AI. Decizia ridică numeroase întrebări cu privire la impactul pe care îl va avea asupra companiilor din România și asupra viitorului tehnologiei în spațiul european.

Noile reglementări stabilesc patru niveluri de risc pentru sistemele AI: minim, limitat, ridicat și inacceptabil. Această ultimă categorie cuprinde tehnologii care pot afecta în mod negativ societatea și drepturile fundamentale ale indivizilor, iar utilizarea lor este acum strict interzisă. Printre aplicațiile interzise se numără sistemele AI folosite pentru „scoring social”, care pot crea profiluri de risc bazate pe comportamentul unei persoane, algoritmi capabili să manipuleze deciziile utilizatorilor în mod subliminal sau înșelător, precum și tehnologii care exploatează vulnerabilitățile unor persoane în funcție de vârstă, dizabilități sau statut socio-economic. De asemenea, sunt interzise sistemele care încearcă să prezică probabilitatea ca o persoană să comită o infracțiune pe baza trăsăturilor fizice, precum și cele care colectează date biometrice în timp real în spații publice pentru aplicarea legii.

Pentru companiile care încalcă aceste reguli, amenzile pot ajunge până la 35 de milioane de euro sau 7% din veniturile anuale globale, în funcție de care sumă este mai mare. Această măsură pune presiune și pe firmele din România care utilizează AI în domenii precum banking-ul, sănătatea sau retail-ul, obligându-le să adopte măsuri de conformare pentru a evita sancțiuni drastice. În același timp, startup-urile românești din domeniul AI trebuie să fie mai transparente în ceea ce privește utilizarea tehnologiilor de învățare automată și a datelor biometrice.

Cu toate acestea, există și excepții de la interdicțiile impuse de AI Act. De exemplu, anumite tehnologii biometrice pot fi utilizate de forțele de ordine pentru a efectua căutări țintite în cazuri de persoane dispărute sau pentru a preveni amenințări iminente la adresa vieții. De asemenea, sistemele AI care analizează emoțiile pot fi utilizate în medii de lucru sau educaționale, dar doar dacă există o justificare medicală sau de siguranță.

Încă de anul trecut, peste 100 de companii, inclusiv giganți tehnologici precum Google și Amazon, au semnat Pactul AI al UE, un angajament voluntar de a implementa principiile AI Act înainte de termenul limită. Pe de altă parte, Meta, Apple și startup-ul francez Mistral au ales să nu se alăture acestui pact, ceea ce ridică semne de întrebare privind angajamentul lor față de noile reglementări.

Următoarea etapă importantă pentru implementarea AI Act este programată pentru august 2025, când vor intra în vigoare sancțiunile și mecanismele de aplicare. Până atunci, firmele românești trebuie să analizeze noile cerințe și să își adapteze strategiile pentru a rămâne conforme. Pe măsură ce UE continuă să reglementeze utilizarea AI, România trebuie să găsească un echilibru între protejarea drepturilor cetățenilor și stimularea inovației în acest domeniu crucial pentru viitorul tehnologiei.

Rebecca Kramarik

Rebecca Kramarik este o jurnalistă cu experiență în presa locală, pasionată de tehnologie și de impactul transformărilor digitale asupra societății. Cu o abordare clară și documentată, aduce subiectele complexe mai aproape de un public larg, punând accent pe relevanța și impactul tehnologiei în viața de zi cu zi.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Cele mai recente știri

spot_img

Abonează-te la cele mai recente știri din IT, Digitalizare, Tehnologii & Crypto

Te-ar putea interesa și...