Uniunea Europeană (UE) va avea nevoie de cel puțin încă un an pentru a decide cum să aplice legislația sa digitală în privința riscurilor generate de ChatGPT. Utilizarea chatbotului bazat pe inteligență artificială a crescut spectaculos în Europa, iar OpenAI a anunțat luna aceasta că a depășit un prag important de interes pentru autoritățile de reglementare.
Potrivit companiei, peste 120 de milioane de persoane folosesc lunar funcția de căutare a ChatGPT.
Totuși, autoritățile nu au stabilit încă modul în care ChatGPT va fi încadrat în temeiul Digital Services Act (DSA), aflat în vigoare din 2024, lege care obligă platformele să reducă riscurile la minimum. O decizie nu este așteptată mai devreme de mijlocul anului 2026, potrivit unui oficial de rang înalt al Comisiei.
Această întârziere reprezintă un test pentru capacitatea UE de a gestiona riscurile generate de modelele lingvistice de mari dimensiuni, care devin tot mai omniprezente, asemenea motoarelor de căutare tradiționale.
Lentoarea autorităților reflectă și faptul că legea digitală emblematică a fost concepută înainte de apariția ChatGPT, iar definițiile sale nu acoperă clar chatboturile de tip AI, ceea ce riscă să lase Bruxelles-ul în urma evoluțiilor tehnologice.
OpenAI a recunoscut recent că, în fiecare săptămână, aproximativ 1,2 milioane de persoane poartă conversații cu ChatGPT care indică gânduri suicidare și că „în unele cazuri rare, modelul nu reacționează corespunzător în astfel de situații sensibile”.
„Pentru o industrie obișnuită cu cadre de reglementare voluntare și criterii proprii, regimul de diligență obligatoriu impus de DSA ar putea fi un test de realitate dur. OpenAI va trebui să ridice semnificativ standardele și nu va mai putea continua cu o simplă adaptare a ceea ce face în prezent”, a declarat Mathias Vermeulen, director al agenției AWO din Bruxelles.
Compania nu a răspuns criticilor, dar a preciza că cifra de 120 de milioane se referă doar la utilizatorii funcției de căutare, nu la întregul serviciu.
Cât de amplu va fi cadrul de reglementare
ChatGPT este deja supus AI Act, care obligă, din august, furnizorii de modele AI să evalueze și să reducă riscurile, sub sancțiunea unor amenzi de până la 15 milioane de euro.
Noile cifre privind utilizatorii plasează însă ChatGPT în categoria marilor platforme, mult peste pragul de 45 de milioane de utilizatori lunari stabilit de DSA pentru platforme și motoare de căutare.
Odată inclus în sfera DSA, OpenAI ar putea fi sancționată cu până la 6% din cifra de afaceri globală anuală, în cazul nerespectării regulilor.
„ChatGPT nu a fost prevăzut explicit în DSA, dar se încadrează în limbajul legii”, explică Martin Husovec, profesor de drept la London School of Economics.
În cadrul DSA, UE desemnează platformele ca „foarte mari” (VLOP/VLOSE) dacă depășesc anumite praguri, acestea fiind obligate să respecte cerințele cele mai stricte.
„Întrebarea esențială este cât de larg va fi mandatul pentru ChatGPT”, spune Joris Van Hoboken, profesor la Vrije Universiteit Brussel, specializat în guvernanța AI.
Comisia ar putea limita reglementarea doar la funcțiile de căutare, încadrând ChatGPT drept motor de căutare, sau ar putea extinde evaluarea la întregul serviciu, tratându-l ca pe o platformă digitală.
Cerințele impuse OpenAI și modul în care acestea vor fi îndeplinite depind de această decizie.
Compania va trebui să evalueze riscurile legate de alegeri, sănătate publică și integritate civică, să le atenueze și să raporteze Comisiei într-un document detaliat de conformitate. Cu cât definiția este mai amplă, cu atât raportul devine mai complex.
O interpretare restrânsă ar putea scuti OpenAI de anumite obligații, precum crearea unui mecanism prin care utilizatorii să poată semnala conținut pentru eliminare.
Dacă decizia de încadrare va fi luată în mijlocul lui 2026, cerințele DSA ar începe să se aplice spre finalul anului viitor.
OpenAI ar putea contesta decizia, deși alte companii nu au avut succes în demersuri similare, potrivit João Pedro Quintais, profesor asociat de dreptul informației la Universitatea din Amsterdam, ceea ce ar putea prelungi și mai mult procesul.
Prea multe legi?
Persistă întrebări esențiale privind modul în care cele două mari acte normative (AI Act și DSA) interacționează.
Cele două legi au fost gândite să coexiste acolo unde AI este integrată în servicii digitale, cum este cazul funcției AI Overviews de la Google, explică Quintais. Ele nu au fost însă concepute pentru furnizori vertical integrați precum OpenAI.
Ambele acte pornesc de la cadre de risc diferite: AI Act clasifică modelele în funcție de nivelul de risc (inacceptabil, ridicat, limitat, minim), în timp ce DSA cere platformelor să evalueze și să atenueze patru tipuri de riscuri sistemice: integritate civică, alegeri, sănătate publică și drepturi fundamentale.
În plus, unele elemente, precum dezinformarea sau deepfake-urile, sunt gestionate mai degrabă prin DSA, în timp ce altele, cum ar fi utilizarea ChatGPT în procesele de recrutare, rămân în sfera AI Act.
Această lipsă de aliniere ar putea duce la lacune în evaluarea riscurilor de către companie, avertizează Quintais.
Totodată, OpenAI ar putea beneficia de legi privind răspunderea limitată (safe harbor), care exonerează platformele și motoarele de căutare de responsabilitatea pentru conținutul postat de utilizatori.

