Comisia Europeană (CE) a publicat miercuri un prim proiect al viitorului Cod de practică privind transparența în domeniul inteligenței artificiale, document care conturează un plan de marcare a conținutului generat de AI.
Codul este conceput pentru a ajuta companiile să respecte regulile de transparență prevăzute în Actul european privind inteligența artificială (AI Act). Aderarea este voluntară, documentul având rol de ghid de conformare, nu de legislație obligatorie.
În mod concret, codul va explica modul în care companiile trebuie să dezvăluie corect faptul că un conținut fotorealist generat de AI, de exemplu o imagine sau un videoclip care pare să arate o persoană reală, este, de fapt, media sintetică, cunoscută sub denumirea de deepfake.
De asemenea, vor fi stabilite condiții pentru marcarea altor tipuri de conținut creat cu ajutorul inteligenței artificiale.
Pentru deepfake-uri, autorii codului (reprezentanți ai industriei, mediului academic și societății civile) propun introducerea unei „pictograme comune la nivelul UE”.
Simbolul ar urma să permită identificarea dintr-o privire a faptului că o imagine care prezintă aparent un eveniment real sau o persoană reală a fost creată ori modificată cu ajutorul AI, oferind totodată acces la informații suplimentare despre conținutul generat artificial.
Pictograma ar trebui să includă un „acronim din două litere care face referire la inteligența artificială”, cel mai probabil „AI” în limba engleză, cu posibilitatea adaptării în funcție de traducerile în alte limbi.
Companiile care semnează codul s-ar angaja să sprijine dezvoltarea acestei pictograme comune și să utilizeze, până la finalizarea designului, un simbol provizoriu format doar din acronimul de două litere.
În plus, acestea ar trebui să adauge informații despre proveniența conținutului generat de AI atunci când acesta nu seamănă cu o persoană sau un eveniment real.
Potrivit proiectului, aceste informații ar trebui incluse, dacă este posibil, în metadatele fișierului, alături de un „watermark imperceptibil” aplicat direct asupra conținutului.
Companiile ar trebui să utilizeze „cea mai bună soluție tehnică posibilă și viabilă din punct de vedere economic” pentru a se asigura că watermark-ul este dificil de eliminat.
Această formulare ar putea oferi însă o marjă largă de interpretare, permițând companiilor să considere anumite metode prea costisitoare.
Semnatarii care își antrenează propriile modele de inteligență artificială s-ar angaja, de asemenea, să le dezvolte astfel încât utilizatorii finali să poată identifica cu ușurință conținutul generat de acestea ca fiind sintetic.




