China cere companiilor de AI să își instruiască modelele de limbaj în spiritul socialismului

Autoritățile de reglementare chineze supun modelele lingvistice mari ale companiilor de inteligență artificială unei revizuiri guvernamentale, pentru a se asigura că acestea „întruchipează valorile socialiste de bază”.

Demersul este realizat de Cyberspace Administration of China (CAC), principalul organism de reglementare a internetului din China și va acoperi întregul spectru de jucători, de la giganți tehnologici precum ByteDance și Alibaba, până la startup-uri.

Modelele AI sunt testate de oficialii locali ai CAC pentru a evalua răspunsurile lor la o varietate de întrebări, multe dintre acestea fiind legate de subiecte sensibile din punct de vedere politic.

O sursă anonimă de la o companie AI din Hangzhou a declarat pentru FT că modelul lor nu a trecut prima rundă de testare din motive neclare. După luni de „ghiciri și ajustare”, au reușit să treacă doar a doua rundă de testare.

Eforturile recente ale CAC ilustrează modul în care Beijingul încearcă să ajungă din urmă SUA în privința GenAI, urmărind în același timp cu atenție dezvoltarea tehnologiei pentru a se asigura că respectă politicile stricte de cenzură a internetului.

Diferențele lingvistice sunt problematice

China a fost printre primele țări care au finalizat regulile privind inteligența artificială generativă anul trecut și a introdus inclusiv cerința ca serviciile AI să adere la „valorile de bază ale socialismului” și să nu genereze conținut „ilegal”.

Îndeplinirea acestor politici de cenzură necesită „filtre de securitate”, iar acest lucru a devenit complicat, deoarece LLM-urile chineze sunt instruite pe o cantitate semnificativă de conținut în limba engleză.

Potrivit raportului FT, filtrarea se face prin eliminarea „informațiilor problematice” din datele de antrenament ale modelului AI și apoi prin crearea unei baze de date de cuvinte și expresii sensibile.

Reglementările au determinat ca cei mai populari chatboți din China să refuze adesea să răspundă la întrebări pe subiecte sensibile, cum ar fi protestele din Piața Tiananmen din 1989.

Adevăr versus politică

Cu toate acestea, în timpul testării CAC, există limite ale numărului de întrebări pe care LLM-urile le pot declina definitiv, astfel încât modelele trebuie să fie capabile să genereze „răspunsuri corecte din punct de vedere politic” la întrebările sensibile.

Un expert în inteligență artificială din China a declarat că este dificil să împiedici LLM-urile să genereze tot conținutul potențial dăunător, așa că au construit un mecanism care înlocuiește răspunsurile problematice în timp real.

Reglementările, precum și sancțiunile americane care au restricționat accesul la cipurile utilizate pentru instruirea LLM-urilor, au făcut dificil pentru firmele chineze să lanseze propriile servicii similare ChatGPT.

Totuși, China domină cursa globală în privința brevetelor pentru AI generativă.

Carol Dan

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Cele mai recente știri

spot_img

Abonează-te la cele mai recente știri din IT, Digitalizare, Tehnologii & Crypto

Te-ar putea interesa și...