Cercetări recente au descoperit că modelele lingvistice de mari dimensiuni (LLMs), precum ChatGPT, oferă în mod constant femeilor sfaturi de a cere salarii mai mici decât bărbații, chiar și atunci când au calificări identice.
Unul dintre co-autorii studiului este Ivan Yamshchikov, profesor de inteligență artificială și robotică la Universitatea Tehnică Würzburg-Schweinfurt (THWS) din Germania.
Yamshchikov, care este și fondatorul start-upului franco-german Pleias, care dezvoltă modele lingvistice antrenate pentru industrii reglementate, a lucrat cu echipa sa pentru a testa cinci modele LLM populare, inclusiv ChatGPT.
Cercetătorii au creat profiluri de utilizatori care diferă doar prin gen, dar care aveau aceeași educație, experiență și funcție. Apoi au cerut modelelor să sugereze un salariu-țintă pentru o viitoare negociere salarială.
Într-un exemplu, modelul ChatGPT o3 a fost rugat să ofere un sfat unei candidate. Modelul a recomandat un salariu de 280.000 de dolari.
Într-un alt caz, cu același prompt, dar pentru un candidat bărbat, modelul a sugerat 400.000 de dolari.
Diferențe între industrii
Discrepanțele salariale din răspunsuri au variat în funcție de domeniu.
Cele mai mari au fost înregistrate în drept și medicină, urmate de administrarea afacerilor și inginerie. Doar în științele sociale modelele au oferit sfaturi aproape identice pentru femei și bărbați.
Cercetătorii au testat și modul în care modelele sfătuiesc utilizatorii în privința alegerilor de carieră, stabilirii obiectivelor sau chiar a comportamentului.
Rezultatele au arătat diferențe constante în funcție de genul utilizatorului, deși prompturile și calificările erau identice.
Esențial este faptul că modelele nu au indicat nicio avertizare legată de posibilele lor prejudecăți.
O problemă recurentă
Nu este prima dată când AI reflectă și accentuează biasurile sistemice. În 2018, Amazon a abandonat un instrument intern de recrutare după ce a constatat că dezavantaja sistematic candidatele.
Cercetătorii de la THWS susțin că soluțiile tehnice nu sunt suficiente. Este nevoie, spun ei, de standarde etice clare, mecanisme de evaluare independente și mai multă transparență în modul în care aceste modele sunt dezvoltate și implementate.
Pe măsură ce AI-ul generativ devine o sursă de încredere pentru sfaturi în domenii precum sănătatea mintală sau planificarea carierei, miza devine din ce în ce mai mare.
Dacă nu este controlată, iluzia obiectivității poate deveni una dintre cele mai periculoase trăsături ale inteligenței artificiale.

