Generatoarele de imagini cu inteligență artificială amplifică stereotipurile de gen, în mod diferit, în funcție de limba utilizată în solicitări, conform unei cercetări revoluționare publicate astăzi. Studiul relevă că descrieri identice ale posturilor produc distribuții de gen semnificativ diferite în imaginile generate de AI atunci când sunt traduse în diferite limbi, punând sub semnul întrebării presupunerile despre echitatea algoritmică.
Cercetători de la Universitatea Tehnică din München și TU Darmstadt au analizat modele text-imagine în nouă limbi, dezvoltând primul benchmark cuprinzător pentru măsurarea prejudecăților de gen în sistemele AI multilingve. Descoperirile lor demonstrează că structurile lingvistice influențează semnificativ tiparele de prejudecată, chiar și atunci când regulile genului gramatical par similare.
Limba modelează tiparele de prejudecată ale IA
Studiul a introdus MAGBIG (Evaluarea Multilingvă a Prejudecăților de Gen în Generarea de Imagini), examinând peste 1,8 milioane de imagini generate de AI în mai multe limbi, inclusiv germană, spaniolă, franceză, engleză, japoneză, coreeană și chineză. Cercetătorii au testat patru tipuri de solicitări: termeni ocupaționali direcți folosind forme masculine generice, descrieri indirecte, solicitări explicit feminine și formulări neutre din punct de vedere al genului.
Solicitările directe cu termeni masculini generici au produs cele mai puternice prejudecăți, cu ocupații precum „contabil” generând predominant imagini cu bărbați albi, în timp ce profesiile din domeniul îngrijirii au generat figuri cu prezentare feminină. Remarcabil, trecerea de la solicitări în franceză la solicitări în spaniolă a condus la o creștere substanțială a prejudecăților de gen, deși ambele limbi folosesc structuri gramaticale similare pentru ocupațiile cu gen.
Eforturile de atenuare se dovedesc limitate
Limbajul neutru din punct de vedere al genului și convențiile „stelei de gen”—cum ar fi „Ärzt*innen” în germană pentru doctori—au oferit doar o reducere marginală a prejudecăților, deteriorând în același timp calitatea imaginii și alinierea textului. Cercetarea a descoperit că strategiile de inginerie a prompturilor concepute pentru a atenua prejudecățile au fost în mare parte ineficiente și uneori contraproductive.
„Rezultatele noastre arată clar că structurile lingvistice au o influență considerabilă asupra echilibrului și prejudecăților generatoarelor de imagini AI”, a declarat Alexander Fraser, profesor de Analiză de Date și Statistică la Campusul TUM din Heilbronn. „Oricine utilizează sisteme AI ar trebui să fie conștient că formulări diferite pot duce la imagini complet diferite și, prin urmare, pot amplifica sau atenua stereotipurile de rol sociale”.
Profesorul Kristian Kersting, co-director al hessian.AI, a subliniat implicațiile mai ample: „Generatoarele de imagini AI nu sunt neutre—ele ilustrează prejudecățile noastre în rezoluție înaltă, iar acest lucru depinde crucial de limbaj. Mai ales în Europa, unde multe limbi converg, aceasta este o avertizare: AI-ul echitabil trebuie conceput având în vedere sensibilitatea lingvistică”.
Cercetarea apare în Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics, evidențiind nevoia urgentă de conștientizare a prejudecăților multilingve, pe măsură ce generarea de imagini AI devine din ce în ce mai răspândită în aplicații globale.

