Mai mulți cercetători de la Universitatea din Zürich au recunoscut că au folosit conturi false pentru a publica mesaje generate de inteligență artificială pe Reddit, în cadrul unui experiment. Totul a fost făcut fără să anunțe moderatorii forumului, lucru care contravine regulilor acestuia.
Forumurile vizate au fost parte din subredditul r/changemyview, un loc unde oamenii își expun opiniile și îi invită pe ceilalți să le schimbe punctul de vedere, argumentat și civilizat.
Cercetătorii au vrut să vadă dacă AI-ul poate convinge oamenii să-și schimbe opinia. Așa că au creat conturi semi-automatizate care postau mesaje fie generale, fie adaptate la profilul utilizatorilor (vârstă, gen, etnie, locație, orientare politică etc.). De asemenea, au folosit AI și pentru răspunsuri, inspirate din comentariile reale de pe forum.
Comportamentele cercetătorilor au fost neetice
Problema este că autorii studiului nu au informat comunitatea sau moderatorii despre ce fac. Chiar dacă știau că regulile interzic conținutul generat de AI și care nu semnalat ca atare, au continuat experimentul, motivând că altfel nu ar fi fost posibil.
Moderatorii Reddit au aflat abia în martie 2025, când cercetătorii au trimis un mesaj oficial. În el, aceștia recunosc că nu au spus nimic despre AI pentru că ar fi afectat rezultatele și cer scuze pentru încălcarea regulilor. Totuși, spun că subiectul e prea important ca să nu fie studiat.
Mai grav, moderatorii au analizat conturile folosite de cercetători și au descoperit că unele mesaje generate de AI pretindeau că provin de la victime ale violului, acuzau grupuri religioase că ar fi provocat moartea unor oameni nevinovați sau se prezentau ca terapeuți specializați în tratarea efectelor abuzurilor.
Deși cercetătorii au avut inițial aprobare etică de la universitate, se pare că au schimbat experimentul pe parcurs, fără o reevaluare oficială. Moderatorii au făcut plângere și cer ca studiul să nu fie publicat.
Universitatea spune că riscurile au fost minime
Universitatea din Zürich susține însă că riscurile au fost minime și că rezultatele sunt prea valoroase pentru a fi cenzurate.
Moderatorii Reddit nu sunt de acord și oferă ca exemplu un studiu realizat de OpenAI, care a analizat conținutul de pe același subreddit, dar fără să intervină asupra utilizatorilor reali.
Criticile nu au întârziat să apară. Dr. Casey Fiesler, profesor la Universitatea din Colorado, a spus:
„Este una dintre cele mai grave încălcări ale eticii cercetării pe care le-am văzut. Manipularea oamenilor online, fără ca ei să știe, nu este un risc minor și a produs efecte negative reale.”

