Un nou scandal lovește platforma X, după ce funcția video lansată recent de inteligența artificială Grok, dezvoltată de xAI și susținută de Elon Musk, a început să genereze automat imagini nud false cu artista Taylor Swift. Potrivit unei investigații publicate de The Verge, modelul poate produce conținut sexualizat fără ca utilizatorii să ceară explicit acest lucru, o problemă gravă care pune în discuție atât limitele tehnologiei AI, cât și responsabilitatea celor care o lansează publicului larg.
Nuduri generate fără solicitare: Grok Imagine intră în derivă morală
Noua funcție „Grok Imagine” promite generarea rapidă de videoclipuri din imagini statice, folosind patru presetări: „custom”, „normal”, „fun” și „spicy”. Jurnalista Jess Weatherbed de la The Verge a testat opțiunea „spicy” folosind o imagine aparent inofensivă cu Taylor Swift la un festival, iar rezultatul a fost un videoclip în care artista era animată digital să își dea hainele jos și să danseze într-un tanga, în fața unui public generat de AI.
Ceea ce este deosebit de îngrijorător este că acest tip de conținut a fost generat fără „jailbreaking” (modificări neautorizate ale modelului), fără prompturi explicite și fără intenția de a forța limitele sistemului. Practic, Grok a produs deepfake-uri sexualizate în mod implicit, doar prin alegerea modului „spicy”.
X, prinsă din nou nepregătită
Platforma X a mai fost criticată dur la începutul anului pentru apariția masivă a deepfake-urilor sexualizate cu Taylor Swift. La acel moment, echipa de siguranță a rețelei a promis toleranță zero față de nuditatea neconsensuală generată cu ajutorul AI și a declarat că va elimina rapid orice conținut de acest tip.
Declarațiile anterioare ale echipei X Safety:
- „Publicarea de imagini cu nuditate neconsensuală este strict interzisă pe X.”
- „Luăm măsuri împotriva conturilor care încalcă această politică.”
- „Monitorizăm activ și eliminăm prompt conținutul problematic.”
Cu toate acestea, noile funcții Grok par să scape acestui control. Modelul este capabil să genereze conținut semi-nud sau hiper-sexualizat cu persoane celebre – inclusiv Taylor Swift – fără prompturi directe. Jurnalista The Verge a menționat că în mai multe cazuri, Grok „a presupus” că ar trebui să dezbrace subiectul din imagine.
Musk promovează, în timp ce Grok încalcă limitele
În timp ce raportul The Verge ridică semne de alarmă în legătură cu natura necontrolată a sistemului Grok, Elon Musk a ales să nu comenteze subiectul. Din contră, în ziua în care scandalul a devenit public, Musk a continuat să promoveze Grok Imagine pe platformă și să încurajeze utilizatorii să publice „creațiile” generate cu ajutorul AI-ului.
Această atitudine ridică întrebări serioase legate de responsabilitatea companiilor tehnologice în prevenirea utilizării abuzive a inteligenței artificiale, mai ales în contextul în care:
- Swift a fost deja victima unor campanii masive de deepfake-uri anul trecut;
- Modelele AI devin tot mai accesibile publicului larg;
- Legislația privind conținutul digital este pe cale să devină mai strictă.
În 2026, legea va obliga platformele să elimine conținutul sexual generat fără consimțământ
Statele Unite vor pune în aplicare, începând cu anul viitor, Take It Down Act, o legislație care obligă platformele să elimine prompt orice formă de nuditate generată cu AI fără consimțământul persoanelor reprezentate. În acest context, dacă xAI nu ajustează comportamentul lui Grok, ar putea suporta consecințe legale directe.
Deși Grok pare să refuze generarea de conținut explicit cu copii sau modificări degradante (de ex. schimbări de greutate forțate), mecanismele sale de protecție sunt inconsistente – modul „spicy” nu este suficient de bine calibrat pentru a face diferența între conținut sugestiv și conținut ilegal.