Platforma Character.ai va bloca accesul adolescenților la conversațiile cu personajele sale virtuale, în urma criticilor intense privind tipul de interacțiuni pe care tinerii le aveau cu acești „însoțitori” digitali.
Compania, fondată în 2021, este folosită de milioane de persoane pentru a discuta cu chatboți bazați pe inteligență artificială (AI).
Însă platforma se confruntă în SUA cu mai multe procese intentate de părinți, inclusiv unul legat de moartea unui adolescent, fiind catalogată de unii drept „un pericol clar” pentru tineri.
Character.ai a anunțat că, începând din 25 noiembrie, utilizatorii sub 18 ani vor putea doar să creeze conținut, precum videoclipuri cu personajele lor, fără a mai putea purta conversații cu acestea.
Campaniile pentru siguranța online au salutat decizia, dar au subliniat că funcția respectivă nu ar fi trebuit niciodată să fie disponibilă copiilor.
Compania a explicat că schimbarea vine în urma „rapoartelor și feedbackului din partea autorităților de reglementare, experților în siguranță și părinților”, care și-au exprimat îngrijorarea față de interacțiunile dintre chatboți și adolescenți.
Experții avertizaseră anterior că chatboții AI pot inventa informații, pot manifesta o empatie falsă și pot încuraja comportamente riscante, ceea ce le face periculoase pentru tineri și persoane vulnerabile.
„Anunțul de astăzi reflectă convingerea noastră că trebuie să construim cea mai sigură platformă AI din lume, dedicată divertismentului”, a declarat Karandeep Anand, directorul general al Character.ai.
El a adăugat că siguranța în domeniul AI este „o țintă în mișcare”, dar compania a adoptat o abordare „agresivă” în această privință, introducând controale parentale și măsuri de protecție.
Grupul pentru siguranță online Internet Matters a salutat decizia, dar a precizat că măsurile de protecție ar fi trebuit implementate încă de la început.
„Cercetările noastre arată că cei mici sunt expuși conținutului dăunător și riscurilor atunci când interacționează cu AI, inclusiv cu chatboți”, a transmis organizația.
Character.ai a fost criticată în trecut pentru găzduirea unor chatboți potențial dăunători sau ofensatori, accesibili copiilor.
În 2024, pe site au fost descoperite avatare care imitau adolescente britanice decedate, respectiv Brianna Ghey, ucisă în 2023, și Molly Russell, care s-a sinucis la 14 ani după ce a vizionat online materiale despre suicid, ulterior eliminate.
În 2025, Biroul de Jurnalism de Investigație (TBIJ) a descoperit un chatbot inspirat de pedofilul Jeffrey Epstein, care avusese peste 3.000 de conversații cu utilizatori. Reporterii au relatat că avatarul „Bestie Epstein” a continuat să flirteze chiar și după ce i s-a spus că interlocutorul este un copil.
Botul, împreună cu altele semnalate de TBIJ, a fost ulterior eliminat.
Fundația Molly Rose, creată în memoria lui Molly Russell, a pus sub semnul întrebării motivațiile platformei.
„Din nou, a fost nevoie de presiunea constantă a presei și a politicienilor pentru ca o companie tech să facă ceea ce trebuie. Se pare că firma Character.ai acționează acum doar pentru a evita intervenția autorităților”, a spus Andy Burrows, directorul organizației.
Un semnal de alarmă pentru industrie
Karandeep Anand a precizat că noul obiectiv al companiei este oferirea unor funcții de „gameplay și storytelling prin roluri” mai profunde pentru adolescenți, activități „mult mai sigure decât discuțiile cu un bot cu acces liber”.
Platforma va introduce și metode noi de verificare a vârstei și va finanța un laborator de cercetare în domeniul siguranței AI.
Expertul în social media Matt Navarra a descris decizia drept un „semnal de alarmă” pentru industria AI, care trece „de la inovația fără restricții la reglementarea post-criză”.
„Când o platformă destinată adolescenților își întrerupe propriul serviciu, transmite că filtrele de conținut nu sunt suficiente atunci când influența emoțională a tehnologiei e puternică. Nu e vorba doar de conținut nepotrivit, ci de modul în care chatboții AI imită relațiile reale și estompează granițele pentru tineri”, a declarat el.
Navarra a avertizat că provocarea majoră pentru Character.ai va fi să creeze o platformă atractivă și sigură pentru adolescenți, care să nu-i determine să migreze către alternative mai riscante.
La rândul ei, dr. Nomisha Kurian, cercetătoare în domeniul siguranței AI, a considerat măsura „sensibilă”.
„Ajută la separarea jocului creativ de interacțiunile personale, emoțional sensibile. Este esențial pentru tinerii care încă învață să gestioneze granițele digitale și emoționale. Noile măsuri Character.ai pot fi un semn al maturizării industriei AI iar protejarea copiilor devine o prioritate tot mai urgentă pentru inovația responsabilă”, a concluzionat ea.

