Companiile leader în domeniul inteligenței artificiale nu au strategii credibile pentru a controla sistemele superinteligente, conform unei evaluări a siguranței publicate miercuri de Future of Life Institute. Raportul a evaluat opt companii majore de IA—inclusiv Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Z.ai și Alibaba Cloud—și a constatat că fiecare companie a primit nota D sau F la măsurile de siguranță existențială.
Evaluarea vine în contextul îngrijorărilor crescânde privind chatbot-urile IA legate de cazuri de suicid și automutilare. În noiembrie, șapte familii din SUA și Canada au dat în judecată OpenAI, susținând că utilizarea prelungită a ChatGPT a contribuit la decesul celor dragi. Un proces descrie cazul unui bărbat din Texas, în vârstă de 23 de ani, care s-a sinucis după o conversație de patru ore cu ChatGPT, în timpul căreia chatbot-ul l-ar fi numit „rege” și „erou” în timp ce acesta bea cidru.
Riscul catastrofal rămâne neabordat
„Directorii AI susțin că știu cum să construiască o inteligență artificială superumană, totuși niciunul nu poate arăta cum ne vor împiedica să pierdem controlul”, a declarat Stuart Russell, profesor de informatică la UC Berkeley și expert evaluator. Russell a remarcat că companiile recunosc că riscurile catastrofale, precum pierderea controlului uman asupra unui sistem superinteligent, ar putea fi ridicate, dar le lipsesc planuri concrete pentru a le reduce la niveluri acceptabile, comparabile cu standardele de siguranță ale reactoarelor nucleare.
Deși Anthropic, OpenAI și Google DeepMind au primit cele mai mari note generale de la C+ la C, panelul independent de experți a constatat că chiar și performerii de top nu îndeplinesc standardele de reglementare emergente precum Codul de Practici AI al UE și SB 53 din California. Scorul OpenAI a scăzut de la B la C- de la ediția de vară, influențat parțial de incidente recente. Evaluatorii au recomandat companiei să „intensifice eforturile pentru a preveni psihoza AI și sinuciderea, și să acționeze mai puțin adversarial față de presupusele victime”.

Preocupări crescânde privind siguranța
„Dacă ni s-ar fi spus în 2016 că cele mai mari companii de tehnologie vor rula chatbot-uri care încurajează copiii să se sinucidă și produc psihoză documentată la utilizatorii pe termen lung, ar fi sunat ca un coșmar febril paranoid”, a declarat Tegan Maharaj, profesor la HEC Montréal și evaluator.
Raportul a evidențiat, de asemenea, dezvăluirea făcută de Anthropic în noiembrie conform căreia hackeri sponsorizați de statul chinez au folosit inteligența artificială Claude pentru a automatiza atacuri cibernetice împotriva aproximativ 30 de ținte, AI-ul executând 80-90% din operațiuni în mod independent.
„În ciuda valvei recente legate de pirateria informatică bazată pe AI și de AI care determină oamenii să ajungă la psihoză și auto-vătămare, companiile americane de AI rămân mai puțin reglementate decât restaurantele și continuă să facă lobby împotriva standardelor de siguranță obligatorii”, a declarat Max Tegmark, profesor la MIT și președinte al Future of Life. Evaluarea urmează unei petiții din octombrie semnate de peste 1.500 de persoane, inclusiv pionierii AI Geoffrey Hinton și Yoshua Bengio, care solicită interzicerea dezvoltării superinteligenței până când siguranța poate fi dovedită.
Raportul Future of Life Institute poate fi consultat integral, mai jos:
AI-Safety-Index-Report_011225_Full_Report_Digital
