Compania Meta, a anunțat că ar putea opri dezvoltarea unor sisteme de inteligență artificială, pe care le consideră prea periculoase pentru a fi lansate publicului. Această decizie este detaliată într-un nou document de politici intitulat Frontier AI Framework, care definește două tipuri de riscuri asociate AI: „risc ridicat” și „risc critic”.
CEO-ul Meta, Mark Zuckerberg, și-a exprimat anterior intenția de a face disponibile publicului sistemele de inteligență artificială avansate, inclusiv inteligența artificială generală. Totuși, compania recunoaște că există anumite scenarii în care nu va elibera astfel de tehnologii din motive de siguranță.
Conform Frontier AI Framework, sistemele clasificate ca „risc ridicat” ar putea facilita atacuri cibernetice, chimice sau biologice, dar fără a le garanta reușita. Pe de altă parte, sistemele considerate „risc critic” ar putea provoca „consecințe catastrofale” fără a exista metode eficiente de reducere a pericolului.
Ce amenințări vizează Meta?
Printre exemplele oferite de Meta se numără:
– Compromiterea automată a unui mediu corporativ securizat conform celor mai bune practici.
– Proliferarea armelor biologice de mare impact.
Meta subliniază că această listă nu este exhaustivă, dar include scenarii considerate printre cele mai presante și realiste.
Cum evaluează Meta riscurile AI?
Spre deosebire de alte companii, Meta nu aplică un test empiric standardizat pentru a determina nivelul de risc al unui sistem AI. În schimb, procesul decizional se bazează pe evaluări realizate de experți interni și externi, iar concluziile lor sunt revizuite de factori de decizie de rang înalt din companie.
Dacă un sistem este considerat cu „risc ridicat”, Meta va restricționa accesul la acesta în interiorul companiei și nu îl va lansa până când nu va implementa măsuri de reducere a pericolului. În cazul unui sistem cu „risc critic”, Meta va opri complet dezvoltarea acestuia până la găsirea unor soluții care să reducă riscul la un nivel acceptabil.
Decizia Meta vine pe fondul criticilor primite pentru abordarea sa deschisă privind dezvoltarea AI. Modelele AI din familia Llama a companiei au fost descărcate de sute de milioane de ori, dar s-a raportat și utilizarea lor de către adversari ai SUA pentru dezvoltarea unor chatbot-uri defensive.
Pentru utilizatorii români, această schimbare de strategie ar putea însemna o accesibilitate mai limitată la unele dintre cele mai avansate modele AI. Totuși, măsura ar putea contribui la prevenirea utilizării abuzive a inteligenței artificiale, reducând riscul unor atacuri cibernetice sau biologice la scară largă.
Prin publicarea Frontier AI Framework, Meta pare să dorească și o diferențiere față de companii chineze precum DeepSeek, care oferă sisteme AI cu mai puține restricții și măsuri de siguranță.
„Credem că printr-o analiză echilibrată a beneficiilor și riscurilor asociate AI, putem oferi această tehnologie societății într-un mod care păstrează avantajele sale, menținând în același timp un nivel adecvat de siguranță”, se arată în documentul Meta.