Jared Kaplan, șef al departamentului științific și co-fondator al Anthropic, a avertizat în această săptămână că umanitatea trebuie să ia „cea mai importantă decizie” până în 2027-2030 cu privire la permiterea sistemelor de inteligență artificială să se auto-îmbunătățească recursiv și să își proiecteze propriii succesori, numindu-l „riscul suprem” într-un interviu acordat ziarului The Guardian.
Avertismentul vine pe măsură ce cursa către inteligența artificială generală—sisteme AI care pot egala sau depăși capacitățile umane într-o gamă largă de sarcini—se intensifică printre companiile de frunte, inclusiv Anthropic, OpenAI, Google DeepMind și Meta. Kaplan a subliniat că, deși eforturile actuale de aliniere a AI au reușit să mențină sistemele aliniate cu valorile umane, situația se schimbă fundamental odată ce AI devine capabilă să creeze în mod autonom versiuni mai avansate ale sa însăși.
Kaplan a prezis că sistemele AI vor gestiona „cea mai mare parte a muncii de birou” în decurs de doi până la trei ani, indicând către fiul său de șase ani ca exemplu al cât de rapid avansează tehnologia. „Fiul meu de șase ani nu va fi niciodată mai bun decât o AI la munca academică, cum ar fi scrierea unui eseu sau susținerea unui examen de matematică”, a declarat Kaplan pentru The Guardian.
Date recente de la Anthropic susțin aceste afirmații. Compania a raportat în noiembrie că propriii săi ingineri folosesc sistemul AI Claude pentru aproximativ 60 la sută din munca lor, obținând câștiguri de productivitate auto-raportate de 50 la sută. Cel mai recent model al Anthropic, Claude Opus 4.5, lansat în noiembrie, a obținut un scor mai mare decât oricare candidat uman la examenul intern de inginerie al companiei când a fost susținut într-o limită de timp de două ore.
Riscurile Inteligenței Artificiale Avansate
Kaplan a subliniat două pericole majore cu care se confruntă umanitatea pe măsură ce sistemele AI devin din ce în ce mai capabile. Primul se referă la pierderea controlului și a capacității de acțiune umane. „Dacă vă imaginați că creați acest proces în care aveți o AI care este mai inteligentă decât voi, sau aproximativ la fel de inteligentă ca voi, aceasta [apoi] creează o AI care este mult mai inteligentă”, a explicat el pentru The Guardian. „Sună ca un fel de proces înfricoșător. Nu știi unde ajungi”.
Al doilea risc implică utilizarea abuzivă de către actori rău intenționați. „Vă puteți imagina o persoană care decide: ‘Vreau ca această AI să fie doar sclavul meu. Vreau să-mi îndeplinească voința.’ Prevenirea loviturilor de putere, prevenirea utilizării abuzive a tehnologiei, este de asemenea foarte importantă”, a spus Kaplan.
Jack Clark, un alt cofondator Anthropic, a exprimat preocupări similare în octombrie, descriind AI-ul ca fiind „o creatură reală și misterioasă, nu o mașină simplă și previzibilă”. În ciuda avertismentelor, Kaplan rămâne precaut optimist că dezvoltarea responsabilă și coordonarea globală ar putea asigura ca AI-ul să aducă beneficii umanității, deși a subliniat că termenul pentru acțiune este scurt

