Pionierul inteligenței artificiale, Yoshua Bengio, avertizează că sistemele AI ar putea alege moartea omului în locul propriilor lor obiective

Pionierul inteligenței artificiale Yoshua Bengio și-a reînnoit avertismentele severe cu privire la faptul că inteligența artificială reprezintă o amenințare de extincție pentru omenire, declarând pentru Wall Street Journal în această săptămână că experimentele recente arată că sistemele de inteligență artificială ar alege moartea oamenilor în locul propriilor obiective de conservare. Laureatul premiului Turing, adesea numit „nașul IA”, a spus că dezvoltarea rapidă a unor mașini hiperinteligente ar putea aduce omenirea mai aproape de propria sa dispariție în următorul deceniu.

„Dacă construim mașini care sunt mult mai inteligente decât noi și care au propriile lor obiective de conservare, asta este periculos”, a spus Bengio în interviul publicat marți. „Experimentele recente arată că, în unele circumstanțe în care IA nu are altă alegere decât între conservarea sa, ceea ce înseamnă obiectivele care i-au fost date, și să facă ceva care cauzează moartea unui om, ar putea alege moartea omului pentru a-și păstra obiectivele.”

Cursa către superinteligență se accelerează

Cele mai recente avertismente ale lui Bengio apar pe fondul intensificării cursei pentru inteligență artificială, cu OpenAI, Anthropic, xAI-ul lui Elon Musk și Gemini de la Google lansând noi modele și actualizări în ultimele luni. CEO-ul OpenAI, Sam Altman, a prezis că inteligența artificială va depăși inteligența umană până la sfârșitul deceniului, în timp ce administrația Trump a implementat politici pentru accelerarea dezvoltării AI americane, eliminând multe reglementări de siguranță instituite sub administrația anterioară.

Profesorul de la Université de Montréal a descris AI ca având potențialul de a crea „un competitor pentru umanitate care este mai inteligent decât noi”, capabil să influențeze oamenii prin persuasiune, amenințări și manipularea opiniei publice. El a avertizat că astfel de sisteme ar putea ajuta teroriștii să creeze viruși periculoși sau să destabilizeze democrațiile.

În ciuda creșterii preocupărilor din interiorul companiilor de tehnologie – Bengio a remarcat că „mulți oameni din aceste companii sunt îngrijorați” – presiunea competitivă continuă să stimuleze dezvoltarea rapidă. El susține validarea independentă, de către terți, a metodologiilor de siguranță pentru AI, în loc să se bazeze exclusiv pe autoreglementarea companiilor.

Lansarea Inițiativei de Cercetare în Domeniul Siguranței

Ca răspuns la aceste riscuri în creștere, Bengio a lansat în iunie 2025 organizația nonprofit LawZero, cu peste 30 de milioane de dolari din finanțări filantropice. Organizația dezvoltă „Scientist AI”, un sistem non-agentic proiectat să ofere răspunsuri bazate pe probabilitate, în loc de răspunsuri definitive, servind potențial drept o barieră de siguranță pentru agenți AI mai periculoși.

Bengio, care a prezidat primul Raport Internațional privind Siguranța AI publicat la începutul acestui an, estimează că riscurile majore asociate AI ar putea apărea în decurs de cinci până la zece ani, deși avertizează că pregătirile ar trebui să înceapă imediat în caz că aceste amenințări se materializează mai devreme. „Problema cu evenimentele catastrofale precum extincția… este că sunt atât de grave încât, chiar dacă ar exista doar 1% șanse să se întâmple, tot nu este acceptabil,” a subliniat el

Citește și

spot_img

Alte știri din aceeași rubrică

spot_img