OpenAI stabilește un plan pentru a contracara pericolele AI

OpenAI, compania de inteligență artificială din spatele ChatGPT, și-a prezentat planurile pentru a contracara posibilele pericole ale tehnologiei pe care o dezvoltă, cum ar fi să permită actorilor rău-intenționați să învețe cum să construiască arme chimice și biologice, potrivit WSJ.

Echipa de „Pregătire” a OpenAI, condusă de profesorul de inteligență artificială al MIT, Aleksander Madry, va angaja cercetători în inteligență artificială, informaticieni, experți în securitate națională și profesioniști în politici pentru a monitoriza tehnologia, a o testa în mod continuu și a avertiza compania dacă vreuna dintre capabilitățile sale de inteligență artificială devin periculoasă.

Popularitatea ChatGPT și progresul tehnologiei AI generative au declanșat o dezbatere în cadrul comunității tehnologice despre cât de periculoasă ar putea deveni tehnologia.

Liderii proeminenți în domeniul inteligenței artificiale de la OpenAI, Google și Microsoft au avertizat anul acesta că tehnologia ar putea reprezenta un pericol existențial pentru omenire, la fel cu pandemiile sau armele nucleare.

Alți cercetători în inteligență artificială au spus că axarea pe riscuri le permite companiilor să distragă atenția de la efectele dăunătoare pe care tehnologia le are deja.

Un grup din ce în ce mai mare de lideri de afaceri spun că riscurile sunt exagerate și că firmele ar trebui să dezvolte tehnologia pentru a ajuta la îmbunătățirea societății – și să câștige bani făcând asta.

Directorul executiv al OpenAI, Sam Altman, a spus că există riscuri grave pe termen lung inerente tehnologiei, dar că oamenii ar trebui să se concentreze și pe rezolvarea problemelor existente.

Încercarea de a preveni impactul dăunător al inteligenței artificiale nu ar trebui să îngreuneze concurența companiilor mai mici, a spus Altman. În același timp, a împins compania să își comercializeze tehnologia și a strâns bani pentru a finanța o creștere mai rapidă.

Madry, un cercetător veteran în domeniul inteligenței artificiale, care conduce Centrul de învățare automată la MIT și conduce Forumul de politici MIT AI, s-a alăturat OpenAI anul acesta.

El a făcut parte dintr-un grup mic de lideri ai OpenAI care au demisionat când Altman a fost concediat pentru scurt timp în noiembrie și s-a întors când Altman a fost reintegrat cinci zile mai târziu.

OpenAI, care este guvernat de un consiliu nonprofit a cărui misiune este de a promova AI și de a o face utilă pentru toți oamenii, se află în mijlocul selectării de noi membri ai consiliului, după ce trei dintre cei patru membri care l-au concediat pe Altman au demisionat.

Echipa de pregătire angajează experți în securitate națională din afara lumii AI care pot ajuta OpenAI să înțeleagă cum să facă față riscurilor tot mai mari.

Echipa va monitoriza cum și când tehnologia OpenAI poate instrui oamenii să pirateze computere sau să construiască arme chimice, biologice și nucleare periculoase, dincolo de ceea ce oamenii pot găsi online prin cercetări regulate.

Compania va permite, de asemenea, „terților calificați, independenți” din afara OpenAI să îi testeze tehnologia.

Carol Dan

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Cele mai recente știri

spot_img

Abonează-te la cele mai recente știri din IT, Digitalizare, Tehnologii & Crypto

Te-ar putea interesa și...