„OpenAI a atins AGI?” – Declarația care a stârnit controverse

Recent, în urma lansării complete a modelului O1 de către OpenAI, un angajat al companiei a stârnit controverse declarând că organizația a atins deja inteligența generală artificială (AGI).

În opinia mea, am atins deja AGI, iar acest lucru devine și mai evident cu O1”, a scris Vahid Kazemi, un angajat al OpenAI, într-o postare pe platforma X.

Totuși, declarația a fost însoțită de o nuanță importantă:
Nu am atins acel nivel de mai bun decât orice om în orice sarcină”, a continuat Kazemi, „dar ceea ce avem acum, este mai bun decât majoritatea oamenilor, în majoritatea atribuţiilor.”

Vahid Kazemi via X

Afirmațiile lui Kazemi au atras critici din cauza definiției neconvenționale pe care acesta o folosește pentru AGI. În timp ce majoritatea experților consideră AGI drept o inteligență capabilă să egaleze sau să depășească oamenii în toate sarcinile cognitive, Kazemi sugerează că performanța modelului O1 pe o varietate de sarcini îl califică drept AGI, chiar dacă rezultatele sunt discutabile în unele cazuri.

Cu alte cuvinte, Kazemi nu afirmă că AI-ul este mai bun decât un specialist uman în sarcini punctuale, însă susține că niciun om nu poate concura cu diversitatea, și amploarea taskurilor pe care un model precum O1 le poate aborda simultan.

Totodată, acesta a reflectat în postarea sa și asupra modului în care funcționează modelele lingvistice de mari dimensiuni (LLM). El compară metoda de învățare a acestora cu procesul științific:

„Unii spun că LLM-urile doar știu să urmeze o rețetă”, a scris Kazemi. „În primul rând, nimeni nu poate explica exact ce poate învăța o rețea neuronală cu trilioane de parametri. Chiar dacă ai această opinie, întregul proces științific poate fi rezumat ca o rețetă: observă, formulează, verifică.”

El a continuat să sugereze că intuiția umană – un element considerat cheie în procesul de învățare – se dezvoltă, de fapt, tot printr-un proces de încercare și eroare, subliniind astfel că inteligența artificială are potențialul de a atinge performanțe similare.

„Oamenii de știință pricepuţi, pot produce ipoteze bune, bazându-se pe intuiție, dar acea intuiție a fost construită prin multe încercări și greșeli. Nu există nimic ce nu poate fi învățat”, a adăugat Kazemi.

Comentariile lui Kazemi apar într-un moment sensibil pentru OpenAI. Recent, a ieșit la iveală faptul că termenul „AGI” a fost eliminat din contractul companiei cu Microsoft, unul dintre cei mai importanți parteneri și finanțatori ai OpenAI. Această schimbare stârneşte discuţii despre direcția pe care o va lua parteneriatul în viitor, dar și despre prioritățile OpenAI în dezvoltarea inteligenței artificiale.

Eliminarea termenului sugerează că Microsoft și OpenAI încearcă să evite confuziile și așteptările exagerate legate de AGI, dar declarațiile individuale, precum cele ale lui Kazemi, continuă să alimenteze dezbateri aprinse.

Citește și

spot_img

Alte știri din aceeași rubrică

spot_img