„At Meta we believe in putting the power of super intelligence in people’s hands”La Meta credem în a pune puterea superinteligenței în mâinile oamenilor.Mark Zuckerberg |
Revin pe acest subiect[1] pentru că se pare că devine din important, foarte important!! De ce zic asta? Ei bine, la finalul lunii iulie 2025, Mark Zuckerberg a publicat o declarație la nivel de companie, intitulată „Personal Superintelligence” [1], care începe cu o afirmație foarte interesantă: „Over the last few months we have begun to see glimpses of our AI systems improving themselves[2]” și care reorientează ambiția AI a Meta în jurul „superinteligenței personale” (Personal Superintelligence – PSI): asistenți extrem de capabili, încorporați în dispozitivele cotidiene, pe care utilizatorii îi direcționează către propriile lor obiective și valori. Inițiativa coincide cu o reorganizare amplă în Meta Superintelligence Labs (MSL) alături de o achiziție parțială a companiei Scale AI și schimbări vizibile în modul în care Meta echilibrează conceptul de open-source cu siguranța.
Prezentul articol reconstruiește ce este cu adevărat nou, ce rămâne aspirațional, care sunt compromisurile dificile și cum poate fi evaluată PSI în raport cu strategiile concurente din industrie ce pun accent pe automatizarea la scară mare. Unde este posibil, voi ancora afirmațiile făcute în surse primare și relatări recente.

Mark Zuckerberg, CEO-ul Meta, vorbind despre direcția nouă a companiei pe care o conduce.
Sursa: https://www.facebook.com/watch/?v=1263305541425221
Ce (își) propune Meta dincolo de slogan. Scrisoarea lui Zuckerberg formulează trei teze: (i) „superinteligența personală” ar trebui să fie nordul strategic (și nu centralizarea AI pe automatizarea „întregului efort”), (ii) PSI va exista pe dispozitivele noastre smart fiind totodată ancorată în context, mai ales ochelarii smart – evident (revin asupra subiectului), și (iii) Meta va continua să susțină modelele open-source, dar există posibilitatea ca, pe măsură ce riscurile cresc, să nu le deschidă totuși publicului pe cele mai puternice dintre acestea [2]. Ceea ce formulează CEO-ul Meta nu pare a fi doar branding ci mai degrabă este ceea ce tocmai a devenit strategia oficială a companiei.
Meta și‑a consolidat eforturile din zona tehnologiilor de vârf sub Meta Superintelligence Labs (MSL). Mai multe relatări în presă indică faptul că MSL este condus operațional de Alexandr Wang (venit de la Scale AI) [3], iar Shengjia Zhao a fost numit Chief Scientist [4], în timp ce Facebook AI Research (FAIR) – grupul lui Yann LeCun, continuă cercetarea pe un orizont mai lung [5, 6]. Nu sunt doar mișcări minore de HR, ele repoziționează drepturile de decizie asupra direcției modelelor, angajărilor și întregii infrastructuri Meta.
Banii și „mușchii” (sau dacă vreți: centrele de date și talentele) Scale AI – s-au mutat la Meta. În iunie 2025, TIME alături de alte publicații au relatat că Meta a preluat o participație de 49% în Scale AI (aproximativ 14,3 miliarde $), cu Wang alăturându‑se pentru a conduce MSL ceea ce a reprezentat o tranzacție neobișnuită care a dat peste cap lanțul de aprovizionare cu date pentru AI și i‑a determinat pe rivali să‑și reevalueze furnizorii [3]. Conform TIME, OpenAI și Google și-au restrâns colaborarea cu Scale AI ca urmare a acestei achiziții. Chiar și susținătorii au numit mutarea „stranie”, dar strategic ea înseamnă schimbarea leadership-ului punând mai departe accent pe operațiunile de date.
Concomitent, Meta și‑a extins capacitatea hardware grație centrului operațional din Kansas care a devenit de curând operațional. În plus, compania afirmă că centrele de date optimizate pentru AI vor începe să devină funcționale în 2026 și că a contractat peste 15 GWh de energie[3] (produsă din surse regenerabile) în șase țări [7] – aceste valori au menirea de a semnala scala la care se fac aceste operațiuni din zona tehnologiilor de vârf.
Presa citită vorbește despre recrutări agresive făcute de MSL, unele articole vorbind chiar despre „oferte explozive” și chiar poaching[4] de la OpenAI și Apple [8, 9, 10]. Deși poate fi și mult zgomot – ajută la publicitate, tiparul totuși e clar: Meta plătește pentru viteză.
Open-source vs. siguranță: poziția în evoluție a Meta. Zuckerberg este foarte clar: “We’ll need to be rigorous about mitigating risks and careful about what we choose to open source[5]” [2]. Asta pare a fi o întoarcere de la poziția anterioară a Meta către un portofoliu mixt (familia de modele generative Llama era în mod emblematic open-source). Rațiunea declarată este siguranța; efectul practic putând fi poziționare strategică și control al monetizării. Cu toate astea, articolele din Newsroom-ul Meta [11] (încă) evidențiază impactul economic al modelelor deschise [12] ceea ce denotă o tensiune între liderii companiei (n-aș zice că ar fi scăpări ale PR-ului).

Se poate vedea încrederea asociată conceptului open-source într-un articol (încă) disponibil pe pagina Meta [12]; furnizat aici cu titlu de exemplu, ele fiind mult mai multe
Dacă modelele deschise catalizează ecosisteme de dezvoltare (cum a susținut Meta mult timp), recalibrarea abordării la nivelul top-managementului companiei riscă să închidă exact experimentarea de la firul ierbii de care are nevoie PSI. Într-adevăr însă, accesul nerestricționat la modele atât de puternice, implică riscuri de folosire nu tocmai etică. Afirmația „careful about what we choose to open source” este însă mai degrabă un principiu și nu o procedură.
De ce contează ochelarii?! Meta descrie PSI ca fiind embodied – dispozitive care „văd ce vedem și aud ce auzim”. Nu e o doar ipoteză, Ray‑Ban Meta a depășit două milioane de perechi vândute [13], iar Meta a prezentat deja prototipuri noi. Pariul Meta este că ochelarii vor deveni interfața principală pentru PSI bogată în context și nu doar un add‑on de telefon.
În urmă cu doar câteva zile, Meta a anunțat Ray Ban Display – prima generație de ochelari Meta cu ecran integrat, concepuți explicit ca interfață „eyes up” pentru PSI. Spre deosebire de modelele anterioare (fără display), noul model adaugă un ecran color, cu rezoluție 600×600 pixeli, plasat discret în lentila dreaptă, cu FOV[6] aproximativ 20° și sub 2% light leakage (imaginea rămâne practic invizibilă pentru cei din jur) [14]. În plus, controlul nu mai depinde de comenzi vocale, ci pot fi controlați cu o brățară sEMG (electromiografie de suprafață) care traduce mișcări fine ale degetelor în comenzi (scroll, pinch, și chiar posibilitatea de a tasta – utilizatorii putând deci „scrie” mesaje) [15, 16].
Iată cum funcțiile „cu miză PSI” sunt de acum și vizuale (nu doar audio): mesaje și apeluri video (WhatsApp/Messenger/Instagram), viewfinder cu zoom pentru fotografii video direct în ochelari, navigație pietonală cu hartă în lentilă, live captions și traducere în timp real cu afișaj în lentilă.
Competiția însă nu doarme; Google a reintrat în arenă cu Project Astra [17] și Android XR [18], iar Sergey Brin (cofondator Google) s‑a arătat public optimist în privința unei a doua încercări de smart‑glasses, sugerând intrarea în cursa pentru a deține interfața AI „eyes‑up”.
Întrebarea mea aici ar fi: oare chiar își dorește toată lumea o cameră la purtător omniprezentă (lăsăm deocamdată mini-ecranul din lentilă, aici s-ar putea să fie mai ușor de răspuns)? Și dacă da, pentru că asta vine cu efecte evident, am fi de acord ca toți cei din jur să aibă la fel și să se bucure de aceleași capabilități?!
Barierele de adopție ar putea fi sociale, nu tehnice, dacă PSI rulează pe ochelari, intimitate persoanelor din jur devine o problema de guvernanță inevitabilă. UE a presat Meta pentru a ajusta designul ochelarilor și pentru a-și îmbunătăți politicile privitoare la clipurile ridicate pe Ray‑Ban Stories; relatări recente arată că problema nu a dispărut (inclusiv cea legată de faptul că utilizatorii pot ascunde LED‑urile care indică recording in progress). Orice dezvoltare sănătoasă a PSI trebuie să includă protecții pentru terți. Standardele minime ar trebui să acopere (i) semnale vizibile a înregistrării care nu pot fi dezactivate trivial, (ii) procesare locală implicită (în special pentru chipurile celor care, incidental, au intrat în fața camerei ochelarilor, cu editare on‑device și (iii) limite auditate de retenție a datelor. PSI nu trebuie scalată doar pe baza afirmațiilor de natura „aveți încredere în noi” a giganților tech.
Scrisoarea Meta și comentariile făcute pe platformă de userii care au vizionat mesajul lui Zuckerberg, pun reflectorul pe modele auto‑îmbunătățibile (iată un verb interesant) – sisteme care își generează propriile metode de antrenare, își verifică rezultatele și se rafinează iterativ. Literatura de specialitate recentă (2024–2025) este foarte bogată pe acest subiect: Self‑Rewarding LMs „sharpening”[7] ghidat de operatori umani oferind cadre de lucru în care LLM‑urile inventează sau selectează algoritmi care le îmbunătățesc antrenarea. Sunt tehnici reale, cu beneficii măsurabile în domenii precum matematică, programare și raționare – fără a se fi ajuns însă (deocamdată) la rescrieri autonome ale propriului cod de bază [19, 20, 21].
Cele mai credibile articole despre „auto‑îmbunătățire” (citate mai sus) folosesc aceste modele pe post de critici/judecători sau ca generatoare de date sub protocoale concepute de oameni; de regulă invocând importanța unor guardrails atent elaborate și (foarte) multă putere de calcul. Ele nu propun (și nici nu presupun) dezvoltări „scăpate de sub control”, fără supraveghere umană. Concluziile susțin auto‑antrenarea utilă și, nu „FOOM[8]”.
O parte din recalibrarea Meta reflectă realitatea competitivă a mediului, și am în vedere acum modelele open-source chinezești (notabile aici ar fi DeepSeek (V3.1) [22] și variantele Qwen2.5 de la Alibaba [23]), care s-au dezvoltat rapid, deseori publicând weights foarte strong în format open-source și micșorând decalajul față de modelele din Sillicon Valley la raționament și multimodalitate [24]. Această dinamică face ca „deschiderea” să fie atât motor de creștere, cât și, paradoxal, risc strategic dacă rivalii din China au potențialul de a egala, sau mai mult de a depăși cu licențe permisive, epicentrul dezvoltării AI [25].
***
Poate că în loc să construim PSI atoateștiutoare, ar fi mai util ca eforturile să fie canalizate către anumite domenii: PSI civice, limitate pe sarcini (educație, sănătate, servicii municipale) cu supraveghere publică și „data trusts” locale. O astfel de dezvoltare ar oferi, poate, mai multă legitimitate onorând în același timp si principiul subsidiarității, testând tehnologia acolo unde ea servește scopuri publice mai degrabă decât exclusiv private.
Pentru articol în format academic și podcast, aici: https://scrd.eu/index.php/aiot/article/view/724
References (26)
[1] | M. Zuckerberg, „Personal Superintelligence,” Meta, 30 07 2025. [Interactiv]. Available: https://www.meta.com/superintelligence/. [Accesat 12 09 2025]. |
[2] | TechCrunch, „Zuckerberg signals Meta won’t open source all of its ‘superintelligence’ AI models,” 30 07 2025. [Interactiv]. Available: https://techcrunch.com/2025/07/30/zuckerberg-says-meta-likely-wont-open-source-all-of-its-superintelligence-ai-models/. [Accesat 12 09 2025]. |
[3] | TIME, „How Meta’s $14 Billion Scale AI Investment Upended the AI Data Industry,” 16 06 2025. [Interactiv]. Available: https://time.com/7294699/meta-scale-ai-data-industry/. [Accesat 12 09 2025]. |
[4] | TechCrunch, „Meta names Shengjia Zhao as chief scientist of AI superintelligence unit,” 25 07 2025. [Interactiv]. Available: https://techcrunch.com/2025/07/25/meta-names-shengjia-zhao-as-chief-scientist-of-ai-superintelligence-unit/. [Accesat 12 09 2025]. |
[5] | Medium, „Shocking! Yann LeCun Announces FAIR Has Basically Abandoned LLM and Fully Invested in Next-Gen AI System R&D,” 13 07 2025. [Interactiv]. Available: https://medium.com/@breezen100/shocking-e37f3189d90a. [Accesat 12 09 2025]. |
Lista completă a referințelor poate fi regăsită în formatul academic al articolului: https://scrd.eu/index.php/aiot/article/view/724
[1] Cititorii își amintesc articolul intitulat „Superinteligența – una dintre cele mai mari provocări tehnice ale momentului” [26]; cei care l-au ratat dintr-un motiv oarecare îl pot citi aici: https://digitalio.ro/2025/01/29/superinteligenta-una-dintre-cele-mai-mari-provocari-tehnice-ale-momentului/
[2] În ultimele luni am început să vedem mici semne de auto-îmbunătățire a sistemelor noastre de inteligență artificială.
[3] Pentru a oferi puțin context merită spus că în România consumul mediu lunar de energie pe gospodărie este de aproximativ 300kWh pe lună – las cititorul să facă mai departe calculele.
[4] Braconaj – aici cu sensul de folosire a unor metode lipsite de etică de către Meta pentru a contracta elite din lumea AI.
[5] Trebuie să fim riguroși în ceea ce privește atenuarea riscurilor și atenți la ceea ce alegem să oferim în regim open-source.
[6] Field of Vew = câmpul vizual al unui dispozitiv; practic unghiul (în grade) în care se poate vedea conținutul.
[7] Self‑Rewarding LMs – este numele unui algoritm de lucru care are proprietatea de a se auto-premia (sau penaliza) în execuția sarcinilor pe care (Atenție!!) și le dă. Sharpening ar însemna ascuțire, dar aici are rolul de îmbunătățire foarte precisă și cu un scop foarte clar.
[8] FOOM (în jargonul siguranței AI) ar însemna „explozie bruscă de capabilitate” prin auto-îmbunătățire recursivă: un sistem AI devine suficient de bun încât își optimizează proprii algoritmi/agenți, ceea ce îl face și mai bun, și tot așa până la o creștere abruptă, neliniară, într-un timp foarte scurt (ore, zile sau cel mult săptămâni, nu ani).