Într-o lume tot mai conectată și dependentă de progresul tehnologic, chiar și cele mai puternice companii pot fi surprinse de schimbări bruște și imprevizibile. NVIDIA, titanul industriei semiconductorilor și un pilon esențial al dezvoltării Inteligenței Artificiale, a trecut recent printr-un moment istoric de criză financiară.
Pe 21 ianuarie 2025, acțiunile companiei atingeau valoarea de 140,83 USD, dar la 27 ianuarie, acestea s-au prăbușit la 118,53 USD (-17%). În doar o singură zi, pe 27 ianuarie, valoarea de piață a NVIDIA s-a diminuat cu aproape 600 de miliarde de dolari, o pierdere care a intrat direct în cărțile de istorie drept cel mai mare declin înregistrat vreodată de o companie pe bursă. Declinul NVIDIA depășește de peste două ori capitalizarea de piață a giganților Coca-Cola și Chevron, întrecând totodată valoarea combinată a companiilor Oracle și Netflix.
Această prăbușire financiară a fost provocată de startupul chinez DeepSeek, care a zguduit piața odată cu lansarea modelului revoluționar de Inteligență Artificială, DeepSeek R1.
Ce a declanșat panica în rândul investitorilor? Faptul că DeepSeek R1 s-a dovedit a fi la fel de performant ca modelele mari dezvoltate de giganții IT, dar și afirmația făcută de DeepSeek, conform căreia acest model a fost antrenat cu un buget de doar 6 milioane de dolari, o sumă greu de verificat dar care e infimă în comparație cu cele peste 100 de milioane de dolari folosite de OpenAI pentru antrenarea modelului din spatele ChatGPT. De asemenea, DeepSeek susține că a folosit plăci grafice NVIDIA H800, semnificativ mai accesibile decât modelul H100, preferat de giganții IT pentru antrenarea propriilor modele. Aceste plăci (H800) au reușit să evite restricțiile stricte impuse de Statele Unite asupra exportului de cipuri de înaltă performanță.
Ce înseamnă acest lucru? Înseamnă că antrenarea unor modele generative de Inteligență Artificială nu mai este un privilegiu rezervat exclusiv giganților IT cu resurse aparent nelimitate. Această activitate începe să devină accesibilă, transformându-se într-un „commodity” – un proces standardizat, disponibil pentru o gamă mai largă de jucători, inclusiv startupuri cu bugete modeste.
Această schimbare ridică o întrebare importantă: dacă antrenarea unor modele competitive nu mai necesită plăci grafice de ultimă generație, extrem de costisitoare, precum NVIDIA H100, și nici bugete astronomice pentru energie, oare cererea pentru GPU-urile high-end ale NVIDIA va mai rămâne la același nivel? Pe măsură ce soluțiile devin mai eficiente și mai accesibile, piața ar putea migra rapid spre alternative mai economice, iar monopolul pe care NVIDIA îl deținea în ecosistemul AI ar putea fi serios contestat.
Totuși, să ne întrebăm: este panica din piață cu adevărat justificată, având în vedere că se bazează pe cifre și informații greu de verificat, venite de la un startup chinez? Hai să analizăm implicațiile pentru nevoia de procesoare grafice performante.
Să presupunem că afirmațiile DeepSeek sunt reale. În acest scenariu, modele de AI generativ ar putea deveni „commodity,” disponibile pentru oricine, chiar și pe mașini cu resurse limitate. Dar acest lucru nu înseamnă sfârșitul cererii pentru plăci grafice performante. Dacă antrenarea modelelor devine mai puțin dependentă de hardware de ultimă generație, atenția se va concentra asupra utilizării lor, adică asupra inferenței. Într-o lume în care AI-ul devine accesibil tuturor, volumul utilizatorilor crește exponențial, iar asta va alimenta în continuare cererea pentru GPU-uri performante, necesare pentru rularea acestor modele la scară largă. Cu alte cuvinte, chiar dacă antrenarea pierde din intensitate, inferența va menține nevoia de procesoare grafice la cote ridicate.
Dar dacă informațiile oferite de DeepSeek nu sunt adevărate, iar costurile de antrenare au fost exagerat reduse pentru a induce panica și a provoca pierderile de piață pe care le observăm acum? Într-un astfel de scenariu, efectele acestei crize vor fi de scurtă durată, iar piața își va reveni în câteva săptămâni. În plus, odată disipată incertitudinea, nevoia de plăci grafice performante ar putea chiar să crească, alimentată de consolidarea încrederii în tehnologia de vârf produsă de NVIDIA și de cererea continuă din partea industriei AI. Practic, aceste turbulențe ar putea să nu facă altceva decât să reafirme poziția dominantă a companiei în ecosistemul tehnologic global.
Dacă ați ajuns până aici, există șanse mari să doriți să explorați și mai profund acest subiect. Continuând analiza critică a acestui „tsunami” financiar și tehnologic, vă propun să mergem mai departe și să analizăm în detaliu mecanismele din spatele antrenării modelului DeepSeek R1, comparativ cu cele ale altor modele consacrate.
DeepSeek R1 utilizează o tehnică de învățare numit Pure Reinforcement Learning, o tehnică similară cu modul în care un copil învață din greșeli, fără instrucțiuni explicite. Inspirată de abordarea AlphaZero de la DeepMind, această metodă nu se bazează pe date etichetate manual. Modelul explorează, simulează diverse situații și își ajustează comportamentul în funcție de recompensele primite, ceea ce îi permite să se adapteze rapid la sarcini noi și să funcționeze în medii dinamice fără a depinde de date pregătite manual.
În contrast, ChatGPT și Gemini sunt inițial antrenate utilizând date etichetate de oameni (Supervised Learning), unde fiecare întrebare are un răspuns predefinit. Această etapă le ajută să înțeleagă structura limbajului și să ofere răspunsuri precise. După aceasta, modelele sunt rafinate printr-o combinație de învățare supravegheată și prin Reinforcement Learning. În acest proces, răspunsurile sunt evaluate, ajustate pe baza unui sistem de recompensă, și optimizate pentru a fi mai naturale și mai utile. Această metodă le permite să livreze rapid rezultate precise, bine aliniate cu așteptările umane.
Învățarea prin PRL necesită un efort extins pentru a identifica comportamente optime, implicând adesea miliarde de interacțiuni simulate. Acest proces consumă mult mai mult timp și resurse computaționale comparativ cu modelele supravegheate, care folosesc date predefinite. De exemplu, în cazul AlphaZero, antrenarea pentru jocuri complexe precum Go sau șah a durat săptămâni întregi pe supercomputere.
În timpul acestor explorări, PRL utilizează intens hardware-ul, în special placile grafice, pentru a simula și evalua toate posibilitățile. Acest lucru crește semnificativ costurile asociate cu energia și serverele, făcând PRL considerabil mai scumpă decât antrenarea bazată pe date supravegheate. În plus, dezvoltarea unui sistem PRL eficient necesită o proiectare meticuloasă a funcției de recompensă și optimizări pentru a evita probleme precum explorarea insuficientă sau blocarea în soluții suboptime, ceea ce adaugă complexitate și costuri inițiale ridicate.
Suntem cu adevărat pregătiți pentru o lume în care Inteligența Artificială devine din ce în ce mai accesibilă? Iar afirmațiile DeepSeek despre costurile reduse și eficiența PRL reflectă o schimbare reală sau sunt doar o strategie de destabilizare a pieței? Indiferent de răspuns, democratizarea AI deschide noi orizonturi. Transformarea AI într-un instrument accesibil tuturor poate facilita inovația și crea oportunități economice semnificative, conturând un viitor în care tehnologia contribuie la binele comun.