Startup-ul american Groq, specializat în semiconductori pentru inteligență artificială, își face oficial intrarea pe piața europeană prin deschiderea primului său centru de date din regiune, la Helsinki, Finlanda. Anunțul a fost făcut astăzi, marcând o etapă importantă în extinderea internațională a companiei.
Tehnologie de inferență, nu de antrenare
Groq, evaluată la 2,8 miliarde de dolari și susținută financiar de brațele de investiții ale gigantilor Samsung și Cisco, au devenit cunoscute pentru cipurile lor specializate în procesarea limbajului, așa-numitele Language Processing Units. Aceste cipuri sunt concepute nu pentru antrenarea modelelor AI, așa cum face Nvidia cu GPU-urile sale dominante, ci pentru inferență, etapa în care modelele deja antrenate interpretează date în timp real pentru a furniza răspunsuri, așa cum se întâmplă în cazul chatbot-urilor sau aplicațiilor vocale.
CEO-ul Groq, Jonathan Ross, a declarat într-un interviu pentru CNBC că LPU-urile companiei au avantajul unei producții mai puțin dependente de componente rare și scumpe, cum ar fi memoria cu lățime mare de bandă (HBM), utilizată în mod obișnuit de cipurile Nvidia. În schimb, Groq mizează pe o rețea de aprovizionare localizată în America de Nord, ceea ce le permite să evite blocajele și să livreze soluții mai rapid pe o piață în care inferența AI este cerută în volume uriașe, dar cu marje mai mici de profit.
„Suntem bine poziționați să preluăm partea cu volum mare și marjă mică din piață, lăsând altora antrenarea modelelor, unde marjele sunt mai mari. Pentru acționarii Nvidia, asta e o veste bună”, a spus Ross.
Helsinki: alegere strategică pentru AI sustenabilă
Noul centru de date din Helsinki este dezvoltat în parteneriat cu Equinix, unul dintre cei mai mari operatori globali de infrastructură digitală. Locația a fost aleasă strategic: țările nordice atrag investiții masive în infrastructura digitală datorită accesului facil la energie regenerabilă, climatului răcoros care reduce costurile de răcire și stabilității politice.
Potrivit lui Ross, decizia de a construi centrul de date în Helsinki a fost luată cu doar patru săptămâni în urmă. „Deja descărcăm rack-urile cu servere. Ne așteptăm să livrăm trafic până la sfârșitul săptămânii. Asta înseamnă viteză de execuție și ne diferențiază clar de restul pieței”, a afirmat CEO-ul.
Decizia Groq vine și în contextul în care tot mai mulți lideri politici europeni promovează conceptul de „AI suverană”, care presupune ca datele și infrastructura digitală să fie localizate în interiorul granițelor Uniunii Europene. Pe lângă considerentele de securitate, apropierea centrelor de date de utilizatori contribuie la îmbunătățirea latenței și vitezei serviciilor AI, un factor-cheie pentru aplicațiile în timp real.
Prin colaborarea cu Equinix, Groq își conectează tehnologia la o rețea deja existentă care integrează furnizori majori de cloud precum Amazon Web Services și Google Cloud. Acest lucru permite clienților europeni să acceseze puterea de procesare pentru inferență AI a Groq într-un mediu flexibil și scalabil, fără a fi nevoiți să migreze complet infrastructura IT.
Pe lângă Nvidia, Groq se confruntă cu o competiție tot mai intensă din partea unor alte startup-uri care vizează inferența AI, printre care SambaNova, Ampere (aflată în proces de achiziție de către SoftBank), Cerebras și Fractile. Toți acești jucători încearcă să valorifice creșterea explozivă a cererii pentru aplicații de inteligență artificială rapide și eficiente energetic.

