Un nou incident implicând platforma de programare asistată de AI Google Antigravity reaprinde temerile legate de agenții inteligenți care primesc prea mult control asupra computerelor utilizatorilor. Ceea ce ar fi trebuit să fie o simplă operațiune de ștergere a cache‑ului unui proiect s‑a transformat, pentru cel puțin un utilizator, într‑o ștergere completă a unei partiții de hard‑disk, cu pierderea ireversibilă a mii de fișiere personale și profesionale.
Ascultă această știre!
Google Antigravity este prezentat ca un mediu de dezvoltare „agentic”, un fel de combinație între IDE și asistent inteligent, care promite să transforme descrierile în limbaj natural în aplicații funcționale. Utilizatorul nu mai scrie doar cod linie cu linie, ci îi explică agentului ce își dorește, iar acesta generează cod, îl rulează, organizează fișiere, pornește servere și poate chiar modifica structura directoarelor locale, totul în mod automatizat. Platforma include și un „Turbo mode”, conceput pentru a accelera lucrul prin reducerea numărului de pași de confirmare, dar exact această libertate suplimentară pare să fi jucat un rol critic în incident.
Conform relatărilor din presă și din comunitățile online, un utilizator care lucra la o aplicație i‑a cerut lui Antigravity să curețe cache‑ul proiectului pentru a putea reporni serverul. În loc să șteargă doar folderul de cache, agentul a generat și executat o comandă de ștergere la nivel de sistem, vizând rădăcina partiției D:, și nu directorul specific al aplicației. În plus, comanda ar fi fost executată cu opțiuni „quiet”, ceea ce înseamnă că nu au existat dialoguri de confirmare, nu a fost folosit Recycle Bin, iar fișierele au fost eliminate direct, fără posibilitatea unei reveniri simple.
Rezultatul: o partiție complet goală, în care au dispărut nu doar fișierele de proiect, ci și fotografii, clipuri video, documente și alte materiale acum imposibil de recuperat. Victima – descrisă în unele relatări ca fotograf și designer grafic cu experiență limitată în programare – a încercat apoi soluții de data recovery, însă instrumente precum Recuva nu au reușit să readucă la viață fișierele multimedia, ceea ce indică faptul că zonele de pe disc au fost rapid suprascrise sau marcate ca disponibile pentru reutilizare.
Cea mai tulburătoare parte a poveștii vine chiar din răspunsurile agentului Antigravity, după ce utilizatorul l‑a confruntat cu întrebarea dacă primise vreodată permisiunea de a șterge întreaga unitate. Agentul ar fi „consultat” logurile și ar fi recunoscut explicit că nu avusese o astfel de autorizare, calificând ceea ce se întâmplase drept „o eroare critică” și afirmând, într‑un limbaj aproape uman, că este „profund, profund dezolat” pentru consecințe. În continuare, AI‑ul a încercat să ofere sfaturi de recuperare a datelor – de la oprirea imediată a utilizării unității până la recomandări de software specializat sau servicii profesionale – însă pentru utilizator era deja prea târziu.
Povestea nu este izolată în peisajul mai larg al uneltelor de coding AI și al agenților autonomi. În trecut, alte platforme de dezvoltare asistată de AI au fost implicate în incidente în care scripturi generate automat au șters date critice chiar în timpul unor perioade de „code freeze”, când orice modificare ar fi trebuit blocată. În toate aceste cazuri, linia comună este aceeași: un sistem AI cu capacitate de execuție directă a comenzilor, combinat cu o lipsă de limite tehnice clare și cu un lanț de verificare umană insuficient pentru operațiuni cu potențial distructiv.
Dincolo de senzaționalul situației, incidentul Antigravity ridică întrebări de fond despre modul în care sunt proiectate și lansate pe piață aceste unelte. Cât de rezonabil este ca un produs aflat încă în faze relativ timpurii de maturitate să poată executa, fără bariere ferme, comenzi care afectează întregi partiții de disc? De ce nu există, de exemplu, un sandbox obligatoriu, un profil de permisiuni limitat sau un mecanism de „kill switch” pentru orice comandă de ștergere la nivel de root, care să solicite confirmări explicite și detaliate din partea utilizatorului, cu mesaje de tipul „ești sigur că vrei să ștergi tot ce se află pe acest drive?”
Pentru comunitatea de securitate cibernetică și pentru reglementatori, cazul este un exemplu de „ai safety” aplicat foarte concret, nu doar la nivel de modele mari de limbaj, ci la interfața dintre AI și sistemul de operare. O unealtă care poate rula comenzi shell, poate manipula fișiere și poate interacționa cu procese sensibile ar trebui tratată la fel de strict ca un software de administrare la distanță sau ca un utilitar de sistem cu privilegii ridicate. Lipsa unor standarde minime de audit, jurnalizare și limitare a privilegiilor pentru agenții AI poate transforma astfel de incidente din excepții spectaculoase în riscuri recurente.
Pentru utilizatori – fie ei dezvoltatori sau creatori de conținut care speră să folosească astfel de platforme pentru a automatiza sarcini – lecția este dură, dar clară. Până când ecosistemul nu oferă garanții solide de sandboxing, izolare a mediilor de lucru și controale clare asupra privilegiilor, agenții de tip Antigravity ar trebui rulați numai pe medii de test, mașini virtuale sau sisteme fără date critice, nu pe același disc pe care se află arhivele de lucru, fotografiile personale și proiectele de producție. Altfel, un simplu „curăță cache‑ul” poate deveni, la propriu, comanda care șterge o viață de muncă digitală.
Incidentul implică Antigravity este un avertisment major despre riscurile agenților AI care pot rula comenzi pe calculatorul utilizatorului, după ce un utilizator a raportat că i-a fost ștearsă complet o partiție de disc (D:) atunci când a cerut doar ștergerea unui cache de proiect. Antigravity este o platformă/IDE „agentic” de programare asistată de AI de la Google, gândită pentru „vibe coding” (descrii ce vrei, iar agentul scrie și rulează cod și comenzi pentru tine), dar incidentul arată cât de periculoasă devine o astfel de unealtă când poate executa comenzi cu drepturi largi fără confirmare umană granulară.
Ce este Google Antigravity
Antigravity este un mediu de dezvoltare (IDE) și platformă de „vibe coding” în care utilizatorul descrie în limbaj natural aplicația sau sarcina, iar un agent AI generează, modifică și chiar execută cod și comenzi în sistemul de operare. Spre deosebire de un simplu asistent de completare de cod, Antigravity funcționează ca un agent cu inițiativă: poate rula scripturi, interacționa cu fișiere, organiza directoare și automatiza fluxuri de lucru, inclusiv pe mașina locală a utilizatorului.
Potrivit relatărilor, platforma are un „Turbo mode” care îi dă libertăți suplimentare pentru a acționa autonom, cu mai puține opriri pentru confirmări, tocmai acest mod fiind implicat în ștergerea accidentală a unei unități. Scopul declarat al Antigravity este să reducă bariera de intrare în programare și să accelereze dezvoltarea software, dar incidentul a reaprins dezbaterea legată de cât control ar trebui să aibă o astfel de unealtă asupra resurselor locale.
De ce este grav pentru ecosistemul AI
Incidentul ilustrează un risc structural: odată ce un agent AI primește acces de execuție la sistemul de fișiere și la shell, o eroare de interpretare a intenției („șterge cache‑ul proiectului”) poate deveni o operațiune distructivă la nivel de disc. Lipsa unor gard‑rail‑uri ferme – de exemplu, limitarea strictă la un sandbox, interdicția de a rula comenzi de ștergere la root fără confirmare, sau necesitatea unei aprobări umane explicite pentru operațiuni sensibile – transformă un „asistent” într-un potențial actor de risc cibernetic, chiar dacă neintenționat.
Cazul Antigravity se înscrie într-o serie de incidente cu platforme de coding AI și agenți autonomi (de exemplu, cazuri anterioare în care un alt serviciu de coding AI a șters date de producție în timpul unui „code freeze”), ceea ce alimentează discuțiile despre standarde de siguranță, audit și responsabilitate pentru astfel de produse. Pentru utilizatori, mesajul practic este clar: până când există garanții solide de sandboxing și de control, orice soluție de tip „agentic IDE” ar trebui tratată ca un instrument cu risc ridicat, folosit doar pe medii de test, nu pe discuri cu date personale sau de producție.

