Jumătate dintre angajați folosesc instrumente AI neautorizate pentru a-și atinge obiectivele la muncă

Un studiu realizat în octombrie 2024 de Software AG sugerează că jumătate dintre angajați folosesc Shadow AI (inteligență artificială neautorizată) și că majoritatea nu ar renunța la aceasta nici dacă ar fi interzisă.

Problema constă în accesul facil la instrumentele de inteligență artificială și într-un mediu de lucru care încurajează tot mai mult utilizarea AI pentru creșterea eficienței corporative. Nu este de mirare că angajații caută propriile lor instrumente AI pentru a-și îmbunătăți eficiența personală și pentru a-și maximiza șansele de promovare.

„Este un proces lipsit de fricțiuni. Utilizarea AI la locul de muncă a devenit aproape a doua natură pentru mulți muncitori. Fie că este vorba despre rezumarea notițelor din ședințe, redactarea de emailuri către clienți, explorarea codingului sau crearea de conținut, angajații se mișcă rapid,” spune Michael Marriott, vicepreședinte de marketing la Harmonic Security.

Dacă instrumentele oficiale nu sunt ușor accesibile sau par prea restrictive, aceștia vor folosi orice este disponibil.

De asemenea, aproape niciodată nu există o intenție malițioasă; este pur și simplu dorința de a face lucrurile mai bine și mai eficient.

Dacă acest lucru implică utilizarea unor instrumente AI neautorizate, angajații probabil nu își vor divulga acțiunile. Motivele sunt complexe și includ atât reticența de a recunoaște că eficiența lor este susținută de AI și nu este complet naturală, cât și conștientizarea că utilizarea AI personale ar putea fi descurajată.

În consecință, organizațiile adesea nu știu cât de extins este fenomenul Shadow IT și nici nu sunt conștinete de riscurile asociate.

Harmonic a analizat 176.460 de solicitări AI provenite de la un eșantion de 8.000 de utilizatori finali din baza sa de clienți, colectate în primul trimestru din 2024.

Datele au fost colectate prin extensia de browser Harmonic Protection instalată de clienții săi. Analiza nu indică amploarea completă a utilizării Shadow AI, deoarece nu include utilizarea AI generative prin aplicații mobile native sau integrare API în afara browserului, însă oferă o perspectivă asupra modului în care angajații pot folosi Shadow AI.

ChatGPT este modelul de AI generativ cel mai utilizat de angajați

Patruzeci și cinci la sută dintre solicitări sunt făcute prin conturi personale (cum ar fi Gmail).

„Evident, comoditatea subminează guvernanța corporativă și securitatea,” potrivit studiului.

Fișierele de imagine domină tipurile de fișiere încărcate în ChatGPT, reprezentând 68,3% din total.

Totuși, scopul principal al analizei nu este să arate ce instrumente Shadow AI sunt utilizate, ci ce riscuri apar în urma utilizării acestora.

De exemplu, prezența în creștere a noilor modele AI chinezești devine vizibilă, în special DeepSeek, dar și Baidu Chat, Qwen și altele. Șapte la sută dintre angajați utilizează deja aceste modele chinezești.

Per ansamblu, s-a observat o ușoară scădere a frecvenței solicitărilor sensibile din trimestrul al patrulea din 2024 (de la 8,5% la 6,7% în trimestrul I 2025).

Chiar dacă au scăzut incidentele legate de scurgerea datelor despre clienți, angajați și probleme de securitate, au apărut alte riscuri. În ultima perioadă, s-a observat o creștere semnificativă a expunerii datelor juridice și financiare, dar și a codurilor sensibile.

În plus, din 2025, a început să fie monitorizată și o nouă categorie de informații, datele personale identificabile, care deja reprezintă aproape 15% din total.

Majoritatea acestor date ajung la ChatGPT (79,1%), dintre care 21% pe versiunea gratuită a ChatGPT, unde solicitările pot fi păstrate și utilizate pentru instruirea modelului. Următoarele în popularitate sunt Google Gemini și Perplexity.

Harmonic sugerează că analiza din primul trimestru al acestui an subliniază nevoia ca organizațiile să treacă de la o observație pasivă a fenomenului Shadow AI la un control proactiv și o aplicare inteligentă a regulilor.

Scopul nu trebuie să fie eliminarea inițiativei personale a angajaților în utilizarea AI, ci asigurarea utilizării acesteia într-un mod sigur și securizat. Este imperativă instruirea și îndrumarea țintită privind utilizarea responsabilă a AI.

„Aceasta nu este o problemă marginală. Este una generalizată. Este în creștere. Și se întâmplă în aproape fiecare organizație, indiferent dacă există sau nu o politică formală privind AI”, spune Marriott.

Citește și

spot_img

Alte știri din aceeași rubrică

spot_img