Copiii și adolescenții din Europa petrec din ce în ce mai mult timp conectați la rețelele sociale, iar efectele asupra sănătății mintale încep să devină imposibil de ignorat. Autoritățile caută reglementări, companiile de tehnologie lansează propriile măsuri de protecție, dar consensul lipsește. În timp ce statele UE își construiesc politici naționale, rămâne întrebarea esențială: cine este cu adevărat responsabil pentru protejarea celor mai vulnerabili utilizatori ai internetului?
Generația „scroll” și primele semne ale dependenței
Un raport al Organizației Mondiale a Sănătății arată că peste unul din zece adolescenți europeni manifesta în 2022 semne clare de utilizare problematică a rețelelor sociale. Vorbim despre tineri care nu își pot controla timpul online, care resimt anxietate sau chiar simptome de sevraj atunci când nu pot accesa aplicațiile preferate. În medie, adolescenții petrec aproape trei ore pe zi în fața ecranelor, de două ori mai mult decât acum un deceniu.
Specialiștii avertizează că această expunere constantă este legată de scăderea nivelului de bunăstare psihologică, de tulburări de somn și chiar de un consum mai mare de substanțe. Chiar și așa, pentru mulți tineri, rețelele sociale rămân spații de socializare și afirmare personală. „Știu că există riscuri, dar continuu să le folosesc zilnic”, a mărturisit pentru Politico.eu o elevă poloneză, implicată într-un proiect european pe tema siguranței online.
Franța vrea interdicție, alte țări testează restricții
În lipsa unui plan european unitar, statele membre au început să adopte propriile măsuri. Franța discută o interdicție totală pentru accesul la rețele sociale al copiilor sub 15 ani. Alte țări, precum Danemarca, Grecia, Spania, Italia sau Țările de Jos, au preferat o abordare graduală, prin limitări și programe de educație digitală.
Miniștrii sănătății din UE au adoptat deja concluzii comune, recomandând școlilor introducerea de „zone fără ecrane” și politici clare de limitare a timpului online. În paralel, platformele sunt îndemnate să își asume un rol mai activ în protejarea minorilor. „Nu mai putem vorbi doar de conștientizare, e nevoie de reguli clare și de responsabilitate reală din partea companiilor”, avertizează reprezentanți ai organizațiilor de sănătate mintală.
Companiile tech, acuzate că au creat „platforme adictive”
Meta, TikTok sau YouTube au introdus în ultimii ani măsuri precum controlul parental, setări implicite de confidențialitate sau limitări pentru anumite funcții. Însă criticii spun că aceste ajustări sunt mai degrabă cosmetice și nu rezolvă problema de fond: platformele sunt proiectate pentru a menține utilizatorii cât mai mult timp conectați.
Numeroase scandaluri au alimentat aceste suspiciuni. În 2021, documentele interne dezvăluite de o fostă angajată Meta au arătat că rețeaua știa cât de mult dăunează Instagram sănătății mintale a adolescentelor, dar nu a luat măsuri substanțiale. Pentru mulți specialiști, situația seamănă cu strategia industriei tutunului sau a jocurilor de noroc: recunoașterea riscurilor este evitată, iar profitul primează.
Digital Services Act și limitele sale
La nivel european, cel mai important instrument legislativ este Digital Services Act (DSA), care impune platformelor obligația de a proteja utilizatorii minori prin „măsuri proporționale și adecvate”. Totuși, formulările sunt generale, iar Comisia Europeană a fost nevoită să emită ghiduri suplimentare.
Acestea recomandă, printre altele, dezactivarea funcțiilor de tip „streaks” și „read receipts” (care stimulează dependența), oprirea recomandărilor bazate pe istoricul de navigare al copiilor și setarea implicită a unor opțiuni stricte de confidențialitate. Însă ghidurile nu sunt obligatorii, iar eficiența lor depinde de buna-credință a platformelor și de implicarea părinților.
Verificarea vârstei, punctul fierbinte al dezbaterii
Cea mai mare problemă rămâne însă verificarea vârstei. Conform legislației europene, copiii sub 13 ani nu pot consimți la prelucrarea datelor online, iar platformele au în termeni faptul că acceptă doar utilizatori peste această vârstă. În realitate, sistemul se reduce la bifarea unei căsuțe, iar datele arată clar că el nu funcționează: în Danemarca, aproape 94% dintre copii au cont pe rețelele sociale înainte de 13 ani.
În prezent, Meta și TikTok susțin că verificarea vârstei ar trebui făcută la nivel de sistem de operare și magazin de aplicații – adică de Apple și Google. Cei doi giganți americani resping ideea, argumentând că responsabilitatea trebuie împărțită și că fiecare dezvoltator știe cel mai bine ce riscuri implică propria platformă.
Această dispută între companii amână adoptarea unei soluții clare și lasă milioane de copii în aceeași situație vulnerabilă.
Ban sau educație digitală?
Deși unele guverne propun interdicții totale, experții avertizează că astfel de măsuri sunt greu de aplicat și, în multe cazuri, pot fi ușor ocolite de adolescenți. În schimb, se discută tot mai mult despre un mix de soluții: verificări mai stricte ale vârstei, instrumente de control parental, campanii de alfabetizare digitală și reguli clare pentru designul platformelor.
Reprezentanții OMS atrag atenția că o interdicție generalizată ar însemna „un salt în necunoscut”, fără suficiente dovezi că ar funcționa. Totuși, lipsa unei dovezi clare nu ar trebui să fie un pretext pentru inacțiune, susțin miniștrii sănătății din Malta și Cipru, care cer mai mult curaj politic.
În acest moment, Europa se află la o răscruce. Pe de o parte, părinții și medicii cer protecție reală pentru copii, pe de altă parte, companiile de tehnologie amână asumarea unei responsabilități directe. Între ele, adolescenții rămân captivi într-un ecosistem digital care le oferă beneficii sociale, dar și riscuri greu de ignorat.

