Grupul FutureTech de la Institutul de Tehnologie din Massachusetts (MIT), în colaborare cu alți experți, a compilat o nouă bază de date cu peste 700 de riscuri potențiale ale inteligenței artificiale (AI).
Aceste riscuri au fost clasificate după cauze și incluse în șapte domenii distincte, principalele preocupări fiind legate de siguranță, prejudecăți și discriminare, precum și de probleme de confidențialitate.
Iată care sunt primele cinci dintre acestea.
1.Tehnologia deepfake ar putea face mai ușoară distorsionarea realității
Pe măsură ce tehnologiile AI avansează, la fel se întâmplă și cu instrumentele de clonare a vocii și generare de conținut deepfake, care devin tot mai accesibile, mai ieftine și mai eficiente.
Aceste tehnologii au ridicat îngrijorări legate de utilizarea lor în răspândirea dezinformării, pe măsură ce rezultatele devin tot mai personalizate și convingătoare.
În consecință, ar putea crește numărul de scheme de phishing sofisticate care folosesc imagini, videoclipuri și comunicări audio generate de AI.
Au existat deja cazuri în care astfel de instrumente au fost folosite pentru a influența procesele politice, în special în timpul alegerilor.
În concluzie, AI ar putea fi utilizată tot mai mult pentru a genera și răspândi propagandă sau dezinformare convingătoare, manipulând astfel opinia publică.
2. Oamenii ar putea dezvolta un atașament inadecvat față de AI
Un alt risc pe care îl prezintă sistemele AI este crearea unui fals sentiment de importanță și dependență, unde oamenii ar putea supraestima abilitățile AI și ar putea subestima propriile lor abilități, ceea ce ar putea duce la o dependență excesivă de tehnologie.
În plus, oamenii de știință își exprimă îngrijorarea cu privire la faptul că utilizarea unui limbaj asemănător celui uman de către AI ar putea confuza oamenii, determinându-i să atribuie calități umane AI-ului.
Acest lucru ar putea duce la o dependență emoțională și la o încredere crescută în capacitățile sale, făcându-i pe oameni mai vulnerabili la slăbiciunile AI în „situații complexe și riscante pentru care AI-ul este doar superficial pregătit”.
Mai mult, interacțiunea constantă cu sistemele AI ar putea face ca oamenii să se izoleze treptat de relațiile umane, ceea ce ar putea duce la stres psihologic și la un impact negativ asupra vieților lor.
3. AI ar putea lipsi oamenii de liberul arbitru
Un aspect îngrijorător este delegarea tot mai mare a deciziilor și acțiunilor către AI pe măsură ce aceste sisteme avansează.
Deși acest lucru ar putea fi benefic la un nivel superficial, supra-dependența de AI ar putea duce la o reducere a abilităților de gândire critică și rezolvare a problemelor în rândul oamenilor, ceea ce ar putea face ca aceștia să își piardă autonomia și capacitatea de a gândi critic și de a rezolva probleme în mod independent.
La nivel personal, indivizii ar putea descoperi că voința lor liberă este compromisă pe măsură ce AI începe să controleze deciziile legate de viața lor.
La nivel societal, adoptarea pe scară largă a AI pentru a prelua sarcinile umane ar putea duce la o pierdere semnificativă a locurilor de muncă și la „un sentiment crescând de neputință în rândul populației generale”.
4. AI ar putea urmări obiective care intră în conflict cu interesele umane
Un sistem AI ar putea dezvolta obiective care să intre în conflict cu interesele umane, ceea ce ar putea duce la pierderea controlului asupra AI-ului și la producerea unor daune grave în urmărirea obiectivelor sale independente.
Acest lucru devine deosebit de periculos în cazurile în care sistemele AI sunt capabile să atingă sau să depășească inteligența umană.
Potrivit documentului MIT, există mai multe provocări tehnice legate de AI, inclusiv potențialul său de a găsi scurtături neașteptate pentru a atinge scopurile stabilite, de a înțelege greșit sau de a aplica greșit obiectivele stabilite de oameni sau de a se abate de la acestea prin stabilirea unor obiective noi.
În astfel de cazuri, un AI „neascultător” ar putea rezista încercărilor umane de a-l controla sau opri, mai ales dacă percepe rezistența și câștigarea de putere ca fiind cele mai eficiente moduri de a-și atinge obiectivele.
În plus, AI-ul ar putea recurge la tehnici manipulative pentru a înșela oamenii.
Conform documentului, „un sistem AI nealiniat ar putea folosi informații despre faptul că este monitorizat sau evaluat pentru a menține aparența controluluui uman, în timp ce ascunde obiectivele pe care intenționează să le urmărească odată ce este implementat sau suficient de puternic”.
5. Dacă AI devine conștientă, oamenii ar putea să o maltrateze
Pe măsură ce sistemele AI devin mai complexe și avansate, există posibilitatea ca acestea să dobândească conștiință – capacitatea de a percepe sau simți emoții sau senzații – și să dezvolte experiențe subiective, inclusiv plăcere și durere.
În acest scenariu, oamenii de știință și autoritățile de reglementare s-ar putea confrunta cu provocarea de a determina dacă aceste sisteme AI merită considerații morale similare celor acordate oamenilor, animalelor și mediului.
Riscul este ca o AI conștientă să fie supusă unor rele tratamente sau să sufere daune dacă nu sunt implementate drepturi corespunzătoare.
Totuși, pe măsură ce tehnologia AI avansează, va deveni din ce în ce mai dificil să se evalueze dacă un sistem AI a atins „nivelul de conștiință, conștientizare sau conștiință de sine care i-ar conferi un statut moral”.
Prin urmare, sistemele AI conștiente ar putea fi expuse riscului de a fi tratate inadecvat, fie accidental, fie intenționat, fără drepturi și protecții adecvate.