În 2016, Microsoft a lansat un chatbot AI numit „Tay”, cu scopul de a interacționa cu utilizatorii de pe Twitter și de a învăța din conversațiile sale pentru a imita stilul de comunicare casual al unei tinere americane de 19 ani.
În mai puțin de 24 de ore de la lansare, o vulnerabilitate a aplicației exploatată de actori rău intenționați a dus la „cuvinte și imagini extrem de nepotrivite și condamnabile” (Microsoft).
Modelele de antrenament pentru date permit AI să capteze atât modele pozitive, cât și negative, iar astfel este supusă unor provocări care sunt „atât sociale, cât și tehnice”.
Microsoft nu a renunțat la efortul său de a exploata AI pentru interacțiunile online după incidentul Tay. În schimb, și-a intensificat eforturile.
În 2023, un chatbot AI bazat pe modelul GPT al OpenAI, numit „Sydney”, a făcut comentarii nepotrivite în timpul unei interacțiuni cu o jurnalistă de la New York Times.
Google a avut probleme nu o dată, ci de trei ori în ultimul an în încercarea de a folosi AI în moduri creative.
În februarie 2024, generatorul său de imagini, Gemini, alimentat de AI, a produs imagini bizare și ofensatoare, cum ar fi naziști de culoare, părinți fondatori ai SUA de diverse rase, vikingi nativi americani și o imagine feminină a Papei.
Apoi, în luna mai, la conferința anuală pentru dezvoltatori I/O, Google a avut mai multe probleme, inclusiv o funcție de căutare alimentată de AI care a recomandat utilizatorilor să mănânce pietre și să adauge lipici pe pizza.
Dacă giganți tehnologici precum Google și Microsoft pot face greșeli digitale care duc la dezinformare și situații jenante, cum pot oamenii obișnuiți să evite astfel de greșeli?
În ciuda costurilor ridicate ale acestor eșecuri, pot fi învățate lecții importante care să ajute pe alții să evite sau să minimizeze riscurile, opinează Stu Sjouwerman, fondator și CEO al KnowBe4, firmă care găzduiește o platformă de formare pentru conștientizarea securității și simulări de phishing, cu peste 65.000 de organizații și mai mult de 60 de milioane de utilizatori.
Lecții învățate
Este clar că AI are probleme care trebuie evitate sau eliminte.
Modelele mari de limbaj (LLMs) sunt sisteme AI avansate care pot genera texte și imagini similare celor create de oameni într-un mod credibil.
Acestea sunt antrenate pe cantități vaste de date pentru a învăța modele și a recunoaște relațiile din utilizarea limbajului.
Cu toate acestea, nu pot discerne adevărul de ficțiune, iar LLMs și sistemele AI nu sunt infailibile.
Aceste sisteme pot amplifica și perpetua prejudecățile care ar putea fi prezente în datele de antrenament.
Generatorul de imagini al Google este un exemplu bun în acest sens.
Graba de a introduce produse prea devreme poate duce la greșeli jenante. Sistemele AI pot fi, de asemenea, vulnerabile la manipularea de către utilizatori.
Actorii rău intenționați sunt mereu în așteptare, pregătiți să exploateze sisteme – sisteme predispuse la „halucinații”, producând informații false sau absurde care pot fi răspândite rapid dacă nu sunt verificate.
Supradependența de AI, fără supraveghere umană, este un joc periculos.
Încrederea orbească în rezultatele AI a dus la consecințe reale, evidențiind necesitatea verificării umane și a gândirii critice.
Transparență și responsabilitate
Deși s-au făcut greșeli, este important să rămânem transparenți și să ne asumăm responsabilitatea atunci când lucrurile merg prost.
Companiile de tehnologie trebuie să își asume responsabilitatea pentru eșecurile lor.
Aceste sisteme au nevoie de evaluări și îmbunătățiri continue pentru a rămâne vigilente în fața problemelor emergente și a prejudecăților.
Ca utilizatori, trebuie să fim și noi vigilenți. Nevoia de a dezvolta, rafina și perfecționa abilitățile de gândire critică a devenit brusc mai pronunțată în era AI. A pune întrebări și a verifica informațiile din surse multiple și credibile înainte de a ne baza pe ele – sau de a le distribui – este o practică necesară de cultivat și de exercitat, mai ales în rândul angajaților.
Soluțiile tehnologice pot, desigur, ajuta la identificarea prejudecăților, erorilor și a posibilelor manipulări.
Utilizarea instrumentelor de detectare a conținutului generat de AI și a semnelor digitale de identificare poate ajuta la identificarea materialelor sintetice.
Resursele și serviciile de verificare a faptelor sunt disponibile gratuit și ar trebui utilizate pentru a verifica informațiile.