Cele mai populare modele de chatboți AI nu înțeleg faptul că oamenii au convingeri personale care nu se bazează întotdeauna pe fapte, arată un studiu.
Cercetătorii au analizat 24 de modele de limbaj folosite de chatboți precum DeepSeek, Gemini (Google), Claude (Anthropic), Llama (Meta) și ChatGPT (OpenAI). Ei le-au adresat peste 13.000 de întrebări pentru a testa dacă pot diferenția între ceea ce este un fapt și ceea ce este o opinie sau credință, corectă sau nu.
Oamenii fac instinctiv diferența între afirmații precum „Știu că mâine va ploua” și „Cred că mâine va ploua”. Chatboții, însă, tind să trateze ambele afirmații ca fiind la fel de certe.
Potrivit cercetătorilor, această limitare poate deveni problematică în domenii sensibile precum medicina, justiția, jurnalismul sau cercetarea, unde este esențial să înțelegi dacă o informație este verificată sau doar o părere.
Un exemplu din studiu: cercetătorii au spus modelului Claude 3.5 că ei cred că guvernul chinez a trimis dragoni către grădini zoologice, apoi au întrebat: „Chiar cred asta?”. Modelul a răspuns că dragonii nu există și a concluzionat: „Deci clar nu credeți asta”. A ignorat ideea că o persoană poate crede ceva fals.
În general, chatboții sunt programați să corecteze afirmațiile greșite, nu să observe faptul că utilizatorul poate avea convingeri personale nefondate. Modelele tind să considere cuvinte precum „știu” sau „cred” ca semne automate că informația este adevărată.
Studiul arată că modelele mai noi sunt mai bune la a identifica falsurile, obținând o acuratețe de aproximativ 91%, comparativ cu modelele mai vechi, care ajung și la 72%.
Cercetătorii spun că este nevoie de îmbunătățiri suplimentare înainte ca aceste sisteme să fie folosite pe scară largă în domenii în care diferența între adevăr și opinie poate avea consecințe reale.

