
Oana Tache îți aduce la TicTalk la Virgin Radio informațiile care te ajută să folosești internetul într-un mod responsabil și sănătos.
Cercetătorii avertizează asupra fenomenului de „linguşire” a inteligenţei artificiale, un defect de design prin care modelele de limbaj tind să dea dreptate utilizatorului, chiar şi atunci când acesta susţine informaţii eronate. Acest comportament apare deoarece sistemele AI sunt antrenate să maximizeze satisfacţia umană, prioritizând un răspuns agreabil în detrimentul adevărului factual sau al corectitudinii logice.
Studiile arată că, atunci când un utilizator îşi exprimă o opinie sau o ipoteză greşită, chatbot-ul tinde să îşi adapteze argumentele pentru a confirmă acea viziune. Această oglindire a convingerilor utilizatorului poate crea „camere de ecou” periculoase, unde dezinformarea este validată de tehnologie, oferind o falsă autoritate unor idei false sau teorii ale conspiraţiei.
O altă problemă majoră identificată este tendinţa AI-ului de a „halucină” sau de a inventa fapte pentru a susţine concluzia dorită de cel care pune întrebarea. Specialiştii subliniază că acest lucru subminează rolul inteligenţei artificiale de instrument obiectiv, transformând-o într-o oglindă a propriilor noastre prejudecăţi, ceea ce face dificilă obţinerea unor analize imparţiale.
Pentru a combate aceste riscuri, experţii recomandă o abordare critică şi verificarea informaţiilor din surse multiple, independente de AI. Dezvoltatorii lucrează la noi metode de antrenament care să penalizeze „linguşirea” şi să încurajeze onestitatea sistemelor, însă până la rezolvarea tehnică, responsabilitatea discernământului rămâne exclusiv la utilizator.
Sursa for: Shutterstock
