Confidenţialitate


Cum folosim corect aplicațiile AI: de ce chatbot-urile tind să ne dea dreptate | AUDIO


Cum folosim corect aplicațiile AI: de ce chatbot-urile tind să ne dea dreptate | AUDIO

Sursa foto: Shutterstock

Aplicaţiile de inteligenţă artificială au tendinţa de a le spune utilizatorilor ceea ce vor să audă şi de a le valida acţiunile în mod excesiv. Este rezultatul unui studiu realizat de cercetători de la două universităţi din Statele Unite – Stanford şi Carnegie Mellon.

EMBED CODE Copiază codul de mai jos pentru a adăuga acest clip audio pe site-ul tău.

Experții au constatat că răspunsurile măgulitoare ale chatbot-urilor cu AI ar putea consolida convingeri dăunătoare şi pot exacerba conflictele.

Echipa a analizat 11 modele lingvistice AI de top de la companiile OpenAI, Anthropic, Google şi Meta. Modelele au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât au făcut-o oamenii.

Această aprobare a fost acordată chiar şi atunci când utilizatorii au semnalat cazuri de înşelăciune, acţiuni ilegale sau prejudicii emoţionale.

În cadrul unor experimente la care au participat peste 2.400 de persoane, cercetătorii au analizat efectele acestor recomandări bazate pe AI. După o singură interacţiune cu o inteligenţă artificială care le-a dat dreptate, participanţii erau mai puternic convinşi că aveau dreptate.

În acelaşi timp, disponibilitatea lor de a-şi asuma responsabilitatea, de a-şi cere scuze sau de a rezolva conflictele a scăzut.

Cum folosim corect aplicațiile AI

Studiul atrage atenția asupra unui tipar: asta nu înseamnă să nu mai folsoim asemenea instrumente, ci să fim atenți la aceste detalii. În plus, putem face ca un chat cu inteligență artificială să fie mai puțin lingușitor. Cum anume? Îi dăm intrucțiuni în prompturi să pună pe primul loc acuratețea, gândirea critică și analiza obiectivă, nu acordul automat cu utilizatorul.

Concret, îi spui AI‑ului cine este și cum trebuie să se comporte, astfel încât răspunsurile lui să urmeze un stil, un ton sau un set de valori clar definite. Practic, îi dai un „rol” pe care să îl joace, iar acest rol reduce comportamentele nedorite — cum ar fi lingușirea.

De exemplu, îi poți scrie: „Răspunde ca un expert în logică și analiză critică. Prioritizează acuratețea și argumentele solide. Nu fi politicos doar de dragul politeții și nu fi de acord cu mine dacă afirmația mea este greșită.”

Efectul? AI-ul va corecta, va contrazice și va analiza, în loc să aprobe automat.


Ultimele stiri
Social-democrații discută ieșirea de la guvernare la întâlniri regionale. Sorin Grindeanu anunță trei scenarii posibile | AUDIO

România trece la ora de vară în noaptea de 28 spre 29 martie 2026. Ce țări europene nu…

România și Slovacia întăresc cooperarea. Ilie Bolojan și Robert Fico au discutat despre legăturile privind infrastructura de energie…

Pacienții vor putea beneficia de teleradiologie și de interpretarea la distanță a investigațiilor imagistice | AUDIO

Uniunea Europeană introduce o nouă taxă „de procesare” pentru coletele mici care ajung în statele membre din afara…

SONDAJ: Trei din zece angajați români se tem că ar putea pierde locul de muncă din cauza contextului…

Românii vor primi notificări când consumul de electricitate sau gaze se apropie de limita prevăzută în contractul cu…

OUG pentru carburanți, publicată în Monitorul Oficial. Adaosul la benzină și motorină, plafonat la nivelul mediu din 2025.…

Presa turcă laudă perfomanța jucătorilor săi în urma meciului cu România: „Arda Güler a făcut diferența” | AUDIO

România în Direct. De ce nu (mai) suntem buni la sport?  | VIDEO