Confidenţialitate


Cum folosim corect aplicațiile AI: de ce chatbot-urile tind să ne dea dreptate | AUDIO


Cum folosim corect aplicațiile AI: de ce chatbot-urile tind să ne dea dreptate | AUDIO

Sursa foto: Shutterstock

Aplicaţiile de inteligenţă artificială au tendinţa de a le spune utilizatorilor ceea ce vor să audă şi de a le valida acţiunile în mod excesiv. Este rezultatul unui studiu realizat de cercetători de la două universităţi din Statele Unite – Stanford şi Carnegie Mellon.

EMBED CODE Copiază codul de mai jos pentru a adăuga acest clip audio pe site-ul tău.

Experții au constatat că răspunsurile măgulitoare ale chatbot-urilor cu AI ar putea consolida convingeri dăunătoare şi pot exacerba conflictele.

Echipa a analizat 11 modele lingvistice AI de top de la companiile OpenAI, Anthropic, Google şi Meta. Modelele au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât au făcut-o oamenii.

Această aprobare a fost acordată chiar şi atunci când utilizatorii au semnalat cazuri de înşelăciune, acţiuni ilegale sau prejudicii emoţionale.

În cadrul unor experimente la care au participat peste 2.400 de persoane, cercetătorii au analizat efectele acestor recomandări bazate pe AI. După o singură interacţiune cu o inteligenţă artificială care le-a dat dreptate, participanţii erau mai puternic convinşi că aveau dreptate.

În acelaşi timp, disponibilitatea lor de a-şi asuma responsabilitatea, de a-şi cere scuze sau de a rezolva conflictele a scăzut.

Cum folosim corect aplicațiile AI

Studiul atrage atenția asupra unui tipar: asta nu înseamnă să nu mai folsoim asemenea instrumente, ci să fim atenți la aceste detalii. În plus, putem face ca un chat cu inteligență artificială să fie mai puțin lingușitor. Cum anume? Îi dăm intrucțiuni în prompturi să pună pe primul loc acuratețea, gândirea critică și analiza obiectivă, nu acordul automat cu utilizatorul.

Concret, îi spui AI‑ului cine este și cum trebuie să se comporte, astfel încât răspunsurile lui să urmeze un stil, un ton sau un set de valori clar definite. Practic, îi dai un „rol” pe care să îl joace, iar acest rol reduce comportamentele nedorite — cum ar fi lingușirea.

De exemplu, îi poți scrie: „Răspunde ca un expert în logică și analiză critică. Prioritizează acuratețea și argumentele solide. Nu fi politicos doar de dragul politeții și nu fi de acord cu mine dacă afirmația mea este greșită.”

Efectul? AI-ul va corecta, va contrazice și va analiza, în loc să aprobe automat.


Ultimele stiri
Sindicaliştii din Apele Române, protest în Bucureşti. Angajații se tem de concedieri și reclamă salariile mici | AUDIO

Rusia va putea trimite trupe în străinătate pentru a proteja cetăţenii ruşi, conform unui proiect de lege adoptat…

Producător de la Hollywood, condamnat la doi ani de închisoare în dosarul morţii actorului Matthew Perry | AUDIO

Acordul România-Ucraina privind apărarea împotriva dronelor va fi gata „în scurt timp”, transmite Zelenski | AUDIO

Xi îl avertizează pe Trump că problema Taiwanului poate duce la un „conflict” între China și SUA

Vâlcea: Percheziţii la două persoane suspectate de braconaj cinegetic. Puşti de vânătoare letale şi trofee de cerb, găsite…

Ucraina: atacuri rusești cu drone în regiunea Cernăuți și la Kiev. 16 persoane au fost rănite în capitală…

Judecata de Joi, cu Cristian Tudor Popescu: Summitul Țuțuiatu

Percheziții la Parchetul Curții de Apel Constanța într-un dosar de corupție. Doi procurori sunt vizați

ANRE va introduce un sistem de evaluare pentru furnizorii de energie și gaze. Consumatorii vor putea lăsa recenzii…