Confidenţialitate


Cum folosim corect aplicațiile AI: de ce chatbot-urile tind să ne dea dreptate | AUDIO


Cum folosim corect aplicațiile AI: de ce chatbot-urile tind să ne dea dreptate | AUDIO

Sursa foto: Shutterstock

Aplicaţiile de inteligenţă artificială au tendinţa de a le spune utilizatorilor ceea ce vor să audă şi de a le valida acţiunile în mod excesiv. Este rezultatul unui studiu realizat de cercetători de la două universităţi din Statele Unite – Stanford şi Carnegie Mellon.

EMBED CODE Copiază codul de mai jos pentru a adăuga acest clip audio pe site-ul tău.

Experții au constatat că răspunsurile măgulitoare ale chatbot-urilor cu AI ar putea consolida convingeri dăunătoare şi pot exacerba conflictele.

Echipa a analizat 11 modele lingvistice AI de top de la companiile OpenAI, Anthropic, Google şi Meta. Modelele au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât au făcut-o oamenii.

Această aprobare a fost acordată chiar şi atunci când utilizatorii au semnalat cazuri de înşelăciune, acţiuni ilegale sau prejudicii emoţionale.

În cadrul unor experimente la care au participat peste 2.400 de persoane, cercetătorii au analizat efectele acestor recomandări bazate pe AI. După o singură interacţiune cu o inteligenţă artificială care le-a dat dreptate, participanţii erau mai puternic convinşi că aveau dreptate.

În acelaşi timp, disponibilitatea lor de a-şi asuma responsabilitatea, de a-şi cere scuze sau de a rezolva conflictele a scăzut.

Cum folosim corect aplicațiile AI

Studiul atrage atenția asupra unui tipar: asta nu înseamnă să nu mai folsoim asemenea instrumente, ci să fim atenți la aceste detalii. În plus, putem face ca un chat cu inteligență artificială să fie mai puțin lingușitor. Cum anume? Îi dăm intrucțiuni în prompturi să pună pe primul loc acuratețea, gândirea critică și analiza obiectivă, nu acordul automat cu utilizatorul.

Concret, îi spui AI‑ului cine este și cum trebuie să se comporte, astfel încât răspunsurile lui să urmeze un stil, un ton sau un set de valori clar definite. Practic, îi dai un „rol” pe care să îl joace, iar acest rol reduce comportamentele nedorite — cum ar fi lingușirea.

De exemplu, îi poți scrie: „Răspunde ca un expert în logică și analiză critică. Prioritizează acuratețea și argumentele solide. Nu fi politicos doar de dragul politeții și nu fi de acord cu mine dacă afirmația mea este greșită.”

Efectul? AI-ul va corecta, va contrazice și va analiza, în loc să aprobe automat.


Ultimele stiri
Cafeaua s-a scumpit cu peste 23% într-un an. Creșteri de prețuri și zahăr și lapte | AUDIO

UPDATE – Constanța: Incendiu la un apartament din cartierul de locuințe sociale Henri Coandă. Doi bărbați și o…

Ucraina și Germania au semnat un acord în domeniul apărării: sprijin extins pentru drone, rachete și apărare aeriană…

Kelemen Hunor: Relația România–Ungaria trebuie să continue după schimbarea politică de la Budapesta | AUDIO

Curtea de Apel Cluj menține arestul preventiv pentru directorul Autorităţii Rutiere, acuzat de mai multe fapte de corupție

Iranul estimează la 270 de miliarde de dolari costul războiului lansat de Statele Unite și Israel | AUDIO

Colegiul Medicilor intervine în scandalul panourilor anti-cezariană din București: informațiile nu au bază științifică, transmite organizația | AUDIO

Kelemen Hunor, optimist privind viitorul Coaliției de guvernare, în ciuda amenințărilor repetate ale PSD: Există o speranță |…

Elevii Delta Force Arad caută finanțare pentru Mondialul de Robotică din SUA. Liceenii au devenit campioni mondiali în…

Exporturile de ovine și bovine prin portul Midia cresc înainte de Kurban Bayram, cea mai importantă sărbătoare a…