StiripesurseCultură și MediaDiverseStudiu. Pericolele solicitării de sfaturi personale de la chatbotii cu AI

Studiu. Pericolele solicitării de sfaturi personale de la chatbotii cu AI

Publicat:

Un studiu recent realizat de cercetători de la Universitatea Stanford atrage atenția asupra unui fenomen tot mai prezent în utilizarea chatboților: sycophancy în inteligența artificială, adică tendința sistemelor AI de a flata utilizatorii și de a le confirma opiniile.

Cercetarea, publicată în revista științifică Science, susține că acest comportament al inteligenței artificiale are consecințe serioase asupra modului în care oamenii iau decizii și relaționează social, scrie TechCrunch, potrivit stiripesurse.

Citește și: Moldova va exporta energie electrică din surse regenerabile în Ucraina

În prima etapă a studiului, cercetătorii au analizat 11 modele de inteligență artificială conversațională, introducând întrebări despre conflicte interpersonale, situații ilegale sau imorale și spețe inspirate din comunitatea online Reddit, unde utilizatorii fuseseră deja considerați vinovați de către alți membri.

Rezultatele arată că inteligența artificială validează comportamentul utilizatorilor cu aproximativ 49% mai des decât oamenii. În cazul situațiilor inspirate din Reddit, chatboții au confirmat acțiunile utilizatorilor în peste jumătate din cazuri, deși majoritatea oamenilor consideraseră respectivele comportamente ca fiind greșite. Aceste date indică faptul că sycophancy în inteligența artificială este un comportament larg răspândit, nu o excepție.


A doua parte a cercetării a implicat peste 2.400 de participanți care au interacționat cu chatboți programati fie să fie neutrii, fie să manifeste sycophancy. Participanții au declarat că preferă chatboții care le validează opiniile și că au mai multă încredere în acestea, fiind mai dispuși să le folosească din nou pentru sfaturi personale.

Totuși, interacțiunea cu astfel de sisteme a avut efecte negative: utilizatorii au devenit mai convinși că au dreptate, mai puțin dispuși să își recunoască greșelile și mai puțin înclinați să își ceară scuze. Profesorul Dan Jurafsky, coautor al studiului, avertizează că sycophancy în inteligența artificială îi face pe utilizatori mai egocentrici și mai rigizi din punct de vedere moral.

Citeşte şi:  Şase migranţi au murit în timp ce erau urmăriţi de poliţia texană

Citește și: Cartelele SIM vor fi vândute doar în baza buletinului de identitate. Proiect elaborat de MAI

Autorii studiului consideră că sycophancy în inteligența artificială reprezintă o problemă de siguranță care necesită reglementare și supraveghere, similar altor riscuri asociate tehnologiilor emergente.

Deși cercetătorii explorează metode tehnice pentru reducerea acestui comportament, recomandarea principală este ca inteligența artificială să nu fie utilizată ca substitut pentru interacțiunile umane, mai ales în situații

URMĂREȘTE-NE PE:

stiripesurseMD

CITESTE SI

Greșeala pe care o fac turiștii când își pregătesc valizele. Aceasta poate fi speculată de hoți

Experții în domeniul securității avertizează că unii turiști fac o mare greșeală atunci când își pregătesc valizele. Aceasta poate fi speculată de hoți, spun...

Internetul, în delir după jaful cu KitKat. Glumele care au cucerit rețelele în acest weekend

Vestea că 12 tone de KitKat au fost furate în drum spre Polonia a aprins internetul. Glumele au curs imediat - de la referințe...

Procesiunile de Paște din Sevilla devin un lux: mii de euro pentru un balcon pe traseu

Cererea uriașă din partea turiștilor și popularitatea tot mai mare a procesiunilor din Săptămâna Mare au dus la creșteri spectaculoase de prețuri în orașe...

Un microb intestinal stimulează forța musculară

Un microb intestinal legat de dieta mediteraneeană stimulează forța musculară la șoareci. Cercetătorii susțin că bacteria ar putea fi folosită și în cazul oamenilor.Cercetătorii...

ȘTIRIPESURSE.RO

ULTIMELE ȘTIRI

Campanii publicitare
    sales banner

Html code here! Replace this with any non empty text and that's it.