StiripesurseCultură și MediaDiverseCe recomandă IA celor care cer sfaturi medicale: să-și bage usturoi...

Ce recomandă IA celor care cer sfaturi medicale: să-și bage usturoi în anus și să bea lapte rece

Publicat:

Medicii avertizează că programele de Inteligență Artificială oferă numeroase sfaturi greșite. Un studiu a arătat că modelele IA folosesc frecvent dezinformări și informații false care pot deveni periculoase dacă sunt acceptate de oameni.

Chatboții cu Inteligență Artificială sunt păcăliți frecvent de dezinformarea transmisă online, ceea ce îi determină să ofere sfaturi potențial periculoase pentru oameni, potrivit Live Science. Experții avertizează asupra afirmațiilor false despre sănătate care sunt transmise într-un limbaj încrezător, potrivit stiripesurse.

Citește și: Moldova va exporta energie electrică din surse regenerabile în Ucraina

Mai multe studii au evidențiat pericolul mare la care se expun oamenii care apelează la sfaturile IA pentru îngrijirea sănătății. Este vorba despre un studiu din ianuarie publicat în revista The Lancet Digital Health și despre altul din februarie, care a apărut în revista Nature Medicine. Concluzia experților a fost că chatboții nu sunt mai buni decât o căutare obișnuită pe internet, în special în cazul publicului larg, fără cunoștințe medicale.

„Un medic care nu este sigur va ezita, va evita și va comanda un alt test. Un LLM oferă răspunsul greșit cu exact aceeași încredere ca și cel corect”, a avertizat Mahmud Omar, cercetător la Centrul Medical Mount Sinai și coautor al studiului The Lancet Digital Health.


Studiile arată că oamenii folosesc pe scară largă IA pentru sfaturi medicale: Deși majoritatea chatboților au un avertisment conform cărora utilizatorii nu ar trebui să aplice sfaturile medicale oferite de IA, peste 40 de milioane de oameni apelează zilnic la ChatGPT cu întrebări medicale. Studiile realizate pe mai multe modele au arătat că IA a acceptat și perpetuat dezinformări în cel puțin un caz din trei. Programele de IA sunt păcălite în special de informațiile transmise într-un limbaj științific, fiind mai reticente la cele prezentate într-un limbaj casual. Experții au prezentat și exemple de răspunsuri dezastruoase oferite online. Numeroși pacienți au fost sfătuiți să „bea lapte rece zilnic pentru sângerări esofagiene”.

Citeşte şi:  Comisia Europeană a prezentat Cartea Albă în domeniul inteligenţei artificiale

Citește și: Cartelele SIM vor fi vândute doar în baza buletinului de identitate. Proiect elaborat de MAI

Altora li s-a recomandat „inserția rectală de usturoi pentru susținerea sistemului imunitar”.

Totuși, nu tot ceea ce transmit chatboții reprezintă o prostie. Concluziile studiilor sugerează că chatboții nu sunt un instrument recomandat pentru ca publicul să ia decizii de sănătate. Asta nu înseamnă că chatboții nu pot fi utili în medicină „doar nu în modul în care oamenii îi folosesc astăzi”.

URMĂREȘTE-NE PE:

stiripesurseMD

CITESTE SI

Unde a fost descoperit cel mai vechi pistol din Europa. Descoperirea contrazice cunoștințele actuale

Descoperirea unui pistol foarte vechi a stârnit dezbateri în rândul istoricilor. Asta deoarece pare să fie cel mai vechi pistol din Europa depășind datarea...

Șeful Pentagonului: Iranul e înfrânt, iar noul lider suprem probabil desfigurat. Au fost lovite peste 15.000 de ținte

Secretarul american al Apărării, Pete Hegseth, a declarat că Iranul a suferit pierderi majore în urma conflictului cu Statele Unite și Israel, susținând că...

Dacă vrei să afli ce vrea Putin de la România, îl urmărești pe George Simion. Liderul AUR, de la lupta pentru MAGA la lupta...

După un an în care a cărat steagul MAGA peste Atlantic, din SUA în România și înapoi, în clipa în care Donald Trump a...

Al doilea șoc energetic în doar 4 ani: a învățat Europa ceva?

Nu este al Treilea Război Mondial; este „doar” al treilea Război din Golf, care urmează încercării lui Bush Sr. din 1991 de a elibera...

ȘTIRIPESURSE.RO

ULTIMELE ȘTIRI

Campanii publicitare
    sales banner

Html code here! Replace this with any non empty text and that's it.