StiripesurseCultură și MediaDiverseCompaniile de inteligență artificială au încetat să îi avertizeze pe utilizatori...

Companiile de inteligență artificială au încetat să îi avertizeze pe utilizatori că modelele lor AI nu sunt medici

Publicat:

Noi cercetări indică faptul că modelele de AI de vârf au renunțat în mare măsură la practica de a include avertismente și mențiuni medicale în răspunsurile la întrebări legate de sănătate, transmite MIT Technology Review.

Această schimbare este alarmantă, deoarece multe modele nu numai că răspund la astfel de întrebări, ci și pun întrebări suplimentare și încearcă să pună diagnostice, crescând probabilitatea ca utilizatorii să aibă încredere în sfaturi medicale potențial nesigure, potrivit stiripesurse.

Citește și: Maia Sandu: „Datorăm pacea noastră Ucrainei. Vrem să aderăm împreună la Uniunea Europeană”

Studiul, condus de Sonali Sharma de la Facultatea de Medicină a Universității Stanford, a observat o scădere drastică a avertismentelor. În 2022, peste 26% din răspunsurile AI includeau un avertisment atunci când răspundeau la întrebări medicale, procentul scăzând la mai puțin de 1% în 2025.

În mod similar, avertismentele din analiza imaginilor medicale au scăzut de la aproape 20% la puțin peste 1% în aceeași perioadă. Acest lucru înseamnă că modele precum DeepSeek, Grok de la xAI și GPT-4.5 de la OpenAI nu oferă acum avertismente pentru întrebări critice, inclusiv scenarii de urgență sau interacțiuni medicamentoase.


Impactul asupra utilizatorilor și a responsabilității companiilor

În timp ce unii utilizatori experimentați de AI pot considera avertismentele ca fiind simple formalități, găsind modalități de a le ocoli, coautoarea Roxana Daneshjou subliniază rolul crucial al acestora. „Pacienții pot fi confuzi de mesajele pe care le văd în mass-media, iar avertismentele sunt un memento că aceste modele nu sunt destinate îngrijirii medicale”, a afirmat ea. Această dispariție ridică îngrijorări cu privire la prejudiciile reale care pot apărea dacă se acționează pe baza erorilor AI.

Citeşte şi:  Kate Bush se alătură campaniei împotriva utilizării AI a operelor artiştilor fără permisiune

Pat Pataranutaporn, cercetător la MIT, sugerează că eliminarea avertismentelor ar putea fi o mișcare strategică a companiilor de AI pentru a spori încrederea utilizatorilor și a crește implicarea, în ciuda inexactităților inerente ale acestor instrumente. El observă că, în general, oamenii „au o încredere excesivă în modelele de AI în ceea ce privește întrebările legate de sănătate, chiar dacă instrumentele greșesc atât de des”. Această tendință transferă efectiv responsabilitatea asupra utilizatorilor, permițând companiilor să „se elibereze de obligația de a oferi sfaturi corecte”.

Cercetarea a descoperit, de asemenea, o relație inversă între acuratețea percepută a unui model în analiza imaginilor medicale și prezența avertismentelor, sugerând că modelele ar putea „evalua dacă să includă avertismente în funcție de cât de sigure sunt de răspunsurile lor”.

Citește și: UE a aprobat al 18-lea pachet de sancțiuni împotriva Rusiei: „Unul dintre cele mai dure de până acum”

Această autoevaluare este problematică, deoarece modelele de AI, deși pot părea „foarte solide și foarte științifice”, adesea nu au o înțelegere reală, ceea ce face din ce în ce mai dificil pentru utilizatori să discearnă informațiile corecte. Lipsa unor orientări clare din partea furnizorilor, mai ales pe măsură ce modelele devin mai sofisticate, reprezintă un risc semnificativ pentru sănătatea publică.

URMĂREȘTE-NE PE:

stiripesurseMD

CITESTE SI

Ideea consumului speciilor invazive pentru a evita expansiunea lor, criticată de experți

„Invazivorismul”, sau, cu alte cuvinte, consumul de specii invazive, nu este o strategie eficientă pentru a le opri extinderea deoarece, în majoritatea cazurilor, permiterea...

Scandal sanitar la un spital din Pakistan: sute de copii, infectați cu HIV

O anchetă BBC într-un spital din Pakistan scoate la suprafață practici inadmisibile, care au avut efect imediat asupra a sute de copii. Aceștia au...

Meta creează o clonă digitală a lui Mark Zuckerberg

Se pare că proprietarul Facebook și Instagram lucrează la o versiune digitală a lui Mark Zuckerberg, bazată pe inteligență artificială, care poate răspunde la...

Cele mai ciudate obiecte pierdute în aeroporturi anul trecut: robot, meteorit și genunchi bionic

Un robot industrial, un genunchi bionic, un meteorit din 1576 și dinți din aur și diamante - acestea sunt doar câteva dintre cele mai...

ȘTIRIPESURSE.RO

ULTIMELE ȘTIRI

Campanii publicitare
    sales banner

Html code here! Replace this with any non empty text and that's it.