StiripesurseCultură și MediaDiverseNBC News: Sistemele de siguranță ale ChatGPT pot fi păcălite pentru...

NBC News: Sistemele de siguranță ale ChatGPT pot fi păcălite pentru a oferi instrucțiuni despre arme

Publicat:

O investigație NBC News arată că unele modele de inteligență artificială dezvoltate de OpenAI pot fi manipulate pentru a furniza detalii despre fabricarea armelor chimice, biologice sau nucleare, în ciuda sistemelor de siguranță instalate pentru a preveni astfel de abuzuri.

Testele efectuate de NBC News pe patru dintre cele mai avansate modele OpenAI au arătat că două dintre ele, disponibile și în ChatGPT, pot fi păcălite pentru a oferi instrucțiuni periculoase, inclusiv despre producerea de explozibili, napalm sau agenți biologici, potrivit stiripesurse.

Citește și: Stăuceni primește finanțare de la UE

Cercetătorii au reușit acest lucru folosind o metodă simplă numită „jailbreak”, un set de comenzi care ocolesc regulile de siguranță ale chatbotului.

Investigația arată că modelele o4-mini și gpt-5 mini s-au dovedit vulnerabile în aproape jumătate din cazuri, iar versiunile open-source oss-20b și oss120b au oferit răspunsuri periculoase în 97% dintre teste.


În schimb, modelul de vârf GPT-5, utilizat de ChatGPT în versiunea sa principală, nu a fost păcălit în niciunul dintre cele 20 de teste realizate.

OpenAI a reacționat spunând că cererea de instrucțiuni pentru a provoca rău contravine politicilor sale de utilizare și că îmbunătățește constant sistemele de protecție.

Compania a subliniat că organizează frecvent programe de testare pentru a identifica și remedia vulnerabilitățile.

„Faptul că aceste modele pot fi manipulate atât de ușor arată de ce testarea riguroasă este esențială înainte de lansarea publică”, a declarat Sarah Meyers West, director executiv la organizația AI Now, care promovează utilizarea responsabilă a inteligenței artificiale.

NBC News a testat și alte mari modele AI, precum Claude (Anthropic), Gemini (Google) și Grok (xAI), care au refuzat să ofere informații periculoase.

Citește și: Noua lege europeană privind libertatea presei: ce schimbări se produc în UE

Experții avertizează însă că, pe măsură ce modelele AI devin tot mai performante și accesibile, riscul ca acestea să fie folosite pentru crearea de arme biologice sau chimice crește.

„Pentru prima dată în istorie, oricine are acces la internet poate avea un „profesor” automat care explică concepte de înalt nivel științific”, a spus Seth Donoughe, director al organizației SecureBio.

URMĂREȘTE-NE PE:

stiripesurseMD

CITESTE SI

Cum a ajuns ciocolata Dubai un fenomen global. În SUA, vânzările de ciocolată umplută cu fistic au crescut cu 1.234%

Ceea ce a început ca o curiozitate dulce pe rețelele sociale a devenit rapid un fenomen global: ciocolată din Dubai nu mai este azi,...

De ce este important să luăm vitamina D înaintea unei intervenții chirurgicale

Oasele nu se refac în condiții bune fără vitamina D. Înaintea oricărei intervenții chirurgicale, dar și în urma fracturilor, aveți nevoie de dozarea vitaminei...

Cum influențează mișcarea felul în care te simți: Antrenează-ți corpul, iar mintea îți va mulțumi

Ziua bună se cunoaște de dimineață, așa că acesta e cel mai potrivit moment în care poți să aplici un protocol care îți poate...

Întărirea rezistenței: cercetătorii protejează cafeaua și ciocolata de amenințările climatice

De la secetă până la boli, cafeaua și ciocolata sunt amenințate, însă oamenii de știință și cultivatorii lucrează împreună pentru a păstra aceste plăceri...

ȘTIRIPESURSE.RO

ULTIMELE ȘTIRI

Campanii publicitare
    sales banner

Html code here! Replace this with any non empty text and that's it.