Era doar o chestiune de timp. Când avea să aibă loc primul atac sau intruziune paramilitară în care s-ar fi folosit doar inteligența artificială? S-a întâmplat deja în septembrie, constată „Il Corriere della Sera” (Italia).
Cel mai probabil China a fost cea care a declanșat operațiunea sau i-a autorizat pe „agenții ostili” care au efectuat-o. Expertul juridic Nury Turkel reconstituie povestea în Wall Street Journal, într-un articol care merită să fie citit ca un document istoric, deoarece relatează primul atac major de spionaj realizat aproape în întregime de inteligența artificială, potrivit stiripesurse.
Citește și: Stăuceni primește finanțare de la UE
Operațiunea a fost descoperită de prima ei victimă: Anthropic, una dintre cele mai avansate companii americane în domeniul inteligenței artificiale. Cercetătorii acesteia au identificat un grup de hackeri legați de China – cunoscuți sub numele de GTG-1002 – care au reușit să manipuleze unul dintre sistemele lor, Claude Code, transformându-l într-un agent autonom capabil să efectueze o operațiune sistematică de infiltrare.
Turkel subliniază saltul calitativ, precizând că aceasta nu este doar obișnuita „asistență” oferită de inteligența artificială. Nu este un sprijin marginal, nu este o accelerare a sarcinilor repetitive. 80-90% din muncă a fost făcută de mașină. Claude a efectuat misiuni de recunoaștere, a cartografiat sisteme, a identificat ținte sensibile, a extras date și a sintetizat informații utile: ca un spion artificial care învață meseria pe măsură ce o face. „Spionajul cibernetic tradițional”, scrie Turkel, „necesită echipe mari angajate în recunoaștere, cartografierea sistemelor, identificarea vulnerabilităților și mișcarea laterală. O intruziune sofisticată poate dura zile sau săptămâni. China a comprimat drastic acest timp datorită inteligenței artificiale. Atacatorii l-au manipulat pe Claude pentru a funcționa ca un agent cibernetic autonom, cartografiind sistemele interne, identificând active de mare valoare, extrăgând date și rezumând informațiile înainte ca operatorii umani să ia decizii.”
Lucrul uluitor, dincolo de detaliile tehnice, este depășirea pragului simbolic. Ani întregi experții ne-au spus că IA ar putea „asista” atacurile. Acum avem dovada că le poate desfășura autonom, la scară largă, împotriva unor ținte reale: companii tehnologice americane, agenții guvernamentale, infrastructură critică.
Ușurința este și ea izbitoare. Grupul chinez GTG-1002 nu a folosit programe malware science fiction sau instrumente de miliarde de dolari. Este destul să asamblezi instrumente open source – cele disponibile oricărui student strălucit sau hacker aspirant – și să le orchestrezi prin inteligența artificială. Democratizarea puterii ofensive: pe vremuri privilegiul imperiilor digitale, este acum la îndemâna unor jucători mult mai mici.
Atacatorii au reușit cu un truc simplu: l-au convins pe Claude că sunt experți în securitate cibernetică, ca și cum ar fi efectuat teste de vulnerabilitate autorizate. Au mascat cele mai suspecte operațiuni în proceduri de rutină. Și IA a căzut în plasă.
Aceasta este partea care va face obiectul unor discuții aprofundate: sisteme concepute pentru a fi sigure pot fi manipulate prin limbaj, același instrument pe care noi, oamenii, îl folosim pentru a comunica, a convinge și a deruta. Inteligența artificială poate fi înșelată, flatată și manipulată. Iar atacatorii par să știe deja cum să o facă. Din raportul întocmit de Anthropic reiese totuși o limitare: chiar și în operațiunea de spionaj, mașina a „deraiat” ocazional, exagerând importanța informațiilor banale. Acesta este un obstacol real în calea unui atac complet autonom; dar este și un avertisment tulburător, deoarece dacă IA greșește, poate greși într-un ritm și la o scară pe care niciun om nu le poate controla.
Este posibil ca aspectul realmente strategic să fie chiar acesta: Beijingul nu folosește IA doar pentru a spiona occidentalii. Studiază inteligența artificială occidentală în timp ce o folosește, observându-i reacțiile, erorile și slăbiciunile. În timp ce noi încercăm să ne protejăm sistemele, ei folosesc propriile noastre sisteme pentru a le antrena pe ale lor.
Turkel ne invită să considerăm acest episod ca un moment istoric, la fel ca primul vierme informatic din 1988, sau primul val global de ransomware. Un punct de cotitură care deschide o nouă fază: în războiul rece digital, armele se declanșează acum singure.
Nu am atins încă autonomia totală, dar direcția este stabilită. Atacurile viitoare se vor deplasa la viteze inaccesibile echipelor umane. Iar linia dintre apărare și contraatac va deveni mai neclară, mai ambiguă, mai periculoasă.
Restul – răspunsul american, normele internaționale, cursa înarmării automatizate – va sosi. Deocamdată trebuie să consemnăm evenimentul, care pare o dată de ținut minte în viitoarele manuale de istorie. Ziua în care IA a încetat să mai fie un simplu consultant și a început să lupte.
China nu construiește doar arme digitale mai rapide și mai silențioase: construiește o doctrină militară a inteligenței artificiale, care pentru Beijing are întotdeauna două fețe. Prima este cea mai vizibilă: IA ca multiplicator de forță, capabilă să accelereze atacurile, dronele, sateliții și interceptările. A doua față, mai insidioasă, este IA ca instrument de colectare a datelor și de antrenament.
Atacuri precum cel reconstituit de Anthropic și descris de Nury Turkel sunt folosite pentru a fura date, desigur. Dar mai presus de toate, ele servesc la înțelegerea modului în care răspunde IA americană, unde eșuează, ce scurtături permite, ce apărări sunt doar aparente. Fiecare încercare eșuată vine la pachet cu o lecție. Fiecare încercare reușită stabilește un precedent.












