
Inteligența artificială, sursă majoră de malware și vulnerabilități cibernetice: poate genera 10.000 de tipuri de infecții nedetectabile
Inteligența artificială (AI) devine tot mai utilizată în diverse sectoare, însă dezvoltarea sa rapidă aduce riscuri semnificative. Conform cercetărilor în domeniul securității cibernetice, modelele de limbaj mari (LLM) pot fi utilizate pentru crearea unor tipuri de malware greu de detectat. Aceste descoperiri ridică îngrijorări serioase cu privire la viitorul securității informatice, având în vedere că metodele tradiționale de protecție devin din ce în ce mai puțin eficiente.
Capacitatea AI de a genera malware invizibil
Studiile recente au relevat că modelele AI pot crea până la 10.000 de variante de malware JavaScript care păstrează funcționalitatea, dar sunt dificil de detectat de sistemele tradiționale de protecție. Modificările aplicate codului includ redenumirea variabilelor, inserarea de secvențe inutile sau restructurarea scripturilor, toate având ca scop eludarea algoritmilor de învățare automată utilizați pentru detectare.
Conform unui raport al Unit 42 din cadrul Palo Alto Networks, aceste variante de malware reușesc să evite detectarea în 88% din cazuri, afectând inclusiv platforme populare precum VirusTotal. Astfel, protejarea utilizatorilor și a organizațiilor devine o provocare tot mai mare.
Tehnicile utilizate și riscurile suplimentare
Tehnicile AI folosite pentru crearea malware-ului includ învățarea automată adversarială, care implică modificări subtile ale codului pentru a-i reduce vizibilitatea. Aceste metode produc rezultate mai naturale comparativ cu tehnicile tradiționale de ofuscare, făcând detecția mult mai dificilă.
Un risc adițional este manipularea sistemelor de evaluare a riscurilor software. De exemplu, cercetătorii au arătat că Exploit Prediction Scoring System (EPSS) poate fi influențat prin activitate falsă pe rețelele sociale sau depozite false de exploit-uri pe GitHub, ceea ce duce la prioritizări greșite ale vulnerabilităților și creșterea șanselor de succes ale atacurilor cibernetice.
Soluții și protecție împotriva amenințărilor AI
Deși AI prezintă riscuri considerabile, aceleași tehnologii pot fi utilizate pentru a consolida securitatea cibernetică. Modelele LLM pot genera seturi de date robuste pentru antrenarea sistemelor de detecție, sporind astfel eficiența acestora în fața amenințărilor.
Un exemplu este atacul TPUXtract, dezvoltat de cercetători de la Universitatea de Stat din Carolina de Nord, care vizează extragerea parametrilor modelelor AI cu o acuratețe de 99,91%. Deși această metodă scoate în evidență vulnerabilitățile proprietății intelectuale, subliniază și necesitatea îmbunătățirii protecției modelelor AI.
Recomandări pentru utilizatori
Pentru a diminua riscurile, utilizatorii sunt sfătuiți să adopte următoarele măsuri:
Actualizări regulate ale software-ului pentru eliminarea vulnerabilităților cunoscute.
Soluții avansate de securitate, inclusiv antivirusuri bazate pe învățare automată.
Evitarea descărcărilor nesigure și verificarea surselor fișierelor.
Educație cibernetică pentru recunoașterea amenințărilor.
Inteligența artificială, deși un instrument puternic, necesită un management responsabil pentru a preveni utilizarea sa în scopuri distructive. În fața acestor provocări, este esențial să se investească în soluții inovatoare și să se acorde o atenție sporită securității cibernetice.
Fii primul care comentează