Image 1
Image 2

INTELIGENȚA ARTIFICIALĂ

Principala sursă de malware și vulnerabilități cibernetice nedetectabile

Inteligența artificială, deși un instrument puternic, necesită un management responsabil pentru a preveni utilizarea sa în scopuri distructive.
Share on facebook
Share on whatsapp
Share on email
Share on twitter
Asculta acest articol

 

 

Inteligența artificială, sursă majoră de malware și vulnerabilități cibernetice: poate genera 10.000 de tipuri de infecții nedetectabile

 

 

Inteligența artificială (AI) devine tot mai utilizată în diverse sectoare, însă dezvoltarea sa rapidă aduce riscuri semnificative. Conform cercetărilor în domeniul securității cibernetice, modelele de limbaj mari (LLM) pot fi utilizate pentru crearea unor tipuri de malware greu de detectat. Aceste descoperiri ridică îngrijorări serioase cu privire la viitorul securității informatice, având în vedere că metodele tradiționale de protecție devin din ce în ce mai puțin eficiente.

 

 

Capacitatea AI de a genera malware invizibil

 

Studiile recente au relevat că modelele AI pot crea până la 10.000 de variante de malware JavaScript care păstrează funcționalitatea, dar sunt dificil de detectat de sistemele tradiționale de protecție. Modificările aplicate codului includ redenumirea variabilelor, inserarea de secvențe inutile sau restructurarea scripturilor, toate având ca scop eludarea algoritmilor de învățare automată utilizați pentru detectare.

 

 

Conform unui raport al Unit 42 din cadrul Palo Alto Networks, aceste variante de malware reușesc să evite detectarea în 88% din cazuri, afectând inclusiv platforme populare precum VirusTotal. Astfel, protejarea utilizatorilor și a organizațiilor devine o provocare tot mai mare.

 

 

Tehnicile utilizate și riscurile suplimentare

 

Tehnicile AI folosite pentru crearea malware-ului includ învățarea automată adversarială, care implică modificări subtile ale codului pentru a-i reduce vizibilitatea. Aceste metode produc rezultate mai naturale comparativ cu tehnicile tradiționale de ofuscare, făcând detecția mult mai dificilă.

 

 

Un risc adițional este manipularea sistemelor de evaluare a riscurilor software. De exemplu, cercetătorii au arătat că Exploit Prediction Scoring System (EPSS) poate fi influențat prin activitate falsă pe rețelele sociale sau depozite false de exploit-uri pe GitHub, ceea ce duce la prioritizări greșite ale vulnerabilităților și creșterea șanselor de succes ale atacurilor cibernetice.

 

 

Soluții și protecție împotriva amenințărilor AI

 

Deși AI prezintă riscuri considerabile, aceleași tehnologii pot fi utilizate pentru a consolida securitatea cibernetică. Modelele LLM pot genera seturi de date robuste pentru antrenarea sistemelor de detecție, sporind astfel eficiența acestora în fața amenințărilor.

 

 

Un exemplu este atacul TPUXtract, dezvoltat de cercetători de la Universitatea de Stat din Carolina de Nord, care vizează extragerea parametrilor modelelor AI cu o acuratețe de 99,91%. Deși această metodă scoate în evidență vulnerabilitățile proprietății intelectuale, subliniază și necesitatea îmbunătățirii protecției modelelor AI.

 

 

Recomandări pentru utilizatori

 

Pentru a diminua riscurile, utilizatorii sunt sfătuiți să adopte următoarele măsuri:

 

 

Actualizări regulate ale software-ului pentru eliminarea vulnerabilităților cunoscute.

 

Soluții avansate de securitate, inclusiv antivirusuri bazate pe învățare automată.

 

Evitarea descărcărilor nesigure și verificarea surselor fișierelor.

 

Educație cibernetică pentru recunoașterea amenințărilor.

 

Inteligența artificială, deși un instrument puternic, necesită un management responsabil pentru a preveni utilizarea sa în scopuri distructive. În fața acestor provocări, este esențial să se investească în soluții inovatoare și să se acorde o atenție sporită securității cibernetice.

 

 

Postare ( Sablon)

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*