I ricercatori di Cybersecurity hanno divulgato i dettagli di una nuova backdoor del file di regole soprannominate del vettore di attacco della catena di approvvigionamento che colpisce i redattori di codice puntato per l’intelligenza artificiale (AI) come Github Copilot e cursore, facendoli iniettare il codice dannoso.
“Questa tecnica consente agli hacker di compromettere silenziosamente il codice generato dall’IA iniettando istruzioni dannose nascoste in file di configurazione apparentemente innocenti utilizzati dal cursore e dal copilota GitHub”, co-fondatore e CTO Karliner di Pillar Safety disse In un rapporto tecnico condiviso con le notizie di Hacker.
“Sfruttando caratteri unicode nascosti e sofisticate tecniche di evasione nel modello che affrontano il payload di istruzioni, gli attori delle minacce possono manipolare l’intelligenza artificiale per inserire codice dannoso che bypassa le recensioni tipiche del codice.”
Il vettore di attacco è notevole per il fatto che consente al codice dannoso di propagare silenziosamente tra i progetti, ponendo un rischio della catena di approvvigionamento.
Il punto cruciale dell’attacco dipende dal file di regole che sono utilizzati dagli agenti AI per guidare il loro comportamento, aiutando gli utenti a definire le migliori pratiche di codifica e l’architettura del progetto.
In particolare, implica l’incorporamento di istruzioni attentamente realizzate all’interno di file di regole apparentemente benigne, causando lo strumento AI per generare codice contenente vulnerabilità di sicurezza o backdoor. In altre parole, le regole avvelenate spingono l’intelligenza artificiale a produrre un codice nefasto.
Ciò può essere realizzato utilizzando falegnami a larghezza zero, marcatori di testo bidirezionale e altri caratteri invisibili per nascondere istruzioni dannose e sfruttando la capacità dell’intelligenza artificiale di interpretare il linguaggio naturale per generare codice vulnerabile tramite modelli semantici che inducono il modello a sovrascrivere i vincoli etici e di sicurezza.
A seguito di una divulgazione responsabile a superb febbraio e marzo 2024, sia il cursore che il GIHUB hanno dichiarato che gli utenti sono responsabili della revisione e dell’accettazione di suggerimenti generati dagli strumenti.
“” Regole File Backdoor “rappresenta un rischio significativo armando l’IA stessa come vettore di attacco, trasformando efficacemente l’assistente più affidabile dello sviluppatore in un complice inconsapevole, colpendo potenzialmente milioni di utenti finali attraverso software program compromesso”, ha affermato Karliner.
“Una volta che un file di regole avvelenato è stato incorporato in un repository di progetto, influisce su tutte le future sessioni di generazione di codice da parte dei membri del staff. Inoltre, le istruzioni dannose spesso sopravvivono al progetto, creando un vettore per gli attacchi della catena di approvvigionamento che possono influenzare le dipendenze a valle e gli utenti finali.”