18457

TrendAI accende i riflettori su una vulnerabilità emergente destinata a cambiare il paradigma della sicurezza informatica: più l’intelligenza artificiale impara, più diventa un bersaglio strategico per i cybercriminali. È quanto emerge dallo studio “AI Skills as an Emerging Attack Surface in Critical Sectors: Enhanced Capabilities, New Risks”, che analizza l’evoluzione delle cosiddette “AI skills” come nuova superficie di attacco nei settori critici.

Secondo la ricerca, l’adozione massiva dell’AI nelle organizzazioni – accelerata dalla carenza di competenze specialistiche e dalla crescente pressione operativa – sta producendo un effetto collaterale inatteso. L’intelligenza artificiale non si limita più ad automatizzare processi: codifica silenziosamente competenze sensibili, logiche decisionali, workflow interni e modelli di risposta agli incidenti. In altre parole, trasforma la conoscenza istituzionale in codice eseguibile.

Ed è proprio questo patrimonio di conoscenze strutturate a rappresentare oggi un obiettivo di altissimo valore per gli attaccanti.

SOC e settori critici nel mirino

Gli ambienti più esposti risultano essere i Security Operations Center (SOC), cuore operativo della difesa aziendale. L’eventuale accesso illecito alle competenze dell’AI impiegata in questi contesti potrebbe rivelare logiche di classificazione degli alert, regole di correlazione, priorità di intervento e meccanismi di risposta automatizzata.

Un attaccante che comprendesse tali dinamiche avrebbe la possibilità di modellare attacchi capaci di eludere il rilevamento, manipolare la gravità degli incidenti o addirittura non attivare alcun allarme.

Ma il rischio non si limita alla cybersecurity pura. Lo studio evidenzia scenari analoghi nel settore finanziario, dove la compromissione delle competenze AI potrebbe interferire con algoritmi di trading, e in ambito sanitario, dove la manipolazione dei sistemi intelligenti potrebbe influenzare processi decisionali clinici. Pubblica amministrazione e industria completano un quadro in cui l’intelligenza artificiale diventa non solo uno strumento difensivo, ma anche un potenziale vettore di vulnerabilità sistemica.

Perché i sistemi tradizionali non bastano

Un elemento critico sottolineato da Trend Micro – di cui TrendAI è business unit specializzata nella sicurezza dell’intelligenza artificiale – riguarda l’inadeguatezza degli strumenti tradizionali.

Le “AI skills” non sono semplicemente file eseguibili o codice binario facilmente riconoscibile tramite firme digitali. Sono in larga parte costituite da testo non strutturato, istruzioni semantiche e logiche descrittive che richiedono capacità di comprensione contestuale per essere analizzate e protette. Questo rende inefficaci molti meccanismi di difesa basati sul rilevamento statico.

Il rischio viene ulteriormente amplificato dall’esposizione pubblica involontaria di conoscenze tramite repository aperti o archivi non adeguatamente protetti, che possono offrire agli attaccanti informazioni preziose sulla struttura interna dei sistemi AI.

Una nuova kill chain per le AI skills

La ricerca introduce anche un modello inedito di kill chain dedicato alla compromissione delle competenze AI. Il ciclo di attacco non si concentra più solo su infrastrutture e credenziali, ma punta all’acquisizione, all’analisi e alla manipolazione delle capacità decisionali dell’intelligenza artificiale stessa.

In questo scenario, la sottrazione delle AI skills equivale, di fatto, alla sottrazione della mappa cognitiva dell’organizzazione: come rileva una minaccia, come la classifica, quali soglie attiva, quali risposte automatizza.

Marco Fanuli, Technical Director di TrendAI Italia, sintetizza così il rischio: quando un malintenzionato entra in possesso delle competenze dell’intelligenza artificiale, può comprendere come la vittima “vede, pensa, decide e risponde”. Un vantaggio competitivo che altera radicalmente l’equilibrio tra difesa e attacco.

Le contromisure: governance e controllo degli accessi

La raccomandazione chiave dello studio è netta: le competenze dell’intelligenza artificiale devono essere trattate come proprietà intellettuale sensibile. Non più semplici configurazioni operative, ma asset strategici.

Questo implica l’adozione immediata di rigorosi controlli di accesso, sistemi di monitoraggio continuo, validazione costante delle competenze AI e una governance strutturata della loro gestione e distribuzione. L’obiettivo è evitare che la conoscenza codificata diventi una backdoor invisibile.

In questa prospettiva si inserisce l’offerta di TrendAI Vision One, piattaforma enterprise potenziata dall’intelligenza artificiale che centralizza la gestione dell’esposizione al rischio e le operazioni di sicurezza, offrendo una protezione multilivello in ambienti on-premise, ibridi e multi-cloud. Il sistema integra intelligence globale sulle minacce e consente una visione unificata della superficie di attacco.

Una nuova consapevolezza strategica

La trasformazione della conoscenza in codice rappresenta una delle evoluzioni più profonde dell’era dell’intelligenza artificiale. Se da un lato aumenta l’efficienza e la capacità predittiva delle organizzazioni, dall’altro crea una nuova classe di asset da proteggere.

Il messaggio lanciato da TrendAI è chiaro: l’AI non è soltanto uno strumento da difendere, ma un patrimonio cognitivo da governare con logiche di sicurezza avanzate. In un contesto in cui le minacce evolvono con la stessa rapidità dell’innovazione tecnologica, ignorare questa nuova superficie di attacco significherebbe esporsi a rischi sistemici difficilmente recuperabili.

L’intelligenza artificiale, dunque, non è più solo parte della soluzione. È diventata parte integrante del perimetro da proteggere.