AI TRISM è un acronimo coniato da Gartner, formato dalle iniziali delle parole Trust, Risk, Security Management. Il suo obiettivo è definire un framework grazie al quale le aziende possano identificare e mitigare i rischi relativi all’affidabilità e alla sicurezza nelle soluzioni di intelligenza artificiale adottate.
Il paradigma TRISM coinvolge il management aziendale in una riflessione a tutti i livelli sulle implicazioni etiche e sui rischi relativi a sicurezza e privacy correlati all’utilizzo di LLM o di agent che si interfaccino alle API di un LLM.
La metodologia TRISM si focalizza su quattro attività principali:
- Spiegare e monitorare il modello in modo da avere una chiara comprensione di come elabori le informazioni e prenda decisioni.
- Perfezionare, testare e aggiornare continuamente un modello dopo che sia stato distribuito.
- Proteggere la sicurezza delle applicazioni AI e dei loro dati.
- Garantire la privacy e l’adesione ai principi di governance.
Perché è importante investire in TRISM
L’intelligenza artificiale si è abbattuta come uno tsunami sulle abitudini lavorative, rivelando potenzialità prima inimmaginabili ma portando alla luce anche nuove criticità.
L’introduzione in azienda di applicazioni basate sull’intelligenza artificiale deve essere consapevole, organica e concertata tra il management, il CIO e i diversi reparti dell’organizzazione. Lo scopo è evitare fenomeni di Shadow AI che potrebbero portare alla fuoriuscita dal perimetro aziendale di proprietà intellettuali, causare rischi per la sicurezza informatica oppure comportamenti eticamente ambigui.
L’adozione del framework TRISM fornisce al CIO un pattern per analizzare, implementare e gestire le applicazioni di intelligenza artificiale all’interno della propria organizzazione, aiutandolo a monitorare le criticità e garantendogli la compliance alle normative vigenti.
Conoscenza del modello
La base dell’attività TRISM è la conoscenza delle logiche interne del modello, sia a livello di pipeline di training, sia di agent interfacciati e trigger di azionamento.
Non è richiesta una familiarità col sorgente degli algoritmi di apprendimento, ma è necessario avere una conoscenza esaustiva del flusso logico almeno dal punto di vista del blue print analitico. Conoscere le librerie utilizzate dalla pipeline permette di individuare eventuali criticità dal punto di vista dei flussi di dati, portando alla luce superfici di attacco che potrebbero facilitare leak di informazioni riservate. Conoscere i criteri decisionali del modello permette anche di stabilire la compliance con le guideline dell’azienda e la necessità o meno di dover applicare filtri per mantenere le risposte del modello coerenti con i principi etici.
ModelOps
Esattamente come nello sviluppo software SaaS è (buona) pratica diffusa l’utilizzo di strumenti di versioning, rilascio e test delle applicazioni, così anche per l’AI si rende necessaria una pipeline di gestione successiva alla messa in produzione del modello (ModelOps)
Questa pipeline operazionale ha il compito di raccogliere dati sulle prestazioni, sulle risposte e sugli errori del modello, e impiegarli come base per rilasci di successivi aggiornamenti, il tutto gestito in un ciclo continuo di test e deploy semi automatici. In questo modo il modello beneficia di un costante affinamento per raggiungere scostamenti ed errori sempre più contenuti. Per modelli particolarmente consolidati, l’attività di ModelOps può anche essere sottomessa a una pipeline di MLOps, in cui il ciclo di deploy e test del modello è gestito da un software di Machine Learning, raggiungendo in questo modo una sorta di ideale chiusura del cerchio.
AI Application Security
L’utilizzo dell’intelligenza artificiale introduce nuove criticità relative alla security informatica. Nel caso di applicazioni basate su agent, si rende necessario il monitoraggio e la messa in sicurezza delle API. Se, invece, l’utilizzo del modello avviene tramite prompt, è comunque necessario fornire agli utenti delle linee guide precise sulle informazioni che possono essere condivise con il LLM. Occorre anche tenersi informati sugli aggiornamenti del LLM impiegato, per quanto rilasciato da una fonte ritenuta sicura: esattamente come avviene per il software normale, continuare a utilizzare una versione datata del LLM potrebbe esporci a bug che ne compromettono la sicurezza.
Privacy
L’argomento della privacy rimane di forte attualità, soprattutto nel caso si decida di fare esperimenti con LLM non mainstream ma con verticali di nicchia (per esempio, dedicati alla generazione di specifici tipi di immagini). In questo caso occorre verificare nei TOS del produttore le implicazioni relative all’acquisizione e alla potenziale cessione delle informazioni immesse nel prompt o comunicate alle API. Anche fornire delle linee guida interne, che comunichino in modo preciso agli utenti quali dati si possano condividere con l’AI, sarà sicuramente di aiuto.
Schedulazione delle attività TRISM
Per garantire l’efficacia dell’approccio TRISM, è essenziale applicare regolarmente e in modo continuativo le attività precedentemente elencate. È consigliabile designare un responsabile aziendale incaricato di programmare monitoraggi periodici e chiamate di follow-up mirate. Se la gestione dell’aspetto ModelOps risulta troppo tecnica per le competenze interne disponibili, è possibile delegarla a un partner esterno o concordarla direttamente con il fornitore degli agenti o del modello.