Decisione go/no‑go motivata
Un quadro dei rischi con esempi concreti che permette a board e C‑level di decidere se andare in produzione, con quali limiti e in che tempi.
0. Overview
L’audit AI è una revisione strutturata del sistema che usa modelli generativi: non solo il modello, ma anche prompt, dati, tool e processi che lo circondano.
Serve a capire se un LLM o un agente può essere manipolato per estrarre dati, eseguire azioni non previste o aggirare i controlli che oggi sembrano sufficienti.
Domanda chiave
Cosa può succedere di peggio se qualcuno prova attivamente a forzare il tuo sistema AI?
Obiettivo
Passare da “speriamo vada bene” a una decisione go/no‑go basata su scenari concreti e remediation verificabile.
1. Perché serve l’audit
2. Superfici d’attacco
3. Processo
Mappiamo use‑case, dati coinvolti, integrazioni e decisioni che l’AI influenza, così da concentrare i test sui punti che contano davvero.
Eseguiamo scenari di attacco mirati (prompt injection, esfiltrazione, abuso di tool) documentando esattamente cosa è stato provato e con quali risultati.
Produciamo una lista di fix con priorità, owner e criteri di accettazione, più i test per verificare che la vulnerabilità sia effettivamente chiusa.
4. Output
Un quadro dei rischi con esempi concreti che permette a board e C‑level di decidere se andare in produzione, con quali limiti e in che tempi.
Findings e fix pensati per essere trasformati in ticket, task di roadmap e controlli ripetibili nel tuo ciclo di sviluppo.
Test e checklist che puoi riutilizzare quando cambi modello, integrazioni o apri nuovi use‑case basati su AI.