Il cuore dell’AI Act è il principio della proporzionalità: non tutte le applicazioni di intelligenza artificiale sono uguali, e di conseguenza non devono rispettare gli stessi requisiti. Per questo il regolamento europeo introduce una classificazione dei sistemi IA basata sul livello di rischio, suddivisa in quattro categorie. Comprendere in quale classe rientra un sistema è essenziale per sapere quali obblighi applicare e quali limiti rispettare.
La prima categoria è quella a rischio minimo o nullo. Qui rientrano le applicazioni più diffuse e meno problematiche, come i filtri antispam o i sistemi di automazione semplice. Gli obblighi per queste soluzioni sono ridotti e si limitano al rispetto delle normative generali già esistenti in materia di privacy, sicurezza e responsabilità dei prodotti.
Segue il rischio limitato, che riguarda i sistemi che interagiscono direttamente con gli utenti ma senza incidere in modo significativo sui loro diritti. In questi casi la principale misura richiesta è la trasparenza: l’utente deve sapere quando sta interagendo con un’intelligenza artificiale e comprendere che i contenuti generati hanno natura artificiale. Chatbot, assistenti virtuali e sistemi di raccomandazione rientrano tipicamente in questa categoria.
La terza categoria è quella ad alto rischio, che interessa i sistemi capaci di influenzare in modo sostanziale la vita delle persone. Si tratta di applicazioni utilizzate in settori critici come sanità, finanza, istruzione, trasporti o sicurezza pubblica. Qui gli obblighi diventano molto più stringenti: documentazione tecnica completa, valutazioni d’impatto sui diritti fondamentali, supervisione umana, registrazione dei sistemi in una banca dati europea e audit periodici.
Infine, ci sono i sistemi a rischio inaccettabile, considerati incompatibili con i valori europei e quindi vietati. Ne fanno parte, ad esempio, i sistemi di social scoring generalizzato, la sorveglianza biometrica in tempo reale in spazi pubblici, le tecniche di manipolazione subliminale o lo sfruttamento di vulnerabilità di soggetti fragili. In questi casi non è previsto alcun margine di conformità: il divieto è totale.
Per le imprese, saper collocare correttamente i propri sistemi è fondamentale. Una classificazione errata può comportare violazioni gravi e sanzioni rilevanti, mentre un’analisi accurata consente di adottare le misure necessarie in modo proporzionato. L’AI Act non è solo una legge, ma uno strumento per garantire che lo sviluppo e l’uso dell’intelligenza artificiale avvengano in un quadro sicuro, trasparente e sostenibile.








