Tre domande a

- Natasha Perfetti, Marketing Director, SB Italia
In questo numero Natasha Perfetti ci porta il suo punto di vista sull’importanza di regolamentare un territorio complesso come l’AI e su quali vantaggi, sfide e opportunità derivino dall’operare nel contesto delle nuove normative.
SB Italia è stata la prima azienda italiana a ottenere la certificazione ISO/IEC 42001 per la gestione dell’AI: quali sono stati i principali motivi che vi hanno spinto a intraprendere questo percorso e quali vantaggi concreti avete riscontrato fino ad oggi?
Abbiamo scelto di intraprendere il percorso verso la certificazione ISO/IEC 42001 con grande convinzione, ben prima che diventasse un tema di tendenza. L’obiettivo non era “certificarsi” per primi, ma costruire un framework solido, trasparente e governato per la gestione dell’Intelligenza Artificiale.
Come azienda che sviluppa soluzioni proprietarie basate su AI — come la piattaforma AI-Docs — sentivamo la responsabilità di adottare un approccio serio, etico e sostenibile, capace di proteggere i dati, tutelare gli utenti e garantire la qualità dei risultati.
I vantaggi che abbiamo riscontrato sono molteplici: da un lato, abbiamo migliorato la nostra capacità di governare i progetti AI in modo tracciabile, definendo ruoli, responsabilità e processi di controllo. Dall’altro, la certificazione ci ha aiutato a rafforzare la fiducia dei clienti e dei partner, dimostrando concretamente il nostro impegno verso una tecnologia sicura e trasparente.
ISO 42001 non è stato un traguardo formale, ma un vero acceleratore culturale e organizzativo, che ha rafforzato la nostra visione strategica sull’AI.
Quanto è importante, secondo voi, il ruolo degli standard internazionali per guidare lo sviluppo responsabile dell’AI e quale direzione pensate prenderà il settore nei prossimi anni sotto questo punto di vista?
Gli standard internazionali rappresentano una bussola fondamentale per guidare lo sviluppo dell’AI in modo equilibrato, responsabile e orientato al valore.
L’Intelligenza Artificiale, per sua natura, introduce elementi nuovi e complessi: opacità nei modelli, variabilità dei risultati, dipendenza dalla qualità dei dati, impatti non sempre prevedibili. In questo contesto, strumenti come l’ISO/IEC 42001 e normative come l’AI Act europeo offrono un quadro chiaro per affrontare il tema non solo come innovazione tecnologica, ma come responsabilità collettiva.
Nei prossimi anni, è prevedibile che il settore si muova in una doppia direzione:
- da un lato verso una maggiore regolamentazione, che impone standard minimi e trasparenza nei modelli;
- dall’altro verso una maturità organizzativa, dove le aziende adotteranno in modo strutturato sistemi di gestione dell’AI, integrandoli nei propri processi di governance, risk management e compliance.
Chi saprà muoversi in questa direzione — anticipando piuttosto che rincorrere — sarà più credibile, competitivo e sostenibile nel lungo periodo.
Avete recentemente pubblicato “AI Compliance e Certificazione”, un manuale che affronta il tema della gestione dei rischi legati all’intelligenza artificiale: quali sono, secondo te, le principali sfide che individui, organizzazioni e società devono affrontare oggi in questo ambito e come possono essere efficacemente gestite?
Le sfide legate all’adozione dell’AI sono complesse, interconnesse e riguardano aspetti tecnici, organizzativi ed etici.
A livello tecnico, una delle criticità più rilevanti è la qualità dei dati: senza dati puliti, coerenti e tracciabili, qualsiasi modello rischia di produrre risultati distorti. Inoltre, l’integrazione tra sistemi AI e architetture aziendali già esistenti è spesso complessa e richiede una riprogettazione profonda.
Dal punto di vista organizzativo, l’ostacolo più diffuso è la resistenza al cambiamento. L’AI modifica ruoli, competenze e responsabilità, e questo può generare timori e incertezza. Solo un approccio graduale, inclusivo e fortemente orientato alla formazione può trasformare il timore in opportunità.
Infine, non si può ignorare l’aspetto etico e sociale. L’AI non è mai neutra: i modelli riflettono i dati su cui sono addestrati, e questo comporta rischi di bias, discriminazioni o decisioni non trasparenti. È fondamentale agire in modo responsabile, definendo regole chiare, meccanismi di controllo e policy di utilizzo.
Nella nostra esperienza, l’approccio più efficace è stato quello di unire tecnologia e governance, partendo da progetti pilota, coinvolgendo tutte le funzioni aziendali e adottando riferimenti normativi solidi come la ISO 42001.
La vera sfida non è domare l’AI, ma renderla alleata del business e della società, nel rispetto dei valori umani.