IT

 

 

30 ott 2025 15:04 ottobre 2025

Small Language Model: un modello più sostenibile di GenAI

L’introduzione dei language model ha dato un impulso esponenziale alle applicazioni di AI.

Small Language Model: un modello più sostenibile di GenAI

Focus

Ma, se da un lato i large language model aprono a nuove opportunità, siamo sicuri che gli utenti abbiano sempre bisogno di strumenti tanto potenti quanto energivori? Sono molte le aziende e gli individui per cui sono sufficienti modelli più compatti ma non per questo meno intelligenti. È qui che entrano in gioco di small language model (SLM).

Piccolo è bello

Gli SLM sono modelli linguistici con un numero di parametri significativamente inferiore rispetto ai LLM. Se questi ultimi possono arrivare a centinaia di miliardi di parametri, gli SLM ne utilizzano spesso poche decine di milioni o, al massimo, qualche miliardo. Già questo è un risultato importante in termini di impiego di risorse ma il vero valore degli SLM sta nella loro capacità di svolgere compiti specifici con maggiore efficienza e rapidità e in un costo significativamente più contenuto.

Dall’Edge ai personal assistant

Quali sono le applicazioni per cui gli SLM risultano particolarmente adatti? E dove eccellono rispetto ai LLM? Gli SLM brillano nelle applicazioni edge, che richiedono di eseguire carichi di lavoro AI direttamente su dispositivi come smartphone, tablet, robot domestici, droni o sensori IoT.

La loro agilità permette di integrarli dove la potenza di calcolo è limitata e la connessione a Internet non sempre garantita. Pensiamo agli assistenti vocali negli smartphone di ultima generazione: grazie agli SLM, le risposte vocali possono essere generate direttamente sul dispositivo, senza inviare dati sensibili al cloud, aumentando privacy e velocità di risposta.

Un altro campo in forte espansione riguarda i chatbot e i sistemi di customer service. Non sempre l’interazione con l’utente richiede la potenza di un LLM; per rispondere a domande frequenti, gestire prenotazioni o fornire supporto tecnico di base, un SLM risulta non solo sufficiente ma anche più sicuro e controllabile.

Sostenibilità e privacy

La questione ambientale è probabilmente il maggiore punto di forza degli SLM. L’addestramento e il funzionamento quotidiano dei LLM richiedono enormi quantità di energia elettrica e acqua, utilizzata nel raffreddamento delle server farm, con impatti ambientali significativi. Un recente studio di Google e della University of California, Riverside, ha stimato che l’addestramento di GPT-3 ha richiesto centinaia di megawattora di energia e milioni di litri d’acqua per il raffreddamento dei data center.

Gli SLM, al contrario, possono essere addestrati e fatti funzionare con consumi molto più contenuti. Infatti, la possibilità di eseguire operazioni in locale limita anche la necessità di continui scambi di dati con server remoti, riducendo i consumi associati al traffico internet e al mantenimento dei data center. La riduzione dei consumi non riguarda solo l’energia elettrica: anche il fabbisogno di acqua si riduce drasticamente quando i modelli sono piccoli e girano su dispositivi personali o piccoli server locali.

Anche la privacy beneficia dall’implementazione degli SLM: l’esecuzione locale elimina o riduce drasticamente la necessità di inviare dati sensibili su server esterni, mitigando i rischi di violazione e aumentando la fiducia degli utenti. Questo aspetto diventa ancora più cruciale con l’entrata in vigore di regolamenti sempre più stringenti in tema di protezione dei dati, come il GDPR europeo.

Limiti e prospettive future

Naturalmente, gli SLM non sono adatti a qualsiasi applicazione. La loro capacità di “generalizzare” resta inferiore rispetto ai LLM nei compiti estremamente complessi o nei casi in cui sia necessaria una conoscenza estesa. Va pur detto che l’avvento delle tecniche di distillazione e fine-tuning permette di ottenere prestazioni notevoli anche con modelli di dimensioni contenute.

In futuro, ci possiamo aspettare di avere un ecosistema misto, in cui i LLM verranno utilizzati per compiti ad alto impatto e centralizzati, mentre gli SLM saranno sempre più diffusi nell’uso quotidiano, personale e professionale, come “copiloti” discreti ed efficienti.

La vera innovazione, oggi, non sta più tanto nel creare modelli sempre più grandi e affamati di risorse, quanto nel saper costruire soluzioni intelligenti, sostenibili e accessibili. Gli SLM sono un passo deciso in questa direzione: meno spreco, più efficienza, maggiore privacy, ampia accessibilità.

Tre domande a

  • Roberto Fraccapani, Head of Solution and Architect Advisor, SAP Italia

In questo numero ospitiamo Roberto Fraccapani che ci porta il punto di vista di SAP sulle applicazioni dell’intelligenza artificiale tra le aziende italiane e la sua visione delle prossime applicazioni di questa tecnologia.

Dal vostro osservatorio privilegiato, quali sono oggi le principali motivazioni che spingono le aziende italiane a investire nell’intelligenza artificiale?

Abbiamo appena presentato a “SAP NOW AI Tour” i risultati dello studio SAP “Business and Technology Priorities”, che evidenzia come le aziende italiane stiano puntando sull’intelligenza artificiale generativa come leva strategica per la crescita e la semplificazione. L’indagine, condotta su 12.000 decision maker a livello mondiale e 575 in Italia, mostra che le nostre imprese investono soprattutto in efficienza, integrazione dei sistemi e innovazione guidata dall’AI, per affrontare un contesto economico sempre più complesso e incerto.

Le imprese italiane guardano all’AI non solo come strumento di automazione ma come motore di ripensamento dei processi: il 69,4% di chi utilizza agenti di AI ha già rivisto il modello procure-to-pay. Infine, la GenAI sta contribuendo in modo tangibile alla riduzione dei costi operativi, in particolare nella supply chain, dove il 50% delle aziende segnala risparmi significativi.

In che modo SAP aiuta le aziende a sviluppare la cultura dell’innovazione necessarie per sfruttare al meglio l’AI?

SAP supporta le aziende nello sviluppo di una cultura dell’innovazione che metta le persone al centro della trasformazione digitale. Lo facciamo organizzando incontri, confronti, condivisione di best practice e, non ultimo, grazie alle nostre soluzioni dove l’AI si integra nativamente nei processi di business, consentendo alle persone di sperimentare e generare valore in modo semplice, concreto, e sicuro.

Abbiamo inoltre programmi di formazione continua e co-innovazione, che accompagnano clienti e partner nell’acquisizione delle competenze necessarie per comprendere e utilizzare l’AI in modo responsabile.

Su questo ultimo aspetto, le aziende italiane sono molto sensibili. Il nostro studio ha messo in evidenza la consapevolezza estesa che un’implementazione di successo dell’AI richiede competenze specifiche: il 35,5% degli intervistati ha dichiarato di inserire lo sviluppo o l’espansione delle competenze e dei talenti fra le aree di focalizzazione della propria organizzazione per sostenere la crescita del business.

In quali aree aziendali l’AI sta producendo i risultati più tangibili in termini di efficienza e riduzione dei costi? Quali sviluppi vedete nel prossimo futuro?

L’AI sta generando i risultati più concreti in aree chiave come finance, supply chain, vendite e risorse umane. Nel finance, automatizza attività contabili e di controllo, riducendo errori manuali e tempi di chiusura. Nella supply chain, migliora la previsione della domanda e la gestione degli stock, ottimizzando costi e sostenibilità. Per i processi di vendita e marketing, consente una personalizzazione su larga scala, aumentando l’efficacia commerciale. Nelle risorse umane, semplifica il recruiting e aumenta il coinvolgimento dei dipendenti.

Guardando al futuro, vediamo una rapida evoluzione verso sistemi pienamente integrati, dove l’AI generativa diventa un copilota che supporta ogni decisione aziendale. L’obiettivo è passare dall’efficienza operativa all’intelligenza diffusa, in grado di rendere le imprese sempre più agili, resilienti e competitive

News dal mondo social

LinkedIn userà i dati degli utenti per addestrare l’AI

Dal 3 novembre LinkedIn impiegherà anche le informazioni personali degli utenti europei per addestrare modelli di genAI. La modifica, annunciata attraverso una notifica e un aggiornamento ai termini di servizio e della privacy, consentirà alla piattaforma di utilizzare i dati pubblici dei profili per migliorare i propri strumenti AI.

Twitter.com sparirà dal 10 novembre

Si chiude l’era del “vecchio” Twitter. Il 10 novembre, X Corp, la società che gestisce X, dismetterà il dominio twitter.com, che ha segnato la storia del social fondato nel 2006 da Jack Dorsey, Noah Glass, Biz Stone ed Evan Williams.

Youtube lancia uno strumento per rilevare i deepfake

YouTube sta iniziando a rendere disponibile ai membri del programma partner un nuovo strumento per riconoscere i deepfake. Denominato "likeness detection", lo strumento segnala i casi in cui il volto di un individuo è stato utilizzato o modificato senza consenso dall'intelligenza artificiale per realizzare un nuovo video.

News dal mondo dell'editoria

Aumentano le intimidazioni ai giornalisti

L’attentato a Sigfrido Ranucci è l’ultimo segnale di una tendenza violenta che prende di mira gli operatori media. Un’indagine condotta dall’associazione Ossigeno per l’Informazione indica che nel primo semestre di quest’anno i cronisti che hanno subìto intimidazioni in Italia sono stati 361, contro i 203 dello stesso periodo nel 2024, un aumento del 78%.

Nasce il Children’s Booker Prize con tre bambini in giuria

La Booker Prize Foundation ha annunciato la creazione di un nuovo riconoscimento letterario, il Children’s Booker Prize, che assegnerà 50mila sterline al miglior romanzo destinato ai lettori tra gli 8 e i 12 anni. Per la prima volta nella storia della Fondazione la giuria sarà composta da tre adulti e tre bambini.

Il Sole 24 Ore incontra i lettori al MUDEC di Milano

Il Sole 24 Ore organizza il prossimo 9 novembre l’evento “160 ANNI insieme: informare, partecipare, crescere” negli spazi del Mudec a Milano. Sarà una giornata speciale, aperta a tutti i lettori, con tavole rotonde, interviste e incontri con le più importanti personalità del mondo dell’impresa, della politica e di editoria e cultura, moderati dalle firme del quotidiano.

A Washington la terza edizione degli Italpress Awards

La terza edizione del premio che onora le importanti personalità italiane
e italoamericane che valorizzano e promuovono l’eccellenza del Made in Italy nel mondo, si è tenuta nell’ambito della Cena di Gala della National Italian American Foundation.

Best practice

SAP NOW AI Tour Milan: app, dati e AI per l’innovazione e l’agilità delle aziende italiane

Più di 1.900 visitatori hanno partecipato, lo scorso 15 ottobre, a SAP NOW AI Tour Milan, l’evento che da oltre 30 anni rimane un punto di riferimento per la business community italiana. Oltre 100 appuntamenti fra Panel, Customer talk, demo e interventi di clienti e partner SAP hanno animato la giornata, accomunati da un unico tema: l’impegno ad aiutare le aziende italiane a dare il meglio di sé grazie all’innovazione e all’intelligenza artificiale per affrontare l’incertezza con i giusti strumenti.

SAP NOW AI Tour Milan è stata l’occasione per presentare in Italia una nuova generazione di assistenti di AI integrati nel copilota Joule, basati sulle app e i dati di SAP Business Suite e sui ruoli delle persone che devono aiutare. La soluzione riporta al centro le persone e le loro sfide di business, permettendo di prendere decisioni velocemente e agire in modo più efficiente.

Parola del mese

Knowledge distillation

Nell’ambito del machine learning, la knowledge distillation, cioè la distillazione della conoscenza o distillazione del modello, è il processo di trasferimento della conoscenza da un modello di grandi dimensioni a uno più piccolo. Sebbene i modelli di grandi dimensioni abbiano una maggiore capacità di conoscenza rispetto ai modelli di piccole dimensioni, questa capacità potrebbe non essere pienamente utilizzata.

Valutare un modello può essere altrettanto costoso dal punto di vista computazionale, anche se utilizza solo una piccola parte della sua capacità di conoscenza. La knowledge distillation trasferisce la conoscenza da un modello di grandi dimensioni a uno di dimensioni inferiori senza perdita di validità. Poiché i modelli di dimensioni inferiori sono meno costosi da valutare, possono essere implementati su hardware meno potente.