Ricerca accademica e industriale: perché il dialogo è fondamentale per l’innovazione?

L’intelligenza artificiale sta trasformando profondamente i modelli di innovazione e produzione, ma la sua efficacia dipende sempre più dalla qualità dei dati con cui viene addestrata.

In questo contesto, la collaborazione tra ricerca accademica e industria non è solo auspicabile, ma necessaria. Ne abbiamo parlato con il Prof. Carlo Sansone – professore ordinario presso l’Università Federico II di Napoli e Board vice President del progetto FAIR – Future AI Research – e il Prof. Sergio Di Martino, professore ordinario presso l’Università Federico II di Napoli e Principal Investigator dello Spoke 3 di FAIR dedicato alla Resilient AI a cui partecipa anche SADAS.

Al centro del progetto: dati in-the-wild, algoritmi resilienti e affidabili, e un modello virtuoso di innovazione aperta, che punta a creare un ponte solido tra mondo accademico e imprese.


Prof. Carlo Sansone

Professore, si parla sempre più spesso di trustworthy AI. Quali sono i valori imprescindibili, i pilastri fondamentali affinché queste tecnologie siano affidabili?

Sono molti gli aspetti di cui bisogna tenere conto. Uno dei primi è senz’altro la trasparenza: oggi si parla molto, per esempio, di Agentic Models, e uno dei problemi principali è che spesso non sappiamo esattamente con quali dati siano stati addestrati. Anche modelli che si presentano come “open” in realtà non sempre chiariscono in modo trasparente cosa c’è dietro la fase di training. E questo, chiaramente, pone dei limiti in termini di fiducia.

Poi c’è il tema dei Bias, che è altrettanto centrale. È un campo su cui stiamo lavorando anche nel nostro Spoke, sviluppando algoritmi per il debiasing. Li stiamo applicando inizialmente all’ambito medicale, ma l’idea è che possano essere estesi anche ad altri settori.

Un altro punto chiave è la spiegabilità dei modelli — l’explainability, per usare il termine tecnico. È importante che i sistemi di AI riescano a dare risposte comprensibili. Su questo fronte la ricerca si sta muovendo molto: ci sono contesti in cui siamo già a buon punto, altri in cui c’è ancora parecchio da fare.

Una nota importante riguarda però il fatto che trasparenza e spiegabilità, pur essendo valori fondamentali, possono a loro volta esporre i sistemi a rischi di sicurezza, in particolare a possibili attacchi da parte di attori malevoli. Quindi è importante trovare un equilibrio: da un lato vogliamo sistemi più leggibili, dall’altro però dobbiamo saperli proteggere. È una sfida che richiede molta attenzione.

In riferimento alla domanda precedente, consolidata l’affidabilità tecnologica, secondo lei, come si può costruire maggior fiducia intorno all’impiego dell’AI?

Se vogliamo costruire una fiducia più solida attorno all’uso dell’intelligenza artificiale, dobbiamo partire da un punto chiave: la consapevolezza. Quello che oggi si definisce AI Literacy è fondamentale. Serve una comprensione più diffusa non solo all’interno della comunità scientifica e industriale, ma anche tra i cittadini.

Oggi, sentiamo parlare molto di intelligenza artificiale, ma spesso senza una reale conoscenza del funzionamento dei sistemi che la rendono possibile. Per questo, è indispensabile investire sia nella formazione sia nell’informazione, a tutti i livelli. In questo senso, l’università ha un duplice ruolo: da un lato quello tradizionale, legato alla formazione accademica; dall’altro, quello della cosiddetta terza missione, ovvero il contributo alla diffusione della cultura scientifica nella società. Non a caso, veniamo spesso coinvolti in seminari, conferenze e altri contesti divulgativi con l’obiettivo di spiegare in modo chiaro e accessibile i principi alla base dell’AI, aiutando così le persone a comprendere sia ciò che queste tecnologie possono realisticamente offrire, sia ciò che è ancora al di fuori delle loro possibilità.

Questo è particolarmente importante in un momento storico come quello attuale, in cui le aspettative nei confronti dell’AI sono molto elevate, talvolta persino eccessive. La storia dell’intelligenza artificiale ci insegna che ci sono stati cicli di entusiasmo seguiti da momenti di disillusione – i cosiddetti “inverni dell’AI”. Oggi viviamo una fase di forte attenzione mediatica e pubblica, ma è probabile che anche in questo caso alcune aspettative vengano ridimensionate.

Per questo motivo, fornire una visione equilibrata e aggiornata sul reale stato dell’arte della ricerca e dello sviluppo tecnologico è un passaggio cruciale per alimentare una fiducia matura e informata.

Guardando al futuro, quali condizioni ritiene indispensabili affinché il modello di innovazione aperta, promosso anche attraverso questo progetto, diventi un elemento strutturale e duraturo della ricerca italiana?

Se vogliamo che il modello di innovazione aperta di questo progetto diventi davvero parte stabile della ricerca italiana, è indispensabile affrontare innanzitutto il tema della sostenibilità economica. La continuità e l’efficacia di questo approccio dipendono dalla capacità di garantire investimenti costanti, che permettano sia la prosecuzione delle attività di ricerca sia la formazione e il consolidamento di nuove figure professionali.

Uno degli ostacoli principali che ci troviamo ad affrontare oggi è rappresentato dall’incertezza sul lungo periodo. Il PNRR ha indubbiamente offerto un impulso economico significativo, ma resta il problema di come trattenere, nel tempo, le competenze e i talenti che stiamo formando all’interno di questi progetti. In questo senso, la definizione di programmi strutturati e di lungo respiro diventa un elemento importante: solo così è possibile offrire stabilità e incentivare una programmazione strategica più ampia e sostenibile.

Anche la collaborazione tra pubblico e privato è importante. Il modello del partenariato esteso, come quello adottato dal progetto FAIR, rappresenta un esempio virtuoso di questa sinergia. Nonostante alcune difficoltà iniziali legate alla fase di avvio, il meccanismo si sta dimostrando efficace e merita di essere valorizzato e portato avanti nel tempo.

Alcune iniziative stanno già mostrando una tendenza verso questa direzione, ma l’orizzonte temporale resta ancora troppo limitato. L’auspicio è che si possa maturare una visione più a lungo termine, in grado di garantire stabilità alla ricerca e consentire una pianificazione meno condizionata da vincoli a breve termine. Solo così l’innovazione aperta potrà davvero consolidarsi come asse portante della ricerca italiana.

È innegabile che l’impiego dell’intelligenza artificiale vedrà una crescita costante nel prossimo futuro. Come si configura, secondo lei, la componente umana nelle professioni del domani?

La componente umana, secondo me, continuerà a rivestire un ruolo centrale nelle professioni del futuro. Non a caso, una parte consistente dei dipartimenti universitari è coinvolta nello Spoke 3, proprio perché oggi non è pensabile affrontare lo sviluppo dell’intelligenza artificiale con un approccio esclusivamente tecnologico. Esistono infatti dimensioni fondamentali – etiche, sociologiche, giuridiche – che non possono essere trascurate. È sempre più necessario conoscere e tenere in considerazione le prescrizioni normative, ma anche affrontare il tema della standardizzazione, ovvero la definizione di criteri comuni cui gli algoritmi dovranno attenersi.

Tutto ciò sottolinea quanto l’approccio multidisciplinare sia ormai imprescindibile. Alla Federico II, ad esempio, abbiamo avviato già da alcuni anni – ben prima dell’avvio del progetto FAIR – il master in Human-Centered AI, nato da un progetto europeo proprio con l’obiettivo di formare professionisti in grado di coniugare competenze tecniche con conoscenze etiche e normative.

Dal mio punto di vista, quindi, la multidisciplinarità è una delle chiavi fondamentali per costruire le competenze del domani. Le figure professionali più richieste saranno quelle capaci di integrare competenze diverse. Alcuni arriveranno da percorsi più tecnologici e dovranno acquisire conoscenze umanistiche; altri, provenienti da background umanistici, avranno bisogno di una formazione tecnica, almeno di base, per comprendere e contribuire in modo consapevole allo sviluppo e alla regolamentazione dell’AI.

Basti pensare a un legislatore: se non possiede una minima conoscenza delle tecnologie su cui è chiamato a legiferare, difficilmente potrà definire normative efficaci. Allo stesso modo, chi sviluppa sistemi intelligenti deve essere consapevole delle implicazioni etiche e delle responsabilità che derivano dal proprio lavoro. Altrimenti, rischiamo di creare strumenti tecnologici che, pur funzionando, potrebbero non essere utili e accettabili dal punto di vista sociale.


Prof. Sergio Di Martino

Professore, il suo Spoke affronta sfide complesse legate all’utilizzo di dati in-the-wild per l’addestramento di sistemi di intelligenza artificiale. Quali sono, secondo lei, le principali criticità che la ricerca accademica può affrontare meglio se supportata da un dialogo costante con l’industria?

In generale, un’interazione università-impresa è qualcosa che vedo sempre in maniera molto positiva. È un contesto dove la contaminazione reciproca di idee è fondamentale, soprattutto in un ambito estremamente dinamico come quello dell’informatica, in particolare quello dell’informatica applicata all’AI, in cui abbiamo un’evoluzione tecnologica-metodologica rapidissima.

In una situazione del genere, l’esposizione diretta alle problematiche aziendali rappresenta un’opportunità preziosa per il mondo accademico, poiché consente di osservare le dinamiche da una prospettiva diversa e di individuare con maggiore chiarezza le criticità su cui concentrare la ricerca.

Questo ci consente di adottare un approccio orientato alla risoluzione delle problematiche legate alla formazione. Spesso, senza una domanda esplicita o una sfida posta dall’azienda, non riusciremmo ad avere la stessa chiarezza di visione — pur mantenendo sempre ben distinti i ruoli che ciascuna parte ricopre. L’università ha come missione la ricerca fondazionale di base, mentre l’azienda opera all’interno del tessuto produttivo ed è strettamente connessa alle dinamiche economiche.

Un contesto di questo tipo consente all’università di intraprendere attività di ricerca anche a più alto rischio, non necessariamente orientate a risultati immediatamente positivi, ma utili per il progresso scientifico. In particolare, nell’ambito di questo progetto, il confronto con problematiche attuali provenienti da un tessuto produttivo d’avanguardia – come quello rappresentato dalle aziende coinvolte nello Spoke 3 – rappresenta un elemento di grande valore per la ricerca che stiamo conducendo.

In che modo la collaborazione con attori industriali contribuisce concretamente al progresso delle metodologie di data augmentation o alla resilienza degli algoritmi AI in contesti reali?

La Data Augmentation è sicuramente uno dei campi in cui il contributo delle aziende fa davvero la differenza. In ambito accademico, siamo abituati a condurre sperimentazioni su dataset pubblici, standardizzati e accessibili, che consentono un confronto equo tra le diverse soluzioni sviluppate a livello internazionale. Tuttavia, questo approccio tende a limitare l’esplorazione a un insieme ristretto di tipologie di dato, spesso lontane dalle complessità del mondo reale.

La possibilità, offerta dalla collaborazione con attori industriali, di accedere a nuove tipologie di informazione — naturalmente nel pieno rispetto della privacy e della riservatezza dei dati aziendali — consente di mettere alla prova i modelli in scenari concreti e più eterogenei. Questo non solo migliora la robustezza degli algoritmi, ma contribuisce in modo sostanziale al loro adattamento a contesti applicativi reali. È proprio in questo scambio continuo tra accademia e industria che, secondo me, si trova uno dei maggiori punti di forza della ricerca applicata.

Connesso al tema della domanda precedente: perché l’intelligenza artificiale ha bisogno di essere “resiliente” per funzionare bene nel mondo reale?

Quando parliamo di intelligenza artificiale, il concetto di resilienza torna spesso, ed è effettivamente molto interessante. In pratica, un sistema di AI deve essere in grado di adattarsi e operare efficacemente di fronte all’elevata variabilità del mondo reale. Non possiamo immaginare algoritmi che funzionano perfettamente in condizioni di laboratorio e che, senza ulteriori adattamenti, vengano trasferiti direttamente in contesti d’uso quotidiani, a disposizione dei cittadini per risolvere problemi complessi.

Affinché siano davvero utili, questi sistemi devono essere esposti a scenari reali e allenati a gestire l’imprevedibilità che li caratterizza. Un esempio concreto che abbiamo spesso richiamato nel progetto FAIR è quello del riconoscimento dei cartelli stradali. Addestrare un modello su immagini perfettamente nitide e ben definite è un conto; è tutt’altra sfida far sì che quel modello riesca a riconoscere un cartello sbiadito, parzialmente coperto da una pianta o deturpato da un adesivo.

La realtà è ricca di imperfezioni e anomalie, e i sistemi di AI devono saperle affrontare. Ecco perché la resilienza non è un aspetto accessorio, ma una condizione di base per l’efficacia operativa dell’intelligenza artificiale fuori dal laboratorio.

L’utilizzo di dati non strutturati e incompleti rappresenta una sfida tecnica ma anche concettuale. Qual è il ruolo del contributo scientifico in questo tipo di ricerca?

L’utilizzo di dati non strutturati e incompleti rappresenta una sfida particolarmente rilevante, non solo sul piano tecnico, ma anche dal punto di vista concettuale. Per lungo tempo, i sistemi di intelligenza artificiale sono stati progettati per operare su dati strutturati, ben organizzati e omogenei. Oggi, con la crescente diffusione dell’AI in ambiti applicativi sempre più eterogenei, ci troviamo nella condizione di dover elaborare qualunque forma di dato, spesso disomogeneo e frammentario.

Dal punto di vista informatico, questo scenario comporta difficoltà significative. Pensiamo, ad esempio, alla necessità di integrare rappresentazioni diverse della stessa informazione in ambiti complessi come quello medico: un’immagine TAC, una descrizione testuale, un valore numerico. Mettere in relazione queste fonti eterogenee richiede soluzioni avanzate e approcci resilienti, in grado di operare anche in presenza di incertezza o incompletezza.

Ovviamente, far dialogare prospettive differenti del dato può presentare sfide non banali. È uno degli ambiti principali su cui stiamo lavorando, proponendo tecniche e algoritmi nella speranza di riuscire ad avere un avanzamento significativo.


Concludendo il Professor Di Martino aggiunge: “Vorrei ribadire un concetto che ritengo centrale: l’integrazione con il mondo industriale. È fondamentale che le aziende condividano con il mondo accademico problemi concreti, anche in situazioni estreme o particolarmente complesse, perché spesso proprio da queste condizioni nascono intuizioni inedite e nuove linee di ricerca. Allo stesso tempo, è importante che l’università sia in grado di offrire risposte che non siano relegate a un orizzonte troppo lungo, ma che sappiano dialogare con le tempistiche reali dell’innovazione, accompagnando le imprese nei loro percorsi evolutivi, sia tecnologici che economici.” e il Professor Sansone: “In questa direzione, ritengo essenziale promuovere anche collaborazioni che fin da subito favoriscano un maggiore contatto tra il mondo accademico e quello professionale. È importante che i giovani ricercatori, già a partire dal loro percorso di dottorato, siano messi nelle condizioni di pensare anche a un futuro occupazionale in ambito industriale, non necessariamente solo accademico. Questo approccio consente di costruire progetti più solidi, concreti e sostenibili, in cui le competenze si sviluppano in un contesto condiviso e orientato all’innovazione applicata. Una contaminazione virtuosa, che genera valore da entrambe le parti e rende possibile la co-progettazione di soluzioni realmente utili.”

Da un punto di vista industriale, poi, mettere al servizio della ricerca accademica la propria esperienza sul campo crea quella sinergia operativa che porta a un ecosistema in cui evoluzione tecnologica e crescita professionale si intrecciano, generando valore per la ricerca, per le aziende e per la società, come riporta Roberto Mosca – Head of Data&AI di SADAS e Responsabile di Progetto per SADAS nello Spoke 3 di FAIR: “Siamo un’azienda a forte vocazione tecnologica e crediamo che la collaborazione costante tra università e industria sia una precondizione per lo sviluppo di competenze avanzate e soluzioni realmente innovative. Iniziative come FAIR rappresentano un esempio virtuoso di questa collaborazione trasversale: da un lato ci permettono di confrontarci su sfide di frontiera, dall’altro di investire sui giovani talenti, coinvolgendoli in progetti di ricerca con applicazioni industriali concrete.”

“Il rapporto di SADAS con il mondo accademico sta vivendo oggi un affiatamento molto più intenso rispetto a qualche anno fa grazie a tutte le iniziative che vengono promosse, ma fin dalla sua fondazione l’azienda ha sempre lavorato per mantenere attiva la collaborazione con il panorama universitario che nel corso di tutti questi anni ha raggiunto traguardi importanti. Con questo progetto puntiamo ad aggiungere un tassello importante nella direzione dell’evoluzione tecnologica, un’esperienza di rilievo nel settore dell’intelligenza artificiale applicata.” – Queste le parole di Vincenzo Minei, Direttore Tecnico di SADAS e Coordinatore di Progetto per SADAS nello Spoke 3 di FAIR.

L’intervista ai Proff. Sansone e Di Martino ci restituisce un’immagine chiara: l’innovazione tecnologica più avanzata nasce dall’incontro tra il rigore scientifico della ricerca accademica e la concretezza delle sfide industriali. In un contesto in cui i real-world data sono spesso imperfetti e i sistemi di intelligenza artificiale devono saper operare in condizioni imprevedibili, il dialogo tra Università, enti di ricerca e imprese diventa non solo utile, ma indispensabile.

Contattaci per avere informazioni e aggiornamenti sui nostri prodotti



*Accetto termini e condizioni di tutela della privacy
Desidero iscrivermi alla newsletter

* campo obbligatorio

Si richiedono indirizzi e-mail aziendali

Ricordati di controllare la casella di spam

Rimani aggiornato sulle novità Sadas! Iscriviti alla newsletter






*Accetto termini e condizioni di tutela della privacy

* campo obbligatorio

Rimani aggiornato sulle novità di Sadas! Iscriviti alla newsletter





*Accetto termini e condizioni di tutela della privacy

* campo obbligatorio