Negli ultimi anni, l’intelligenza artificiale (IA) ha iniziato a farsi strada anche come supporto per le questioni regolatorie e dell’innovazione del settore alimentare, sollevando entusiasmo e, per qualcuno di più attento, interrogativi. Strumenti di language processing, come i modelli linguistici generativi (ad esempio ChatGPT, Claude, Gemini o LLaMA), sono oggi capaci di analizzare grandi moli di dati, individuare similarità tra ingredienti, sintetizzare normative internazionali e perfino simulare valutazioni di status regolatorio per ingredienti borderline. Ma può davvero l’IA sostituire la valutazione scientifica e il giudizio tecnico del consulente regolatorio?


La risposta, al momento, è più articolata di quanto sembri. Se da un lato l’intelligenza artificiale offre strumenti potenti per velocizzare alcune attività analitiche e redazionali, dall’altro rischia di fornire soluzioni errate o parziali, se non governata da criteri chiari e da competenze umane che la orientino. Il rischio di affidarsi ciecamente all’output di un algoritmo, senza una valutazione critica a posteriori, è quello di incorrere in errori di compliance o peggio, in scelte strategiche non sostenibili sul piano tecnico-scientifico o che tralascino aspetti rilevanti.


Nel settore degli integratori alimentari e dei Novel Food, la valutazione regolatoria richiede la capacità di connettere normative, dati tossicologici, posizioni delle autorità e letteratura scientifica. In questo contesto, l’IA può rivelarsi una risorsa utile per effettuare ricerche rapide, ricostruire la storia di consumo di ingredienti simili, redigere bozze di documenti regolatori o simulare scenari normativi alternativi. È possibile, ad esempio, utilizzare un modello linguistico per analizzare e confrontare le decisioni EFSA pubblicate, identificare lo stato regolatorio di un ingrediente botanico (di cui però sono disponibili informazioni puntuali) o predisporre uno screening iniziale per identificare eventuali vincoli normativi su un nuovo composto.


Tuttavia, ogni risultato prodotto da un algoritmo necessita di essere interpretato, validato e verificato e soprattutto si deve essere consapevole del dataset considerato valido dalla macchina. L’inquadramento regolatorio di una sostanza non si esaurisce nella corrispondenza tra parole chiave o nella somiglianza superficiale con altri ingredienti. Richiede piuttosto una comprensione profonda delle definizioni normative, delle sfumature scientifiche e delle prassi consolidate delle autorità competenti.


Un esempio emblematico è la valutazione dello status di Novel Food. Il Regolamento (UE) 2015/2283 prevede che ogni alimento o ingrediente non consumato in modo significativo nell’Unione Europea prima del 15 maggio 1997 sia sottoposto ad autorizzazione centralizzata presso la Commissione Europea, previo parere EFSA quando necessario (1). Determinare se un ingrediente sia “novel” implica incrociare fonti diverse: letteratura scientifica, database ufficiali, documentazione storica e valutazioni di similarità compositiva con sostanze già approvate o di valutazioni di processo. In questo ambito, l’IA può suggerire analogie apparentemente convincenti, ma non può sostituire la valutazione del rischio associata alla composizione, alla purezza, al processo produttivo o alla presenza di contaminanti. Inoltre, un prompt mal formulato – ovvero una richiesta ambigua o troppo generica fatta al sistema – può portare a una classificazione errata dell’ingrediente, con l’illusione di essere in regola quando invece si sta percorrendo una strada creata su una supposizione non del tutto corretta. Inoltre, la responsabilità resta, in ogni caso, del soggetto che redige e firma la documentazione inviata all’autorità competente.

Un’altra area dove IA viene chiamata in aiuto è quella della formulazione delle rivendicazioni salutistiche (o health claims) sugli ingredienti funzionali. È ormai comune vedere aziende, o anche operatori della comunicazione, utilizzare modelli AI per generare frasi d’impatto con riferimento alla salute del sistema immunitario, alla vitalità, alla concentrazione mentale. Tuttavia, il Regolamento (CE) 1924/2006 stabilisce che qualsiasi riferimento alla salute debba corrispondere a un claim autorizzato e contenuto nell’elenco comunitario, riferito a ingredienti effettivamente presenti nel prodotto e in quantità tali da produrre l’effetto promesso (2). L’uso disinvolto dell’IA in questo campo può portare a costruire messaggi “convincenti” sul piano comunicativo ma non legittimi dal punto di vista legale, esponendo l’OSA a richiami, sanzioni amministrative e, in alcuni casi, al ritiro del prodotto.

Lo stesso vale per la compliance dell’etichettatura: l’intelligenza artificiale può suggerire layout, elenchi ingredienti o formule dichiarative che a prima vista sembrano corrette. Ma un sistema automatico difficilmente distingue tra le specificità previste dal Regolamento (UE) 1169/2011 e le indicazioni nazionali, come quelle previste dal Ministero della Salute italiano per gli integratori notificati, per esempio (3). Ancora una volta, anche qui, se la richiesta all’IA non è puntuale o precisa, la risposta può venire generata incompleta o con una sfumatura linguistica scorretta per la finalità.


In questo scenario, emergono nuove competenze necessarie per utilizzare correttamente l’IA, prima fra tutte, la capacità di formulare prompt specifici, chiari e tecnicamente mirati. La formulazione della richiesta al sistema è infatti determinante: una domanda generica o formulata in modo impreciso può restituire una risposta errata, incompleta o ambigua. Inoltre, è essenziale comprendere che ogni IA si basa su dataset preesistenti, non sempre aggiornati, e quindi soggetti a bias e incompletezze (4). Il ruolo del professionista, in questo senso, è quello di “orchestrare” l’uso della tecnologia, selezionando, validando e integrando le informazioni.


È necessario ribadire, tuttavia, che le nuove competenze, non possono sostituire le conoscenze sulla materia specifica. Un professionista esperto può integrare e governare l’utilizzo dell’IA nella propria attività quotidiana, traendone vantaggi reali e misurabili. Ma il beneficio che ne deriva è direttamente proporzionale alla solidità della sua expertise. L’idea che si possa rimpiazzare l’esperto con un uso generico dell’intelligenza artificiale da parte di chi non ha formazione tecnica è una suggestione tipica della retorica tecnologica, ma lontana dalla realtà operativa. Questo sicuramente non solo nel mondo regolatorio.


Nel prossimo futuro, la sinergia tra IA e competenze regolatorie potrà rappresentare un paradigma virtuoso. L’IA può contribuire a ridurre tempi e costi legati alla raccolta dati, alla redazione di parti standard di un dossier o allo screening iniziale di una sostanza. Può essere particolarmente utile nella gestione di prodotti con posizionamento borderline (es. tra alimento e dispositivo medico, o tra integratore e novel food), o nelle strategie multi-mercato, dove è necessario armonizzare requisiti di normative diverse (UE, FDA, ASEAN).


Tuttavia, la responsabilità ultima – tecnica, etica e normativa – resta umana e soggetta all’expertise dell’utente. La valutazione regolatoria è, prima di tutto, un atto interpretativo e scientifico svolto in un contesto normativo in costante evoluzione, dove innovazione, rischio e comunicazione convivono, la capacità di esercitare un giudizio critico e informato rimane la risorsa che fa la differenza.

 L’intelligenza artificiale nel mondo regolatorio: strumento o tentazione?

Riferimenti bibliografici

KEYWORDS

Regolamenti

AI

Novel food

Health Claims

NEW