Costruire l’IA con l’essere umano al centro. intervista a un ingegnere, un linguista e un filosofo

24 Novembre 2025
264
VIEW

Il progredire molto veloce delle tecnologie legate all’Intelligenza Artificiale impone sia agli sviluppatori che a chi le utilizza una riflessione approfondita su come funzionano e sui loro limiti. In questo momento il dibattito sull'Intelligenza Artificiale è molto diffuso, ma viene condotto o con un approccio ansiogeno rispetto alla capacità di queste tecnologie di sottrarre lavoro e cultura, o con i toni trionfalistici dell’Homo Faber che contempla una propria e meravigliosa creatura. Attraverso il confronto tra tre intellettuali che pensano e lavorano in ambti diversi abbiamo cercato prima di tutto di chiarire cosa sono queste tecnologie, quali sono i problemi principali che ci dobbiamo porre e, soprattutto, dove dobbiamo cercare le risposte a questi problemi. Il richiamo culturale e umano che ne è emerso è che nessuna tecnologia può essere lasciata priva di fondamentali direttrici etiche e legislative, e che queste ultime devono essere guidate da idee precise e forti di equità e giustizia sociale. Inoltre, è necessario che queste tecnologie siano sempre più direttamente ispirate al modo in cui gli esseri umani acquisiscono e usano il linguaggio per comunicare, allo scopo di renderle più sostenibili in termini di dati e risorse necessarie al loro sviluppo, e più allineate ai comportamenti e abilità umane.
Gli animatori di questo incontro, che si è svolto lo scorso 13 novembre presso la Scuola di Ingegneria dell’Università di Pisa, sono stati
Francesco Marcelloni, docente di Ingegneria Informatica all’Università di Pisa, che ci ha dato uno sguardo sulla dimensione tecnologica e progettuale dell’IA — come funziona, come si costruisce e quali sfide pratiche comporta;
Alessandro Lenci, docente di Linguistica Computazionale all’Università di Pisa, che è intervenuto su come le macchine interpretano le parole, e cosa questo si rapporti al modo in cui gli esseri apprendono e usano il linguaggio;
Giuseppe Primiero, docente di Logica all’Università di Milano, che si occupa sia del modo in cui l’informazione viene rappresentata, inferita e verificata, sia, anche, dei principi e gli strumenti a nostra disposizione per ovviare ad alcuni problemi dell’IA oggi, e per guidarne lo sviluppo futuro

Francesco Marcelloni, cosa c’è alla base dell’Intelligenza Artificiale oggi?

Per molto tempo, l’IA è rimasta confinata alla ricerca di laboratorio o presente in alcuni film di fantascienza, dove veniva spesso rappresentata come una tecnologia ostile all’umanità, ma in realtà il suo atto di nascita risale al lontano 1956, alla storica conferenza di Dartmouth, negli Stati Uniti. Gli organizzatori, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, nel documento programmatico, avevano scritto «Lo studio procederà sulla base della congettura per cui, in linea di principio, ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli.» Alla base dell’IA attuale vi è il cosiddetto “apprendimento automatico” che ha rivoluzionato il lavoro degli ingegneri informatici e degli informatici. Con l’apprendimento automatico non viene più sviluppato un software che risolve direttamente un problema, ma piuttosto un software in grado di apprendere dai dati un modello per risolvere quel problema. Questi modelli possono fare previsioni o prendere decisioni in situazioni simili a quelle incontrate nel processo di addestramento. Fino a qualche anno fa l’unica forma di IA che si conosceva era quella discriminativa che ci consente per esempio di riconoscere un nodulo da immagini generate attraverso la TAC. La vera novità degli ultimi anni è invece rappresentata dall’IA generativa, cioè un’IA in grado, a partire da quantità enormi di dati, di generare testi, immagini, video inediti, ma coerenti e simili a quelli utilizzati per il suo addestramento. L’esempio più emblematico di IA generativa è rappresentato dai Large Language Model che basandosi su un’architettura neurale innovativa, i transformer, sono in grado di generare testi combinando e rielaborando in modo statistico l’enorme quantità di dati testuali usati per il loro addestramento.

Qui è quasi d’obbligo chiedere a chi si occupa di linguistica cosa significa dire che i LLM “comprendono”. Alessandro Lenci, questi modelli imparano attraverso che tipo di analisi linguistica?

Una delle ragioni per cui i LLM suscitano tanta impressione è che sembrano avere acquisito una prerogativa che fino ad oggi abbiamo ritenuto esclusiva dell’essere umano, ovvero il linguaggio. Questi modelli però imparano il linguaggio solo attraverso l’analisi statistica di testi, e quando rispondono a una nostra richiesta lo fanno solo producendo la stringa di testo più probabile, dato il prompt che abbiamo usato. La loro abilità di generare testi così simili ai nostri ci dà l'illusione che capiscano o usino il linguaggio come noi. Ma appunto questa è solo un’illusione, come quando osserviamo un gioco di magia. I modelli attuali sono addestrati su quantità enormi di dati linguistici (basti pensare che i dati per addestrare ChatGPT corrispondono a 36.540 anni uomo) Gli esseri umani invece apprendono il linguaggio avendo a disposizione, in confronto, pochissimi dati di partenza che però sono multimodali (ovvero includono anche immagini e altri dati ricavati dal mondo attraverso i sensi), e soprattutto interagendo con altri esseri umani. Siamo quindi di fronte a un nuovo tipo di entità artificiale che apprende e usa il linguaggio in modo radicalmente diverso da noi. Gli LLM hanno anche prodotto una vera e propria “rivoluzione copernicana” nell’IA. Essi sono infatti le prime “macchine parlanti” costruite senza un contributo diretto delle teorie della linguistica sull’organizzazione e il funzionamento del linguaggio umano. Quale è, allora, nell’era dei LLM il ruolo della linguistica, che invece nelle forme precedenti di IA, quella basata su regole e quella con apprendimento supervisionato, aveva il compito di fornire le categorie e strutture utilizzate dai processi? innanzitutto la linguistica serve per selezionare testi e dati per l'apprendimento. Secondo, per mettere a punto test e benchmark per comprendere come i LLM usano il linguaggio. Appurato che lo fanno in modo diverso da noi, il modo con cui elaborano i testi resta una sorta di “scatola nera”, perché la loro architettura è estremamente complessa. E’ necessario quindi mettere in piedi test affidabili per testare le loro capacità linguistiche, anche per poter arrivare a modelli più sostenibili, che hanno cioè bisogno di meno dati, e più trasparenti nei loro processi, perché più ispirati a come funziona il linguaggio negli esseri umani.

Francesco Marcelloni, è possibile arrivare a questa trasparenza? quali sono, in generale, i più grossi problemi dei LLM derivanti dai limiti tecnici e dal modo in cui vengono utilizzati?

Credo che allo stato attuale una vera trasparenza dei modelli linguistici, intesa come comprensione chiara dei meccanismi con cui, a partire dai prompt forniti dagli utenti, vengano generati i testi sia ancora molto lontana. Stiamo infatti procedendo verso una complessità sempre crescente, che rende questi modelli ancora più difficili da interpretare. Possiamo invece lavorare nella direzione di una trasparenza delle fonti, cioè rendere chiaro quali siano le sorgenti di informazione che hanno prodotto la risposta dei LLM. La trasparenza può aiutarci a mitigare alcuni dei grandi rischi che l’apprendimento automatico porta nell’IA. Per esempio, i pregiudizi. Può accadere che l’IA selezioni in modo discriminatorio, per etnia, genere, o età. Questo dipende dall’insieme di dati storici su cui è stata addestrata, che la porta ad agire con pregiudizio rispetto ad alcune categorie. Per esempio, l’IA usata da Amazon per il reclutamento del personale penalizzava sistematicamente le donne, essendo stata addestrata su curricula quasi esclusivamente maschili. Un secondo problema è quello della robustezza, cioè la capacità di questi sistemi di non commettere errori in contesti imprevisti o variabili. Un esempio tipico è quello del riconoscimento dei segnali stradali nelle auto a guida autonoma: il software dovrebbe essere in grado di identificare correttamente un segnale di limite di velocità anche se parzialmente danneggiato o poco leggibile, ricorrendo a inferenze sul valore più plausibile in base al tipo di strada e al contesto circostante. Un’altra categoria di rischio è quella delle allucinazioni: siccome i LLM lavorano su base statistica, può succedere che generino informazioni false, ma perfettamente plausibili, a partire dai dati ricevuti. La percentuale di allucinazioni generate dai grandi modelli di linguaggio è purtroppo molto significativa in termini percentuali. Su un esperimento in cui i LLM venivano usati per riassumere documenti è stata rilevata una percentuale di allucinazioni prodotte di più dell’1%. Oltre agli errori, sono noti i problemi relativi a sicurezza e privacy, e alla sostenibilità visti gli altissimi consumi di energia e acqua richiesti per il loro addestramento: si stima che per il 2027 il consumo globale di acqua per l’IA sarà pari a metà del consumo di acqua annuale dell’intero Regno Unito.

Giuseppe Primiero, come possiamo mettere in campo dei correttivi per i problemi elencati prima?

Per individuare dei correttivi efficaci dobbiamo innanzitutto chiederci cosa significa per un’IA essere equa. In diverse applicazioni di IA dei LLM in particolare, per definirli equi dobbiamo valutare se svantaggiano sistematicamente un preciso gruppo di individui. Quando questo accade, come nel caso dei curricula di Amazon, sono stati proposti diversi correttivi, che però si fondano tutti sull’assunto che l’idea di equità possa essere declinata in metriche. Tra le principali metriche proposte per valutare l’equità di una IA c’è la parità statistica (il modello assegna le stesse probabilità di essere selezionati a tutti gli individui, a prescindere dal gruppo di riferimento), che si può ottenere con una “correzione dei dati”: nel caso di Amazon, per esempio inserendo curricula femminili fittizi nei dati del sistema; la seconda metrica (parità di opportunità) consiste nel verificare che l’IA sbagli in modo equivalente con entrambi i gruppi; la terza, più complessa, si chiama equità controfattuale: il modello assegna la stessa probabilità a un individuo anche se cambia il suo gruppo di riferimento (quindi, Anna dovrebbe avere la stessa possibilità di essere selezionata tramite curriculum anche se fosse maschio). Tuttavia, l'adozione di una di queste tre metriche, senza una vera riflessione sulla nostra idea di equità, e sui criteri etici, legali e politici che ne sono alla base, rischia di consolidare le disuguaglianze esistenti sotto una parvenza di neutralità computazionale. L’assunto da mettere sotto i riflettori, e sulla cui correttezza dovremmo riflettere, è quello per cui la descrizione del mondo in termini di quantità sempre maggiore di dati ci metterebbe in grado di risolvere anche problemi complessi, come sono quelli sociali. Come ampiamente sottolineato dalla critica sociale e tecnica tuttavia, nessuna quantità di dati, nessuna metrica e nessuna procedura di aggiornamento è stata in grado, da sola, di affrontare le cause strutturali dell’ingiustizia sociale. Anzi, l’uso di questi mezzi privi di una strategia di controllo efficace rischia di amplificare i nostri bias e stereotipi sociali e culturali, visto che vengono riproposti sotto una presunta "oggettività", produrre una frammentazione epistemica, perché utenti diversi potrebbero vedersi fornite informazioni diverse a seconda della loro diversa profilazione, e, in ultima istanza, modificare anche la nostra idea di equità e giustizia. Una strada che ultimamente si sta percorrendo è quella dell’IA neuro-simbolica, che combina deep learning e ragionamento simbolico con l’obiettivo di costruire sistemi di Intelligenza Artificiale interpretabili ed in grado di funzionare in domini applicativi complessi affiancando ai dati di addestramento la verifica formale. La componente di logica formale analizza o seleziona i pattern che il deep learning ha stabilito tra i dati in suo possesso, in modo da iniziare ad aprire la “scatola nera” e comprendere come le AI giungono a fornire determinati output e selezionarne solo di validi.

Alessandro Lenci, la AI neuro simbolica sembra avvicinarsi al requisito, da lei espresso, di un’AI in grado di usare il linguaggio in modo più simile a quello degli esseri umani. Cosa significa in concreto rispetto a AI che sembrano addirittura avere una competenza pragmatica, cioè una “teoria della mente” del proprio interlocutore?

Come dicevo prima, i LLM sono dei grandi “illusionisti” del linguaggio. Ci danno l’illusione di comprendere il linguaggio come noi perché producono testi e conversano con la stessa naturalezza di un essere umano. Infatti, superano ormai tutti il Test di Turing. Si tratta di un test suggerito da Alan Turing nel 1950 sulla rivista “Mind”. Semplificando - perché la versione originale prevedeva tre interlocutori - una persona e un calcolatore dialogano separati da un muro. Se la persona non è in grado, dalle risposte, di stabilire se sta parlando con un essere umano o una macchina, allora possiamo dire che la macchina esibisce un comportamento intelligente. Spesso ci domandiamo se le IA “capiscano” il significato delle parole che usano. Qui dobbiamo intenderci su cosa vogliamo dire con “capire”. Secondo il test di Turing, per asserire che un’IA “ha capito” basta che questa abbia comportamento linguistico indistinguibile da quelle di un interlocutore umano. Ad esempio, questi sistemi sembrano avere anche una competenza pragmatica, che consiste nel leggere il “non detto” (per esempio “domani vieni al cinema? ho un esame”. qui il LLM non si limita a un comprensione letterale, ma “capisce” effettivamente, come faremmo noi, che la risposta è “no, perché domani ho un esame”). Tuttavia, questa competenza deriva dal fatto che sono “nutriti” con un quantità enormi di dati, e quindi hanno a disposizione diversi esempi di scambi colloquiali come questo, dai quali, sempre statisticamente, possono evincere la risposta giusta in contesti simili. Questo non significa però che abbiano una “teoria della mente” (ovvero ragionino come facciamo noi sulla base di quello che gli altri credono o che credono che noi crediamo, ecc.), oppure che abbiano effettive capacità di ragionamento astratto Spesso infatti, se le domande sono formulate in modo diverso, non sono in grado di rispondere. Dobbiamo però anche capire cosa intendiamo quando diciamo che “pensano in modo simile a noi”. Daniel Kahneman ha proposto che esistono due tipi di pensiero, chiamati Sistema 1 e Sistema 2. Il Sistema 1 opera in fretta e automaticamente, tramite associazioni veloci. Il Sistema 2 invece indirizza l’attenzione verso le attività mentali impegnative che richiedono focalizzazione e ragionamento analitico e profondo. Naturalmente questi due sistemi sono interconnessi. Talvolta problemi che pensiamo debbano richiedere ragionamenti complessi sono in realtà risolvibili con gli elementi associativi che il Sistema 1 ha a disposizione. Gli LLM sono ottimi esecutori di questi schemi associativi, ma tuttora quando devono affrontare la risoluzione di problemi che richiedono realmente analisi profonde e autentici ragionamenti hanno prestazioni scadenti.

Francesco Marcelloni, Giuseppe Primiero ha argomentato la necessità di una base etica, ma anche giuridica solida per l’uso delle IA. L’Europa ha promulgato l’AI Act, recentemente recepito anche in Italia.

Sì, l’AI ACT è considerata la prima legislazione globale sull’IA. L’AI ACT classifica i sistemi di AI in base ai rischi, da quelli a rischio limitato a quelli ad alto rischio. Con la legge 132 in vigore dal 10 ottobre 2025, il governo italiano ha recepito l’AI ACT aggiungendo anche alcuni aspetti interessanti. La legge “reca principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale. Promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell'intelligenza artificiale, volto a coglierne le opportunità. Garantisce la vigilanza sui rischi economici e sociali e sull'impatto sui diritti fondamentali dell'intelligenza artificiale.” In particolare, viene incoraggiato l’uso dell’IA in sanità come supporto alle attività assistenziali e nelle pubbliche amministrazioni per migliorare i loro processi, ma stabilendo il principio del controllo umano in ultima istanza.

Giuseppe Primiero, come attuare questo “controllo umano in ultima istanza”?

Una condizione per la controllabilità di un sistema dovrebbe essere quella di verificare formalmente che esso rispetti determinate proprietà di equità. In questa direzione, un modo di approcciare la complessità di questi modelli è di richiedere la combinazione di verifica ex-ante, dove il il controllo avviene per guidare lo sviluppo, e verifica post-hoc, dove il processo di controllo è attuato per verificare che il comportamento di modelli già esistenti e a volte inaccessibili sia corretto, identificando le relazioni rilevanti tra input e output. Controllo ed equità non possono più essere considerati elementi accessori, ma devono essere inseriti fin dall’inizio nella progettazione di questi sistemi. In tutti i casi, il giudizio umano deve restare prioritario. Soprattutto nel contesto giuridico, è necessario stabilire, come ha fatto sia l’AI Act per i sistemi classificati “ad alto rischio”, sia la legge italiana, la piena legittimità dell’operatore umano a discostarsi dalla risposta fornita dall’IA sulla base di principi diversi dalla mera correttezza procedurale.