L’Intelligenza Artificiale Generativa,
opportunità e sfide

Il recente e serrato dibattito attorno all’AI tocca problemi antichi di equilibrio tra scienza e cultura umanistica da cui spesso sono derivati gli sviluppi più fruttuosi della nostra storia. Quando questi punti d’interferenza hanno avuto un’effettiva proficua interazione, penetrando tradizioni culturali molto diverse, si sono registrati i più interessanti sviluppi. Ora per l’AI non possiamo fare previsioni precise, ma è possibile definire i punti dai quali può avere inizio l’interazione tra le diverse idee. L’AI si potrebbe vedere come l’ultimo anello di una lunga catena, creata dall’Uomo, che tenta d’inventare sistemi che obbediscano al principio di “assistenza utile“ per l’Essere Umano e garantisca alla Società lo sviluppo auspicato.

L’Intelligenza Artificiale, nella sua concezione di simulazione del funzionamento dell’intelligenza umana, nasce ufficialmente negli anni ’50 con il seminario di Darmouth, durante il quale un gruppo di matematici, fisici, informatici e altre menti brillanti dell’epoca hanno iniziato a discutere il tema in oggetto. Gli argomenti dibattuti nel seminario non erano solamente tecnici, ovvero se e come fosse possibile simulare il ragionamento umano tramite una macchina, ma anche quale ruolo le “macchine pensanti” potessero avere nella società e se fossero in grado di migliorare da sole tramite meccanismi di apprendimento.

Quelli erano gli anni di grande crescita tecnologica dei computer, al tempo giganteschi e costosissimi. Il computer UNIVAC 1, da molti considerato il primo computer commerciale, era un armadio di 13 tonnellate e costava 1,5 milioni di dollari. La sua potenza non era minimamente simile a quella di un nostro attuale smartphone. Se da un canto queste tecnologie erano per pochi – grandissime aziende e organizzazioni governative – dall’altro gli sviluppi tecnologici permettevano di far diventare scienza quello che era, nel pensiero della gente, considerato fantascienza. Ed ovviamente il tema dei robot, più o meno intelligenti, era una sfida ma anche un elemento di preoccupazione, per il potenziale impatto sull’occupazione e per i problemi etici che poteva generare. Questi temi, oggi più che mai rilevanti, erano già allora dibattuti.

A partire dalla conferenza di Darmouth, quindi, l’IA (o AI in inglese) è diventata una scienza e ha continuato a crescere con una velocità condizionata dalla crescita della potenza di calcolo dei computer. Ci sono momenti, negli ultimi 70 anni, che sono rimasti nella storia, come ad esempio la famosa partita di scacchi del 1996 tra Kasparov e “Deep Blue”, un supercomputer che vinse per la prima volta contro un umano.

Un cambio di passo sul tema è avvenuto, per lo meno in termini di percezione da parte dei non addetti ai lavori, con l’avvento dell’Intelligenza Artificiale Generativa (GenAI), che permette di generare nuovi contenuti, siano essi testi, immagini o suoni sulla base di analisi e sintesi “intelligenti” di larghe basi dati. Negli ultimi 2 anni l’avvento di ChatGPT di OpenAI, di Gemini creato da Google, di Bedrock creato da Amazon – per citarne alcuni – ha portato questi strumenti sui PC e sugli smartphone di tutti noi, amplificando enormemente la nostra attenzione, rendendo visibili le potenzialità ed i rischi derivanti da queste tecnologie. Oggi ciascuno di noi può utilizzare frazioni di potenza di queste tecnologie sullo smartphone o sul computer per generare testi, musiche o immagini a partire da interazioni verbali, scritte o vocali, che fungono da istruzioni per la definizione di quanto vogliamo ottenere.

Lungi dal voler entrare nel dettaglio tecnico della questione, può essere comunque utile conoscere alcune questioni di base per aiutare a comprendere potenzialità e limiti/rischi di questa tecnologia.

Alla base di tutto ci sono due elementi cardine: algoritmi informatici e dati. Gli algoritmi sono ovviamente specializzati per analizzare i dati ed “allenare”, o meglio istruire, modelli di intelligenza artificiale (Foundation Models) che ci forniranno poi risposte a nostre richieste specifiche. Le comuni basi dati per istruire tali modelli sono le informazioni esistenti su Internet, ma possono essere anche utilizzate le basi dati proprietarie di un’organizzazione. In realtà il meccanismo è decisamente più complicato, ma a noi basta pensare che l’AI simula quanto noi facciamo con il nostro cervello. Le nostre conoscenze sono le basi dati, il nostro cervello usa i dati analizzando la nostra conoscenza e generando un pensiero “razionale”. Questo meccanismo è generativo e la nostra base dati cresce nel tempo per input esterni e per elaborazioni interne (istruzione ed esperienza).

L’AI crea quindi vere e proprie reti neurali (i Modelli) che permettono di elaborare dati in modo efficiente e sempre più sofisticato, e nel caso della AI generativa, a differenza di altri tipi di AI, generare nuove informazioni in base a regole e correlazioni statistiche.

In merito al funzionamento della GenAI, bisogna considerare un ulteriore elemento fondamentale, ovvero la potenza di calcolo ed i data centers. Gli algoritmi sono diventati efficaci negli ultimi anni proprio perché le potenze di calcolo a disposizione sono cresciute esponenzialmente, e continueranno a farlo. NVIDIA, produttore dei chip utilizzati per questo tipo di elaborazioni specializzate, ha avuto risultati stellari in borsa negli ultimi 2 anni, arrivando ad essere la seconda azienda sul mercato globale per capitalizzazione. Le tecnologie alle spalle della produzione dei chip sono ovviamente proprietarie e questo mercato è sempre più critico ed al centro delle battaglie economiche e finanziarie globali.

Al di là del semplice utilizzo che ne possiamo fare dal nostro computer, ci sono applicazioni sempre più importanti e crescenti di intelligenza artificiale nei settori più disparati.

Nel campo farmaceutico, dove le aziende investono una parte elevatissima dei loro fatturati in R&D ed il ciclo di sviluppo di un nuovo farmaco dura tra i 10 ed i 15 anni, si prevede che nel giro di qualche anno più del 30% dei principi attivi per i medicinali sarà scoperto usando tecniche basate sulla GenAI, riducendo drasticamente tempi e costi. Nella pratica, Il processo comprende l’identificazione del “bersaglio terapeutico”, il punto in cui il farmaco agirà per curare la malattia, la progettazione delle molecole candidate al farmaco e l’azione sul bersaglio. L’intelligenza artificiale può analizzare grandi insiemi di dati e modelli molecolari per scoprire nuove molecole e composti che possono essere utili per il trattamento delle malattie. Può anche rendere il processo di sintesi di questi composti più facile in fase di progettazione, realizzazione ed ispezione del farmaco. Questo approccio ovviamente richiede ingenti investimenti per la creazione di modelli ad hoc che partano da dati scientifici “ottimizzati” e verificati, al fine di rendere più affidabili i risultati. L’intelligenza Artificiale ha quindi un forte impatto nella fase di scoperta dei principi attivi, ma lo avrà anche nelle fasi pre-cliniche e cliniche (sperimentazione su soggetti umani volontari) aiutando i ricercatori nella gestione e correlazione dell’enorme mole di dati derivanti dalle sperimentazioni. Siamo sempre nel campo dell’utilizzo di un supporto sofisticato al fine di ridurre i tempi di processo.

Nel settore della Sanità l’applicazione dell’AI sta diventando cruciale per ottenere diagnosi sempre più precise e tempestive, ad esempio nel campo dell’uso delle immagini diagnostiche per le quali l’IA è in grado di analizzare i dati visivi con una precisione molto superiore al cervello umano. In futuro, l’IA adeguatamente addestrata potrà simulare l’effetto di trattamenti clinici virtuali, al fine di supportare i medici nella scelta del trattamento con migliori probabilità di riuscita. Anche qui, non si parla certamente di delegare le scelte ad un sistema artificiale, ma piuttosto di fornire ai medici informazioni sempre più mirate e tempestive.

Il settore del Sales & Marketing e della Assistenza Clienti già oggi fa largo uso dell’intelligenza artificiale: più del 40% degli investimenti aziendali è oggi diretto in queste funzioni, con una predilezione per le iniziative rivolte alla crescita di fatturato, seguite dall’ottimizzazione dei costi ed infine dalla relazione con la clientela. Si prevede una forte accelerazione nel breve periodo, supportata anche da diversi investimenti in prodotti di supporto offerti da aziende come Google. Lo studio del comportamento dei clienti e l’interazione con essi sarà sempre più basato sull’intelligenza generativa, attraverso le analisi dei dati e la massiva generazione digitale di messaggi, immagini e suoni. È di qualche mese fa la produzione di uno spot televisivo interamente eseguita da una piattaforma specializzata e basata sull’intelligenza artificiale: è il caso di Toys ‘R’ Us, azienda americana di giocattoli, che ha generato uno spot completo a partire dalla definizione testuale delle caratteristiche volute. Niente telecamere o attori, produzione totalmente digitale eseguita dalla piattaforma AI, che genera i personaggi, le scene e le musiche da zero. È un ulteriore passo nel cammino che sta rendendo sempre più difficile distinguere le realizzazioni umane da quelle digitali.

Nel campo della progettazione manifatturiera questa tecnologia ha un ruolo chiave lungo tutto il processo produttivo, ma soprattutto permette di creare nuovi prodotti o aumentarne il valore intrinseco. Il caso più evidente e dibattuto è quello delle auto a guida autonoma, che seppur abbia di fronte a sé enormi sfide tecnologiche (ed etiche) sta facendo passi avanti continui, anche se il traguardo per un’auto completamente autonoma si è spostato avanti di almeno 10 anni. Ma anche prodotti meno sofisticati e di basso costo stanno beneficiando di questa tecnologia, ad esempio le lavatrici: la nuova frontiera è quella di imparare i modelli comportamentali dei consumatori ed offrire cicli di lavaggio più appropriati, migliore utilizzo dell’energia, diagnostica semplificata.

Nel settore finanziario la GenAI è prevalentemente utilizzata in 3 domini: modelli e previsioni di mercato, valutazione del rischio e cybersicurezza per la protezione da frodi. Nel primo caso, Bloomberg ha presentato un modello specializzato e basato sulla vasta base di dati in suo possesso, BloombergGPT, aprendo un nuovo mercato di informazioni statisticamente predittive che avrà sicuramente uno sviluppo enorme nel futuro, ma anche un nuovo fronte di discussione sui temi regolatori.

La lista dei settori che sono o saranno influenzati più o meno pesantemente da questa tecnologia è pressoché infinita; la scrittura di testi e di musica, la creazione di quadri, l’applicazione nelle scienze di tutti i tipi, ma anche il settore politico e quello militare, l’agricoltura, l’energia. Ma allora qual’è la differenza tra l’intelligenza umana e quella artificiale? Tempi di risposta (e quindi costi) se rimaniamo nel campo dell’intelligenza razionale, mentre non c’è battaglia se parliamo di emotività ed immaginazione. Amore, senso del bello, passione, amicizia, fantasia, ma anche giustizia, verità, coraggio, fiducia sono fuori della portata dell’intelligenza artificiale, almeno per il momento.

Veniamo agli aspetti critici di tale tecnologia.

Come detto, i modelli di IA Generativa sono addestrati con enormi moli di dati e quindi la loro precisione dipende fondamentalmente dalla qualità dei dati stessi. Se la qualità non è sufficiente, le risposte saranno incomplete o addirittura sbagliate. Se provate a chiedere a ChatGPT un banale elenco degli Imperatori Romani, avrete delle brutte esperienze e per giunta non sarete sicuri del risultato finale…a meno di non conoscere già la risposta. Il tema della precisione, e quindi dell’affidabilità dell’output, è un tema scottante, in quanto non sono resi noti quali dati di input sono stati utilizzati per creare il modello. La trasparenza sulle basi dati di addestramento sarà un punto estremamente delicato per la credibilità dei sistemi.

Altro punto critico delle basi dati per l’addestramento dei modelli è il bias ed il pregiudizio che può derivare da esse. La GenAI non è fatta per distinguere il vero dal falso o per valutare e correggere dati tendenziosi, ed essendo le basi dati create dagli umani, semplicemente addestriamo i modelli ad avere gli stessi bias e pregiudizi amplificati. Una ricerca ha mostrato che l’uso di algoritmi predittivi da parte della polizia americana avevano tendenze razziste, sulla base di set di dati non bilanciati. Di chi è o sarà la responsabilità di monitorare e correggere tali situazioni? Un conto è avere pregiudizi in singoli documenti su internet, altro è generare modelli utilizzati per prendere decisioni.

Argomento a parte consiste nei Diritti di Proprietà Intellettuale, divenuto estremamente rilevante nell’ultimo anno: molte organizzazioni proprietarie di larghe basi dati (giornali, televisioni, ma anche musicisti e scrittori) hanno iniziato ad impedire l’utilizzo dei propri dati, o a trattarne forme di concessione. Ma che ne è dei dati dei singoli cittadini? Meta, per fare un esempio, ha dichiarato che ha lanciato un programma di sviluppo della propria intelligenza artificiale e che userà i dati degli utenti per addestrare il proprio modello. Come fa il singolo utente di Meta a difendere i propri dati? E come si fa a sapere che i propri dati sono stati utilizzati quando non c’è nessun obbligo di trasparenza nell’utilizzo dei set utilizzati per l’addestramento?

È inoltre interessante il tema della proprietà intellettuale relativa a quanto prodotto dalla Intelligenza Artificiale: di chi è? Recentemente un produttore di bibite ha chiesto ad un sistema di GenAI di fornirgli la composizione per produrre un nuovo prodotto, ed ha ricevuto la lista dei componenti ed il suggerimento delle dosi. La bibita è andata in commercio, ma chi detiene la proprietà intellettuale della formula? Non esiste al momento normativa Italiana o Europea per la definizione della proprietà intellettuale di tali elaborati: la discussione è in corso e richiederà un grande sforzo legislativo al fine di anticipare le prevedibili battaglie acuite dalla rapida sofisticazione ed espansione della tecnologia.

Altro elemento critico da tenere in considerazione è quello ambientale. Questa tecnologia è energivora e sebbene non ci sia una misura diretta, si può stimare che le Big Tech stiano consumando quanto un medio stato Europeo per addestrare e gestire i modelli alla base della GenAI. Inoltre il consumo d’acqua per raffreddare i Data Center è enorme, e l’impronta idrica dei modelli di intelligenza artificiale non può più passare inosservata. Si stima infatti che qualche decina di domande effettuate da un utente ad una piattaforma di IA generi un consumo di mezzo litro d’acqua. E le Big Tech hanno consumato nel 2022 oltre 2 miliardi di metri cubi d’acqua per il raffreddamento dei propri DataCenter.

Se da un lato la GenAI è utile nel campo della Cybersecurity, dall’altro come ogni tecnologia può essere utilizzata in modo fraudolento per commettere Cyber Crimes sempre più sofisticati. Mentre i servizi più comuni come ChatGPT hanno implementato standard etici che rifiutano le richieste potenzialmente criminose, ci sono diversi tentativi di aggirare tali controlli. Almeno per il momento non si registra un impatto significativo della IA Generativa a favore dei Cyber Crimes, poiché altre tecnologie sono ancora efficaci ed a basso costo, ma considerando la velocità di crescita nella sofisticazione dei modelli e dei relativi utilizzi gli Enti preposti al controllo tengono sotto osservazione le evoluzioni.

Ed arriviamo al punto dolente sul quale tutti si stanno interrogando: la GenAI distruggerà posti di lavoro? Sul tema ci sono pareri contrastanti ma nessuno ha una risposta netta. Sicuramente trasformerà il lavoro di tutti, sicuramente eliminerà per primi i lavori a basso contenuto di intelligenza, dove il suo ingresso sarà più semplice e rapido. Ma non immaginiamoci un cambiamento repentino, poiché gli investimenti necessari per l’introduzione ed il mantenimento di sistemi di Intelligenza Artificiale sono ingenti e presentano comunque complessità anche per le grandi organizzazioni.

La IA Generativa, come ogni nuova tecnologia, affiancherà la forza lavoro e ne potenzierà le capacità, almeno per il medio periodo. Un recente studio di Goldman Sachs ha stimato che l’IA potrebbe potenzialmente mettere a rischio 300 milioni di posti di lavoro nel medio termine, mentre altri studi stanno fornendo dati meno allarmanti, a causa della crescita di posti di lavoro nelle attività legate al cambiamento climatico e le trasformazioni green. Inoltre il fattore geografico gioca un ruolo determinante, sia per gli effetti positivi che per quelli negativi.

Esistono invece grandi perplessità relativamente alla questione della concentrazione di potere, poiché queste tecnologie sono in mano a poche multinazionali e l’accesso sarà principalmente disponibile, per questioni di capitale, a relativamente poche aziende in grado di sostenerne gli investimenti necessari. Questo potrebbe essere un elemento scatenante per la contrazione della forza lavoro e forzerebbe i governi a prendere decisioni importanti di fronte alle sfide politiche per gestire la trasformazione.

Guardando indietro nel tempo, ci sono voluti 40 anni per rendere l’elettricità accessibile ai più, mentre soli 10 anni agli smartphone per arrivare ad un tasso di copertura del 90%. Entrambe queste tecnologie dovettero costruire le infrastrutture di base per il loro funzionamento. La differenza qui è che l’IA ha l’infrastruttura già disponibile e la sua espansione avverrà quindi in tempi molto più rapidi, presumibilmente dai 3 ai 5 anni. Questo genera una sfida enorme per i governi, se ne vogliamo regolamentare gli sviluppi economici, geopolitici, legali ed etici. In questo senso l’UE dovrà giocare un ruolo cardine per bilanciare i trend globali derivanti dall’Intelligenza Artificiale: investimenti mirati e cospicui al fine di permettere al Vecchio Continente di avere un ruolo attivo, con proprie capacità e con una democratizzazione di tale tecnologia. Per il momento è in dirittura d’arrivo l’“Artificial Intelligence Act”, che dovrebbe entrare in vigore entro quest’anno e rappresenta il primo passo di “legislative framework” a livello Europeo. Ma ancora nulla sul fronte degli investimenti attivi in grado di fronteggiare il predominio tecnologico americano. Un recente report dell’Aspen Institute propone di creare un centro europeo sulla Intelligenza Artificiale sul modello del CERN, per concentrarsi sulla ricerca avanzata e costituire un centro di riferimento per una via Europea sull’IA. Questo genererebbe anche una ricaduta importante nella creazione e retention delle eccellenze che altrimenti rischierebbero di migrare nei paesi ad alto tasso di investimento.

Come preparare le nuove leve per renderle pronte al futuro mondo tecnologico dove l’Intelligenza artificiale sarà una componente sempre più presente? Sul fronte delle politiche attive della scuola serve uno sforzo alla base della formazione, al fine di creare le capacità sinergiche con l’intelligenza artificiale. La tecnologia è qui, non possiamo negarla o combatterla, piuttosto sfruttiamola nel miglior modo possibile ed in modo consapevole. Anche qui, un programma nazionale mirato a fornire gli strumenti alle scuole e formazione ai docenti è comunque indispensabile.

Ben venga l’Intelligenza artificiale nelle classi se diventa la base per una crescita consapevole e positiva. Insegniamo ai nostri ragazzi come utilizzare le tecnologie nel miglior modo, aumentiamo la loro consapevolezza sui pregi e sugli usi impropri. Li prepareremo a vivere in modo responsabile il nuovo mondo intelligente.

Maurizio Mondani

Head of Operations, Applications Business Line - Capgemini

Registrato al Tribunale di Roma il 19/09/2018, n. 155
Direttore: Roberto Serrentino

© Copyright 2024 | Dimensione Informazione
Tutti i diritti riservati

Privacy Policy Cookie Policy Cambia preferenze

Contatti:
Viale Giuseppe Mazzini, 134 - 00195 Roma
Telefono: 06.37516154 - 37353238
E-mail: redazione@dimensioneinformazione.com