Intelligenza Artificiale, un mix di benefici e problemi
A illustrare i numerosi vantaggi, ma anche i possibili impatti negativi che l’uso dell’IA porta con sé è Emilio Fortunato Campana, direttore del Dipartimento Ingegneria, ICT e tecnologie per l'energia e i trasporti del Cnr. Un dualismo che suscita dibattiti appassionati e sentimenti contrastanti, quali speranze e paure
Non è per nulla semplice parlare oggi di Intelligenza Artificiale (IA). Mentre la frontiera scientifica avanza con rapidità impressionante, il dibattito politico, culturale, etico intorno ai temi sollevati da questo progresso vertiginoso sono preda di sentimenti e argomenti fortemente contrapposti. Da un lato, l’apocalisse delle macchine che prendono il controllo sul mondo (in perfetto stile Terminator), o la preoccupazione che la nostra capacità intellettuale venga per sempre menomata e ridicolizzata; dall’altro, la possibilità che l’uomo insegni a una macchina a pensare, e che questo rappresenti per l’umanità una conquista che consentirà di cambiare per sempre il nostro destino (in meglio).
La IA è nata da diversi decenni (sostanzialmente insieme all’informatica), ma non aveva mai suscitato dibattiti così appassionati, speranze e paure così distanti. Cosa è cambiato recentemente? Gli elementi di questo straordinario progresso sono, in sintesi, tre: la disponibilità gratuita (open software) di algoritmi sempre nuovi, l’enorme capacità di calcolo che il cloud mette a disposizione e il diluvio di dati generati e raccolti in ogni parte del mondo e in ogni momento.
E quali sono alcuni pezzi fondamentali per la comprensione dei metodi e dei problemi della IA? Intanto c’è sicuramente l’apprendimento automatico (machine learning), un metodo sostanzialmente statistico con cui si insegna (nella definizione in realtà si dice una cosa in più: l’algoritmo, la macchina, imparano) a comportarsi in maniera intelligente. Un algoritmo di machine learning è in grado di imparare dai dati e di costruire un modello per ogni specifico problema che gli venga presentato. I problemi possono essere di tanti tipi: problemi di classificazione (data una foto di un frutto, un tronco, una foglia, individuare il nome dell’albero), di regressione (cercare una legge nascosta nel mucchio dei dati, che consenta poi di fare previsioni accurate), di trascrizione (ad esempio il riconoscimento di caratteri da un’immagine di un testo), di traduzione (chi non ha mai usato il traduttore di Google?), rilevamento di anomalie, ecc.
Quando però il compito è più complesso, ad esempio quello di far compiere all’algoritmo un’azione desiderata al momento giusto, e in funzione dell’ambiente circostante, si usa un approccio di apprendimento chiamato reinforcement learning: l’algoritmo viene premiato se fa la cosa giusta.
L’apprendimento automatico è basato sulle reti neurali, reti di nodi che si attivano a seconda di “pesi” delle connessioni tra i nodi stessi e che aumentano o diminuiscono durante l’apprendimento a seconda dei dati che vengono forniti all’algoritmo. I metodi sviluppati nell’ultimo decennio nell’approccio neurale, e che ne hanno aumentano l’accuratezza, hanno introdotto degli strati di neuroni intermedi e profondi (nascosti: hidden layers) e per questo si chiamano deep learning. L’addestramento della rete si esegue cercando di individuare i pesi corretti dei neuroni della rete, fino a che la risposta non sia sufficientemente accurata. Il deep learning ha permesso di raggiungere risultati incredibili nell’emulazione dell’intelligenza umana in compiti via via sempre più complessi: compreso quello di emulare la creatività artistica, considerata da sempre una fondamentale prerogativa umana.
E mentre il dibattito scientifico procede con i suoi ritmi e le sue regole, si sviluppano quelli intorno ai temi sociali ed etici dell’impatto della IA sulla nostra vita. Due sono i principali problemi: il primo è che lo sviluppo della IA renderà inutile l’intervento umano in interi settori economici, sociali e forse anche artistici. Molte professioni saranno sollevate dal bisogno dell’intervento umano, che verrà sostituito dalla IA. Il fenomeno sta già accadendo anche in settori dove non lo si aspettava così presto: ad esempio nel campo della traduzione con i modelli linguistici più recenti, estremamente avanzati. Altri temi etici nascono intorno alle scelte degli algoritmi, sia nel capo civile che nell’uso della IA nei settori della Difesa.
Infine, non può non sollevare discussioni la notizia che lo sviluppatore di Google, Blake Lemoine, ha sostenuto recentemente che un programma di conversazione da lui sviluppato avesse raggiunto lo stadio dell’autocoscienza e che possedesse sentimenti: l’evoluzione della IA che imita l’umano.
Citando un numero recente della rivista “Limes”, proprio centrato sugli sviluppi recenti e sull’impatto dell’IA sul mondo, possiamo dire che lo studio del neurone, così importante per lo sviluppo di questa tecnologia, non aveva certo lo scopo di produrre una replica del cervello umano. Si tratta di un algoritmo, un modo per procedere alla soluzione di problemi complessi attraverso la comprensione di alcuni meccanismi di base (semplificati) dell’apprendimento umano: il neurone numerico usato per l’apprendimento automatico è una semplificazione estrema, mentre il neurone biologico è, tanto per iniziare, elettrochimico. In atri termini, quello che chiamiamo cervello elettronico non è un cervello, anche se riesce meglio di noi in alcuni compiti. Sempre da “Limes”: “è come il braccio meccanico di una gru: è gigantesco, può distruggere un muro in un colpo solo, ma non è certo un braccio come quello che abbiamo attaccato alle spalle - se non nel nome”.
Fonte: Emilio Fortunato Campana, Dipartimento Ingegneria, ICT e tecnologie per l'energia e i trasporti, emiliofortunato.campana@cnr.it