Al giorno d’oggi i sistemi intelligenti sono presenti in ogni campo, anche nelle attività quotidiane e primeggiano nei giochi, come teorizzato anni prima da esponenti dell’intelligenza artificiale. Vi sono programmi che sono stati in grado di confrontarsi con campioni di scacchi, quali Deep Blue; altri che sono stati impiegati nelle missioni spaziali, come nel 1998 quando la NASA utilizzò un programma chiamato Remote Agent in grado di gestire le attività relative a un sistema spaziale; alcune auto sono oggi dotate di un sistema in grado di guidarle senza l’uso di un conducente umano, quindi in maniera del tutto autonoma. L’intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi poiché manifesta aspetti etici oltre che teorici e pratici. Stephen Hawking nel 2014 ha messo in guardia riguardo ai pericoli dell’intelligenza artificiale, considerandola una minaccia per la sopravvivenza dell’umanità. Il 2 agosto dello stesso anno anche Elon Musk ha twittato: «Dobbiamo essere super attenti all’intelligenza artificiale. Potenzialmente più pericolosa del nucleare.
Definizioni specifiche possono essere date focalizzandosi o sui processi interni di ragionamento o sul comportamento esterno del sistema intelligente e utilizzando come misura di efficacia o la somiglianza con il comportamento umano o con un comportamento ideale, detto razionale:
Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano.
Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato alle scienze cognitive.
Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.
Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.
Storia
Tradizione di ricerca
Molteplici furono i passi che portarono alla nascita di questa disciplina. Il primo, sia a livello di importanza sia di ordine cronologico, è l’avvento dei calcolatori e il continuo interesse rivolto a essi. Già nel 1623, grazie a Willhelm Sickhart, si arrivò a creare macchine in grado di effettuare calcoli matematici con numeri fino a sei cifre, anche se non in maniera autonoma. Nel 1642 Blaise Pascal costruì una macchina in grado di fare operazioni utilizzando il riporto automatico, mentre nel 1674 Gottfried Wilhelm von Leibniz creò una macchina in grado di effettuare la somma, la differenza e la moltiplicazione in maniera ricorsiva. Tra il 1834 e il 1837 Charles Babbage lavorò al modello di una macchina chiamata macchina analitica, le cui caratteristiche anticiparono in parte quelle dei moderni calcolatori. Nel ventesimo secolo l’attenzione sui computer ritornò ad accendersi: nel 1937, ad esempio, Claude Shannon, all’università di Yale, mostrò come l’algebra booleana e le operazioni binarie potessero rappresentare il cambiamento circuitale all’interno dei telefoni.
Un ulteriore passo importante fu l’articolo di Alan Turing redatto nel 1936, On Computable Numbers, With An Application To The Entscheidungsproblem, che pone le basi per concetti quali calcolabilità, computabilità, macchina di Turing, definizioni cardine per i calcolatori sino ai giorni nostri. In seguito, nel 1943 McCulloch e Pitts crearono ciò che viene ritenuto il primo lavoro inerente all’intelligenza artificiale. Tale sistema impiega un modello di neuroni artificiali nel quale lo stato di tali neuroni può essere “acceso” o “spento,” con un passaggio ad “acceso” in presenza di stimoli causati da un numero sufficiente di neuroni circostanti.
McCulloch e Pitts arrivarono quindi a mostrare, ad esempio, che qualsiasi funzione computabile può essere rappresentata da qualche rete di neuroni, e che tutti i connettivi logici (“e”, “o”, …) possono essere implementati da una semplice struttura neurale. Sette anni più tardi, nel 1950, due studenti dell’università di Harvard, Marvin Minsky e Dean Edmonds, crearono quella che viene riconosciuta come la prima rete neurale, conosciuta con il nome di SNARC.
La nascita effettiva della disciplina (1956)
Nel 1956, nel New Hampshire, al Dartmouth College, si tenne un convegno al quale presero parte alcune delle figure di spicco del nascente campo della computazione dedicata allo sviluppo di sistemi intelligenti: John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester. Su iniziativa di McCarthy, un team di dieci persone avrebbe dovuto creare in due mesi una macchina in grado di simulare ogni aspetto dell’apprendimento e dell’intelligenza umana. Ad aderire a tale iniziativa furono alcuni ricercatori, tra cui anche Trenchard More di Princeton, Arthur Samuel di IBM, e Ray Solomonoff e Oliver Selfridge del MIT. Nello stesso convegno, un’altra iniziativa catalizzò l’attenzione oltre al progetto di McCarthy: il programma di Allen Newell e Herbert Simon. Questi due ricercatori, a differenza di McCarthy, avevano già un programma capace di qualche forma di ragionamento, conosciuto con il nome di Logic Theorist, o LP, in grado di dimostrare teoremi partendo dai principi della matematica. Sempre nello stesso convegno, McCarthy introdusse l’espressione intelligenza artificiale, che segnò, in maniera indelebile, la nascita effettiva di tale disciplina, conferendole una natura propria.
Prime grandi aspettative (1950-1965)
Il programma creato da Newell e Simon permise loro di progredire e creare un programma chiamato General Problem Solver, o GPS. A differenza del LP, il GPS fu ideato con lo scopo di imitare i processi di risoluzione dei problemi utilizzati dagli esseri umani (nello specifico la cosiddetta “euristica mezzi-fini”). Nei ristretti casi nel quale il programma poteva operare, si notò che l’approccio con il quale il programma considerava gli obiettivi e le azioni era assimilabile a un umano. Negli stessi anni, presso l’IBM, Rochester con dei suoi colleghi cominciò a sviluppare altri programmi capaci di ragionamento.
Nel 1959, Herbert Gelemter creò il Geometry Theorem Prover, un programma in grado di dimostrare teoremi di geometria complessi. L’anno precedente, presso il MIT, McCarthy diede un altro contributo al campo dell’intelligenza artificiale definendo quello che per trent’anni fu riconosciuto come il linguaggio di programmazione dominante per la realizzazione dei sistemi di intelligenza artificiale: il Lisp. Oltre a ciò, McCarthy scrisse un documento intitolato Programs with Common Sense, nel quale descrive un programma ideale, chiamato Advice Taker, che può essere visto come il primo sistema intelligente completo. A differenza del LP e del GPS, l’Advice Taker era progettato per trovare soluzioni a problemi di tipo diverso, ovvero non strettamente matematici.
Minsky, durante il suo periodo al MIT, coordinò la creazione di programmi per affrontare quelli che vengono chiamati micro mondi, ovvero problemi limitati e descritti da asserzioni che richiedevano l’utilizzo di ragionamento per essere risolti. Tra questi, il programma di James Slagle del 1963, SAINT, era in grado di risolvere problemi riguardo al calcolo integrale in forma chiusa, tipici del primo anno del college.
Prime difficoltà (1966-1969)
Tra le varie aspirazioni da parte dei ricercatori vi era principalmente quella di creare macchine in grado di esibire capacità di ragionamento simili a quelle umane. Ad esempio, Herbert Simon, nel 1957, stimò che nel giro di dieci anni ci sarebbero state macchine in grado di competere con i campioni di scacchi (previsione che si avvererà, ma dopo quarant’anni). Queste aspirazioni, però, dovettero scontrarsi con alcune difficoltà: prime fra tutte, l’assoluta mancanza di conoscenza semantica relativa ai domini trattati dalle macchine, in quanto la loro capacità di ragionamento si limitava a una mera manipolazione sintattica. A causa di questa difficoltà, nel 1966 il governo degli Stati Uniti d’America interruppe i fondi per lo sviluppo delle macchine traduttrici. Un ulteriore problema fu l’impossibilità del trattare molti problemi che l’intelligenza artificiale si era proposta. Questo perché si riteneva che “scalare” le dimensioni di un problema fosse solo una questione di hardware e memoria.
Questo tipo di ottimismo fu presto spento quando i ricercatori fallirono nel dimostrare teoremi a partire da più di una dozzina di assiomi. Si capì quindi che il fatto di disporre di un algoritmo che, a livello teorico, fosse in grado di trovare una soluzione a un problema non significava che un corrispondente programma fosse in grado di calcolarla effettivamente a livello pratico. Un terzo tipo di difficoltà furono le limitazioni alla base della logica, nel senso di ragionamento, dei calcolatori. Nel documento di Minsky e Papert, intitolato Perceptrons (1969), si mostrò che, nonostante un percettrone (una semplice forma di rete neurale) fosse in grado di apprendere qualsiasi funzione potesse rappresentare, un percettrone con due input non era in grado di rappresentare una funzione che riconoscesse quando i due input sono diversi.
Sistemi basati sulla conoscenza (1969-1979)
Le precedenti difficoltà portarono a definire gli approcci adottati dalle macchine come approcci deboli, necessitando quindi di una conoscenza maggiore inerente al campo di applicazione. Nel 1969, grazie a Ed Feigenbaum (studente di Herbert Simon), Bruce Buchanam e Joshua Lederberg, venne creato il programma DENDRAL. Tale programma era in grado, a partire dalle informazioni sulla massa molecolare ricavate da uno spettrometro, di ricostruire la struttura di una molecola. Questo programma fu quindi il primo dei sistemi basati su un uso intensivo della conoscenza, che arrivarono più tardi a inglobare tutti i concetti teorizzati da McCarthy per l’Advice Taker. Successivamente, Feigenbaum cominciò insieme con altri ricercatori di Stanford l’Heuristic Program Project (HPP), al fine di estendere gli scenari applicativi di questi sistemi, cominciando con il sistema MYCIN nell’ambito delle diagnosi delle infezioni sanguigne. Si cominciò quindi a teorizzare dei sistemi conosciuti come sistemi esperti, ovvero in grado di possedere una conoscenza esperta in un determinato scenario di applicazione.
Dall’ambiente accademico all’industria (1980-1985)
Il primo sistema di intelligenza artificiale utilizzato in ambito commerciale fu R1, utilizzato dalla Digital Equipment nel 1982. Lo scopo del programma era quello di aiutare a configurare gli ordini per nuovi computer. Nel 1986, fu in grado di far risparmiare alla compagnia 40 milioni di dollari all’anno. Anche la DuPont utilizzò sistemi simili, risparmiando circa dieci milioni di dollari all’anno. Negli anni ’80 dello scorso secolo, quasi ogni grande azienda americana aveva un proprio sistema esperto in operazione e stava studiando sistemi più avanzati. Nel 1981 in Giappone venne annunciato il progetto Fifth Generation, un piano di dieci anni con l’intento di costruire sistemi intelligenti basati su Prolog. In risposta, gli Stati Uniti d’America crearono la Microelectronics and Computer Technology Corporation (MCC), come consorzio di ricerca al fine di garantire la competitività a livello nazionale. In Inghilterra, il rapporto Alvey recuperò i fondi tagliati dal rapporto Lighthill, che nel 1973 portò il governo britannico alla decisione di interrompere il supporto verso la ricerca nell’ambito dell’intelligenza artificiale. Questi progetti però non raggiunsero gli scopi previsti. L’industria dell’intelligenza artificiale raggiunse nel 1988 una cifra dell’ordine di miliardi di dollari, includendo centinaia di aziende che stavano creando sistemi esperti, robot e software e hardware specializzati in questi settori.
Il ritorno delle reti neurali (1986)
A metà degli anni ottanta dello scorso secolo fu reinventato l’algoritmo di apprendimento per reti neurali chiamato back-propagation, inizialmente ideato nel 1969 da Bryson e Ho. L’algoritmo fu applicato a molti problemi relativi all’apprendimento, inerenti sia al lato dell’informatica sia a quello della psicologia. I cosiddetti modelli connessionisti per la realizzazione di sistemi intelligenti furono visti come alternative ai modelli simbolici ideati da Newell e Simon, da McCarthy e dai loro collaboratori. Tali modelli cercarono di dare risposta a quelle domande alle quali i precedenti modelli non erano riusciti, ma in parte fallirono anch’essi. Di conseguenza, i modelli basati sull’approccio simbolico e quelli con un approccio connessionista furono visti come complementari.
L’intelligenza artificiale al giorno d’oggi (1986)
Al giorno d’oggi i sistemi intelligenti sono presenti in ogni campo, anche nelle attività quotidiane e primeggiano nei giochi, come teorizzato anni prima dagli esponenti dell’intelligenza artificiale. Vi sono programmi che sono stati in grado di confrontarsi con campioni di scacchi, quali Deep Blue; altri che sono stati impiegati nelle missioni spaziali, come nel 1998 quando la NASA utilizzò un programma chiamato Remote Agent in grado di gestire le attività relative a un sistema spaziale; alcune auto sono oggi dotate di un sistema in grado di guidarle senza l’uso di un conducente umano, quindi in maniera del tutto autonoma. Nell’ambito di scenari più quotidiani si pensi, invece, ai termostati per il riscaldamento e l’aria condizionata in grado di anticipare il cambio di temperatura, gestire i bisogni degli abitanti e di interagire con altri dispositivi. In campo economico, particolarmente sensibile al cambiamento è il tasso di occupazione in generale, come nella tecnofinanza dove avviene la più profonda rivoluzione.
Principi di Asilomar
Nel 2017 a seguito del convegno di esperti mondiali di intelligenza artificiale promosso dal Future of Life Institute è stato redatto con ampissimo consenso un vademecum con 23 principi per affrontare le problematiche etiche, sociali, culturali e militari dell’IA. Il documento è stato sottoscritto subito da oltre 800 esperti e in seguito da altre migliaia.
Codice etico EU per l’intelligenza artificiale
Partendo dalla premessa per cui i governi devono garantire l’impiego dell’Intelligenza Artificiale nel massimo rispetto dell’etica, nell’aprile del 2019, l’Unione Europea ha elaborato il suo Codice Etico, che contiene le linee guida su utilizzo e sviluppo di sistemi di Intelligenza Artificiale. Il documento, che è stato predisposto da un gruppo di 52 esperti, rappresentati da informatici, ingegneri ma anche giuristi, filosofi, industriali, matematici, ha avuto un iter lungo e vari fasi di approfondimento.
Il punto di partenza dell’intero documento, e di tutti i principi giuridici che ne sono scaturiti, è che l’Intelligenza Artificiale deve avere l’uomo al centro e deve essere al servizio del bene comune per migliorare il benessere e garantire la libertà. Per prima cosa il gruppo di esperti ha identificato le fondamenta giuridiche sulle quali il codice dovesse poggiare ricercandole nei Trattati UE, nella Carta Dei Diritti e nella legge Internazionale dei Diritti Umani. Da questa analisi sono stati individuati quei diritti inderogabili che, nell’Unione Europea, devono essere rispettati per l’Intelligenza Artificiale, vale a dire:
- Rispetto per la dignità dell’uomo
- Libertà dell’individuo
- Rispetto per la democrazia e per la giustizia
- Eguaglianza e non discriminazione
- Diritti dei cittadini.
A questo punto è stato possibile dare indicazioni su quali fossero i principi etici da seguire nell’Unione per garantire che i sistemi di Intelligenza Artificiale siano sfruttati in modo affidabile, i.e.: rispetto per l’autonomia dell’uomo, prevenzione del danno, equità e correttezza.
L’ultima fase di lavoro del gruppo di esperti è stata quella di redigere le linee guida EU del codice etico cui aziende, ricercatori e le comunità in generale dovranno attenersi e che rappresentano la traduzione operativa e la sintesi dei diritti fondamentali e dei principi sopra elencati.
Linee guida
Supervisione umana: l’Intelligenza Artificiale deve essere al servizio dell’uomo e non deve invece ridurne, limitarne o fuorviarne l’autonomia, inoltre non devono essere sviluppati sistemi che mettano a rischio i diritti fondamentali dell’uomo. La persona deve restare autonoma e in grado di supervisionare il sistema stesso.
Solidità tecnica e sicurezza: gli algoritmi devono essere affidabili e sviluppati in modo tale che la sicurezza non venga messa in pericolo durante l’intero ciclo di vita del sistema.
Privacy e governance dei dati: i cittadini devono sempre essere informati dell’utilizzo dei propri dati personali nel massimo rispetto della normativa UE sulla privacy per l’intero ciclo di vita del sistema che fa uso dell’Intelligenza Artificiale.
Trasparenza: trasparenza significa tracciabilità dei sistemi di Intelligenza Artificiale. Tutti i dati utilizzati, inclusi gli algoritmi, vanno documentati, solo così si potranno capire i motivi per cui, ad esempio, una decisione basata sull’Intelligenza Artificiale è stata presa in modo errato.
Diversità, assenza di discriminazione, correttezza: i sistemi di Intelligenza Artificiale devono prendere in considerazione tutte le capacità e le abilità umane, garantendo l’accessibilità a tutti.
Benessere sociale e ambientale: i sistemi di Intelligenza Artificiale devono essere utilizzati per sostenere cambiamenti ambientali positivi e perseguire obiettivi di sviluppo sostenibile.
Responsabilità: devono essere adottati meccanismi di responsabilità nel riportare i dati e gli algoritmi utilizzati nei sistemi di Intelligenza Artificiale. Questo processo di valutazione consente di minimizzare eventuali impatti negativi.
Ricerca
Il problema complesso dello sviluppare sistemi che esibiscono comportamenti intelligenti è stato affrontato operando una scomposizione in sotto-problemi, ognuno con uno specifico ambito di ricerca. Ogni sotto-problema consiste nello studiare particolari abilità e proprietà che caratterizzano il sistema intelligente.
Relativamente all’ambito di applicazione di un determinato sistema intelligente questo presenterà soluzioni più o meno evolute per ogni sotto-problema.
Intelligenza artificiale forte e debole
Una primaria distinzione in seno alla ricerca nel campo dell’intelligenza artificiale è quella di intelligenza artificiale debole e intelligenza artificiale forte a secondo che vengano riprodotte solo alcune o tutte le funzionalità della mente umana.
Deduzione, ragionamento e problem solving
Inizialmente i ricercatori si concentrarono sullo sviluppo di algoritmi che imitassero fedelmente i ragionamenti impiegati dagli esseri umani per risolvere giochi o realizzare deduzioni logiche in modo da poterli integrare all’interno dei sistemi intelligenti. Tali algoritmi solitamente si basano su una rappresentazione simbolica dello stato del mondo e cercano sequenze di azioni che raggiungano uno stato desiderato. Evoluzioni di questi algoritmi vennero realizzati tenendo in considerazione aspetti più complessi come l’incertezza o l’incompletezza delle informazioni, includendo concetti provenienti dalla probabilità, dalla statistica e dall’economia.
Per difficoltà legate alla complessità intrinseca dei problemi in esame, gli algoritmi per la loro risoluzione possono a volte richiedere enormi risorse computazionali. L’ottimizzazione degli algoritmi ricopre una priorità assoluta all’interno della ricerca in questo ambito.
Rappresentazione della conoscenza
La rappresentazione della conoscenza e l’ingegneria della conoscenza costituiscono contributi centrali per la ricerca nell’ambito dell’intelligenza artificiale.
In particolare, queste discipline si focalizzano su quale tipo di conoscenza è necessario o opportuno integrare all’interno di un sistema intelligente, e sul come rappresentare i diversi tipi di informazione. Fra le cose che un sistema intelligente ha la necessità di rappresentare troviamo frequentemente: oggetti, proprietà, categorie e relazioni fra oggetti, situazioni, eventi, stati, tempo, cause ed effetti, conoscenza posseduta da altri. La rappresentazione e l’ingegneria della conoscenza vengono spesso associate alla disciplina filosofica dell’ontologia.
La conoscenza e la sua rappresentazione sono cruciali soprattutto per quella categoria di sistemi intelligenti che basano il loro comportamento su una estensiva rappresentazione esplicita della conoscenza dell’ambiente in cui operano.
Pianificazione
Per permettere ai sistemi intelligenti di prevedere e rappresentare stati del mondo futuri e per prendere decisioni al fine di raggiungere tali stati massimizzando il valore atteso delle azioni, essi devono essere in grado di definire degli obiettivi e di perseguirli.
Nei problemi classici di pianificazione, un sistema intelligente può assumere di essere l’unica entità a operare nell’ambiente e può essere assolutamente sicuro delle conseguenze di ogni azione compiuta. Se non è l’unico attore nell’ambiente o se l’ambiente non è deterministico un sistema intelligente deve costantemente monitorare il risultato delle proprie azioni e aggiornare le predizioni future e i propri piani.
Apprendimento
L’apprendimento automatico è la disciplina che studia algoritmi capaci di migliorare automaticamente le proprie performance attraverso l’esperienza. È stato un ambito di ricerca cruciale all’interno dell’intelligenza artificiale sin dalla sua nascita.
L’apprendimento automatico è particolarmente importante per lo sviluppo di sistemi intelligenti principalmente per tre motivi:
Gli sviluppatori di un sistema intelligente difficilmente possono prevedere tutte le possibili situazioni in cui il sistema stesso si può trovare a operare, eccetto per contesti estremamente semplici.
Gli sviluppatori di un sistema intelligente difficilmente possono prevedere tutti i possibili cambiamenti dell’ambiente nel tempo.
Un’ampia categoria di problemi può essere risolta più efficacemente ricorrendo a soluzioni che coinvolgono l’apprendimento automatico. Questa categoria di problemi include, ad esempio, il gioco degli scacchi e il riconoscimento degli oggetti.
Elaborazione del linguaggio naturale
La capacità di elaborare il linguaggio naturale fornisce ai sistemi intelligenti la possibilità di leggere e capire il linguaggio utilizzato dagli esseri umani. Questa capacità si dimostra essenziale in tutte le applicazioni dell’intelligenza artificiale che richiedano la ricerca di informazioni, la risposta a domande, la traduzione o l’analisi di testi.
La difficoltà principale di questo processo è l’intrinseca ambiguità che caratterizza i linguaggi naturali, per questo motivo le soluzioni richiedono un’estesa conoscenza del mondo e una notevole abilità nel manipolarlo.
Movimento e manipolazione
La robotica è una disciplina strettamente correlata con l’intelligenza artificiale. I robot possono essere considerati sistemi intelligenti per tutti quei compiti che richiedono capacità di livello cognitivo per la manipolazione o lo spostamento di oggetti e per la locomozione, con i sotto-problemi della localizzazione (determinare la propria posizione e quella di altre entità nello spazio), della costruzione di mappe (apprendere le caratteristiche dello spazio circostante), e della pianificazione ed esecuzione dei movimenti.
Metodi
Agente intelligente
Il concetto di agente intelligente (o agente razionale) è centrale in molti degli approcci più comuni all’intelligenza artificiale.
Un agente è un’entità in grado di percepire l’ambiente attraverso l’utilizzo di sensori e in grado di agire sull’ambiente attraverso l’utilizzo di attuatori. Ogni agente è quindi associato a una sequenza di percezioni, intesa come la cronologia completa di tutti i rilevamenti effettuati da ciascun sensore, e a una funzione agente, che specifica il comportamento dell’agente associando a ogni sequenza di percezioni un’azione da compiere.
Definita misura della performance una funzione che associa a ogni stato (o sequenza di stati) dell’ambiente un valore di utilità, un agente è intelligente (o razionale) se per ogni possibile sequenza di percezioni la sua funzione agente lo porta a compiere sempre l’azione che massimizza il valore atteso della misura della performance, data la sua conoscenza definita dalla sequenza di percezioni stessa e dalla conoscenza integrata nell’agente.
Esistono metodologie differenti per l’implementazione concreta della funzione agente, ciascuna più o meno adatta al tipo di ambiente in cui è posto l’agente.
Agenti reattivi semplici
Questa categoria di agenti seleziona l’azione da compiere sulla base della percezione corrente, ignorando completamente la cronologia delle percezioni.
Agenti basati su modello
Questa categoria di agenti è caratterizzata dal mantenere uno stato interno che dipende dalla cronologia delle percezioni e contemporaneamente riflette alcuni degli aspetti dell’ambiente non osservati.
L’aggiornamento dello stato richiede due tipi di conoscenza:
dei modelli che descrivono l’evoluzione dell’ambiente indipendentemente dalle azioni compiute dall’agente,
dei modelli che descrivono l’effetto delle azioni dell’agente sull’ambiente.
Agenti basati su obiettivi
In molte applicazioni, tenere traccia dello stato attuale dell’ambiente non è sufficiente per determinare le azioni da compiere, ma l’agente necessita di informazioni che rappresentano situazioni desiderabili, che prendono il nome di obiettivi, o goal. Questo tipo di agenti intelligenti è quello in cui maggiormente vengono impiegati i concetti di pianificazione e ricerca per problem solving.
Agenti basati su utilità
Il concetto di goal da solo non è sufficiente per ottenere dei comportamenti qualitativamente elevati in molte applicazioni, poiché l’informazione contenuta può essere utilizzata esclusivamente per distinguere gli stati desiderabili dagli stati non desiderabili. Attraverso il concetto di utilità è invece possibile caratterizzare in maniera precisa ogni stato, determinando quanto ogni stato è utile al fine del buon comportamento dell’agente.
Applicazioni
L’intelligenza artificiale è stata impiegata in un’ampia varietà di campi e applicazioni come la medicina, il mercato azionario, la robotica, la legge, la ricerca scientifica e perfino i giocattoli. In alcune applicazioni, l’intelligenza artificiale si è radicata a tal punto all’interno della società o dell’industria da non essere più percepita come intelligenza artificiale.
Anche nel campo dell’informatica stessa, molte soluzioni sviluppate originariamente per rispondere a problemi o necessità dell’intelligenza artificiale sono state adottate da altre discipline e non vengono più considerate parte dell’intelligenza artificiale. In particolare: time-sharing, interprete (informatica), interfaccia grafica, mouse, la struttura dati lista concatenata, la programmazione funzionale, la programmazione simbolica, la programmazione dinamica e la programmazione orientata agli oggetti.
Il primo utilizzo dell’intelligenza artificiale nelle banche è datato 1987 quando la Security Pacific National Bank negli USA organizzò una task force per la prevenzione delle frodi legate all’utilizzo non autorizzato delle carte di credito. Attualmente, e non solo in ambito bancario, le reti neurali vengono utilizzate per identificare fenomeni non riconducibili a un comportamento nominale e che richiedono un intervento umano.
Le reti neurali sono anche largamente impiegate per supportare le diagnosi mediche, e molte altre applicazioni sono attualmente in sviluppo, come ad esempio:
- Interpretazione delle immagini mediche.
- Analisi del suono del cuore.
- Diagnosi del cancro.
- Creazione di medicine.
- Robot di accompagnamento per gli anziani.
L’intelligenza artificiale è largamente utilizzata per la realizzazione di assistenti automatici online principalmente dalle compagnie telefoniche e di telecomunicazione, con l’intento di ridurre i costi di assunzione e formazione del personale.
Anche nell’ambito dei trasporti l’utilizzo dell’intelligenza artificiale sta aumentando rapidamente. Applicazioni della logica fuzzy sono state impiegate nella realizzazione di cambi di velocità per le automobili. Le automobili a guida autonoma sviluppate da Google e Tesla fanno largamente uso di tecniche di intelligenza artificiale.
L’intelligenza artificiale viene anche impiegata nel campo della videosorveglianza. Gli algoritmi consentono il riconoscimento degli oggetti presenti nella scena al fine di generare allarmi.
Ultimo, ma non per importanza, è l’applicazione di reti neurali complesse nella generazione di testi, o meglio, nella trasformazione di un input generalmente testuale in un output anch’esso espresso in caratteri. In particolar modo negli ultimi anni, OpenAI ha rilasciato numerose versioni del suo “modello” denominato GPT, il quale ha riscontrato notevole successo e scalpore. Attraverso questo modello basato su una particolare rete neurale, è stato possibile generare dei racconti, riassumere automaticamente dei testi, tradurre in maniera sempre più precisa da una lingua all’altra. Attraverso questa disciplina le applicazioni sono le più disparate, tra cui, degno di nota e a forte impatto sociale, quello riguardo al binomio giornalismo e scrittura. Il Washington Post ad esempio, gìà nel 2017 dichiarò di aver pubblicato in un anno 850 news elaborate da un’intelligenza artificiale. Storykube sfrutta l’intelligenza artificiale a supporto della stesura di news e loro fact-checking. E infine il giornale canadese The Globe and Mail, interamente diretto da una intelligenza artificiale.
Il mercato dell’intelligenza artificiale in Italia
Il mercato italiano dell’intelligenza artificiale si presenta ancora agli albori, ma le prospettive per il futuro sono positive: nel 2018 ha raggiunto un valore di 85 milioni di euro, una cifra che fa riferimento agli investimenti nello sviluppo e nell’implementazione di progetti come:
- sviluppo di algoritmi di IA;
- hardware per l’immagazzinamento e l’elaborazione di dati;
- software per la gestione dei dati;
- servizi di integrazione e personalizzazione.
Per capire il valore dell’intelligenza artificiale nel contesto tecnologico italiano, è sufficiente notare come si intreccia con altre tendenze digitali come la Cloud Transformation e l’Internet of Things. Il primo rende scalabile l’infrastruttura necessaria alla raccolta ed elaborazione dei dati, mentre il secondo crea dispositivi e sensori utili non solo per la raccolta dati ma anche per veicolare servizi basati sull’IA.
Il significato di IA per le aziende italiane
I media e le aziende stanno rivolgendo sempre più l’attenzione verso il tema dell’intelligenza artificiale, ma questo talvolta comporta una visione poco chiara su questa tecnologia. Infatti, spesso le aziende ritengono che si tratti di una soluzione in grado di replicare completamente l’intelligenza umana, ma questa definizione, che si rifà all’approccio dell’intelligenza artificiale forte, ha poco a che fare con le applicazioni effettive di questa disciplina. D’altra parte, le aziende con una maggiore consapevolezza sul tema, ritengono che l’IA si definisca come un insieme di sistemi dotati di capacità tipiche degli esseri umani.
Intelligenza Artificiale e disoccupazione
Un grande problema economico legato all’implementazione di intelligenze artificiali nel mondo del lavoro è la disoccupazione che essa inevitabilmente provoca. Sempre più persone infatti perdono il lavoro perché un’IA li ha sostituiti. Per risolvere questo problema serve un reddito di base che renda non più necessario lavorare per vivere.
Il futuro dell’intelligenza artificiale in Italia
Benché le aziende italiane nel complesso non abbiano ancora una visione omogenea sul tema, si individuano già aree di sviluppo particolarmente interessanti: gli Smart home speaker sono assistenti vocali intelligenti in grado di gestire oggetti intelligenti presenti in casa. Sono stati introdotti di recente, ma il loro mercato in Italia vale già 60 milioni di euro e il valore sembra destinato a crescere: in un futuro non troppo lontano, questi assistenti potrebbero fungere da canale con cui veicolare servizi e applicazioni legate al mondo dell’AI, creando nuove opportunità di sviluppo per le aziende del settore.
Robot intelligenti
A questa categoria appartengono i collaborative robot e gli AGV (Automated Guided Vehicle). I primi collaborano con un operatore umano e sono in grado di adattare il proprio comportamento agli stimoli esterni, mentre i secondi si adattano all’ambiente esterno muovendosi in autonomia, senza il supporto di guide fisiche o percorsi predeterminati.
Tutor Intelligenti
A questa categoria appartengono gli avatar degli Edugames oppure dei robot che all’interno dei musei, e altri luoghi dell’apprendimento, guidano i discenti-visitatori e fungere dai docenti-educatori artificiali.
L’US Air Force ha utilizzato un copilota AI su un U-2. Ora, l’algoritmo ha una nuova missione.
La guerra metterà presto uomini e macchine l’uno contro l’altro e gli Stati Uniti vogliono essere pronti.
Il mese scorso, l’ USAF ha pilotato con successo un copilota AI su un aereo spia U-2 in California, segnando la prima volta che l’AI ha controllato un sistema militare statunitense. Il copilota computerizzato dell’U-2, chiamato affettuosamente Artuµ, ha ricordato ai più le scene di Star Wars con una cabina di pilotaggio vicino a te. Ma l’ortografia strana era un cenno a qualcosa che non proviene da una galassia molto, molto lontana: l’algoritmo µZero sviluppato da DeepMind.
Progettato per dominare giochi come scacchi e Go, l’Us Air Force ha utilizzato questo algoritmo commerciale per far funzionare il radar dell’aereo spia in meno di cinque settimane. Dopo un milione di missioni simulate, Artuµ non era un tipico aviatore durante il suo primo volo al 9° Stormo di ricognizione: era il comandante della missione. I risultati sono stati così promettenti che abbiamo aggiunto la guerra elettronica al prossimo incarico di Artuµ: un ruolo che probabilmente vedrà missioni nel mondo reale nel prossimo futuro. Il vero R2-D2 racchiudeva anche alcune difese elettroniche segrete.
È davvero iniziata un’era di guerra algoritmica. E per quanto spaventoso possa sembrare, si sta svolgendo su un campo di battaglia molto più ampio la cui “arma”, tra tutte le cose, è la tecnologia commerciale e le società di avvio.
Guerra ludica
Per comprendere quella campagna più ampia, aiuta a rimpicciolire questo particolare fronte dell’IA e scoprire come una startup ha contribuito a farla sviluppare ulteriormente.
Che si giocassero su schede o computer, i giochi erano candidati perfetti per sviluppare l’apprendimento o il processo mediante il quale l’intelligenza artificiale intuisce le regole, i premi e le penalità di sistemi sconosciuti attraverso tentativi ed errori su larga scala. Come nuova startup nel 2010, DeepMind si è fatta le ossa addestrando l’intelligenza artificiale a giocare ai videogiochi della vecchia scuola senza accedere al codice sottostante. Entro il 2013, la sua intelligenza artificiale ha sconfitto gli umani a Pong ed entro il 2020, tutti gli umani in qualsiasi gioco Atari.
Ma il coronamento di DeepMind è arrivato nel 2016 quando AlphaGo, il grande-grande-algoritmo di µZero, ha detronizzato il campione del mondo Go in carica e ha posto fine alla preminenza umana nei giochi di strategia, un vero momento “Sputnik” per i giochi, l’informatica e i futuristi militari.
La guerra ludica per le applicazioni informatiche non è una novità. Franchising come Call of Duty, ad esempio, fanno un gioco di parole. Le operazioni di ricognizione dell’U-2 non sono diverse: trovare bersagli nemici è la ricompensa, obiettivi mancanti, o peggio, essere abbattuti, è la penalità e la fisica è essenzialmente la regola. Ma per comprendere questo “gioco”, Artuµ ha dovuto imparare tutto nel modo più duro, comprese anche le tattiche di base che nessun essere umano avrebbe provato, come aspettarsi che le difese aeree nemiche abbattessero anche gli aerei nemici. Non lo fanno. Lezione imparata. Ripetere.
Ma giocare contro una simulazione porta le lezioni di Artuµ solo fino a un certo punto. Per ottenere tattiche di apprendimento profondo oltre l’umano, proprio come ha fatto la famiglia µZero per i giochi di strategia, abbiamo bisogno che Artuµ giochi contro se stesso. Tuttavia, a differenza del lato opposto di un gioco da tavolo, un’operazione militare opposta, come negare la ricognizione durante un attacco missilistico simulato, necessita di un algoritmo di addestramento unico per il suo schema di ricompensa-penalità unico. Di conseguenza, non avevamo nessun “nemico Artuµ” (o C2-B5 per i fan di Star Wars) contro cui allenarci per il primo volo di Artuµ.
Quindi, per rendere operativa la guerra elettronica, quella che Winston Churchill ha soprannominato la “guerra dei maghi”, si sta giocando e creando quell’alter ego C2-B5 nel nostro FedLab U-2.
Successivamente, verranno completate milioni di sessioni di auto-allenamento per insegnare ad Artuµ/Cetuµ sia il lato buono (sensing) che il lato oscuro (jamming) dell’uso della Forza (elettromagnetica), sebbene entrambi siano intrinsecamente buoni per gli scopi militari. Dopo aver imparato le tecniche magiche di base, ci aspettiamo che segua una magia Jedi più profonda, un livello già impostato nella seconda guerra mondiale. Oltre a contrastare numerose incursioni di bombardieri della Luftwaffe, falsi segnali di navigazione hanno fatto atterrare per errore un bombardiere in un aeroporto alleato!
Data la moderna dipendenza militare dallo spettro elettromagnetico – dalla posizione, navigazione e tempistica al rilevamento e alle comunicazioni – la magia “profonda” appresa con le macchine dovrebbe presto essere all’altezza del soprannome di Churchill.
Man mano che Artuµ e la futura IA si uniscono ai controlli dei sistemi militari, ci si aspetta che le tattiche profonde diventino sempre più critiche per il successo in combattimento, specialmente contro l’IA avversaria. Tuttavia, a differenza dei giochi da tavolo, la guerra futura metterà squadre di esseri umani e macchine l’una contro l’altra, dove poche mosse, inclusi i trucchi mentali algoritmici paralizzanti dell’intelligenza artificiale, sono vietati. Il successo sul campo di battaglia richiederà la riduzione al minimo dei punti deboli a base di carbonio e silicio in modo che possa emergere una vera sinergia di punti di forza.
L’innovazione è il nuovo campo di battaglia
La storia potrebbe facilmente finire qui: la guerra algoritmica come il nuovo campo di battaglia e l’intelligenza artificiale, le nuove armi. Ma le scoperte di armi del passato, come i satelliti, la microelettronica e lo stesso Internet, sono state create quasi esclusivamente per l’esercito americano a costi proibitivi per la maggior parte delle nazioni, per non parlare delle aziende. Ora, anche le startup possono rivaleggiare con capacità un tempo di livello militare e scalare una volta che erano fantascientifiche.
La famiglia µZero è più di un momento Sputnik per l’IA fantascientifica. È ugualmente – e probabilmente, cosa più importante – che una svolta vincente non sia stata sviluppata in un laboratorio governativo, in una base industriale della difesa o in un contratto governativo. È successo grazie a una startup tecnologica commerciale con una grande idea che è stata scalata per realizzarla.
DeepMind non è solo, né l’intelligenza artificiale è l’unico fronte tecnologico vincente. Altre tecnologie commerciali – autonomia, macchine quantistiche, spazio e biologia sintetica, solo per citarne alcune – continuano a crescere grazie ai grandi investimenti privati e all’ampia partecipazione di startup. Indipendentemente dalla prossima svolta tecnologica, il combattimento futuro avrà senza dubbio un dominio “.com”.
Con l’innovazione globale che rende difficile prevedere la guerra futura, l’innovazione stessa è il nuovo campo di battaglia, combattuto ogni giorno in ogni classe, laboratorio, azienda e nazione. Su questo campo di battaglia, la costruzione di eserciti leader a livello mondiale è ancora importante, ma utilizzarli per catalizzare basi di innovazione leader a livello mondiale, in grado di innescare sia la difesa futura che le rivoluzioni industriali, è molto più importante.
Vincere la corsa al mercato per tutti i tipi di tecnologia, compresi quelli commerciali, diventa un imperativo per la sicurezza nazionale. Come ha fatto Han Solo, sparare per primo è il modo sicuro per combattere un altro giorno sul campo di battaglia dell’innovazione.
Ma l’innovazione commerciale è stata storicamente un fallimento “.mil”. Mentre negli ultimi decenni si è assistito a un’incredibile innovazione commerciale, il Pentagono sedeva relativamente senza vita, incatenato dalle abitudini della Guerra Fredda che ostacolano l’agilità. Come la lenta risposta di Xerox ai personal computer, Sears all’e-commerce o Blockbuster allo streaming video, i nostri militari potrebbero facilmente affrontare il barile delle tecnologie future, anziché i mirini, a meno che non ci svegliamo ora. Altrimenti, non c’è alcuna garanzia che la prossima svolta alla Artuµ volerà per prima in una cabina di pilotaggio statunitense.
E non è in gioco solo il futuro potere militare. Queste stesse tecnologie commerciali rivoluzionarie stanno influenzando parti del globo in modi un tempo immaginati da Orwell o dal distopico Black Mirror di Netflix. Garantire che la nuova tecnologia consenta la libertà di idee, mercati ed elezioni, e non il controllo inflessibile ricercato dai governi perpetui, è un ideale condiviso da molti. Ma con il controllo dei governi del “sistema chiuso” che ungono, appoggiano completamente e persino rubano i progetti per le proprie aziende, come possono gli innovatori del mondo libero competere su un piano di livello?
Sebbene sia un’importante questione nazionale, ci sono molti modi in cui le forze aeree e spaziali possono aiutare a livellare il campo di battaglia dell’innovazione. Il finanziamento statunitense è significativo, stabile, non diluitivo e paziente per i ritorni. Il mercato militare USA da $ 160 miliardi all’anno può permettersi ingressi più facili e casi aziendali che generano entrate in precedenza. E con quasi $ 1 miliardo dedicato ogni anno a startup e scaleup, il braccio di investimento AFWERX è ora uno dei più grandi potenziali “investitori” in fase iniziale negli Stati Uniti
In soli due anni, AFWERX ha collaborato con oltre 2.300 aziende tecnologiche, per metà nuove nel lavoro del governo, e ha completato con successo le prime collaborazioni di venture capital del Pentagono, abbinando oltre $ 2 miliardi di investimenti privati a oltre $ 600 milioni di fondi governativi non diluitivi.
Un esempio emblematico, il programma Agility Prime “auto volante”, ha recentemente certificato i primi veicoli per missioni militari con altre 16 aziende all’inseguimento, accelerando questo mercato emergente per usi militari e commerciali. Scalare questo tipo di partnership militare tra i settori della tecnologia commerciale è esattamente come potrebbe apparire vincere sul campo di battaglia dell’innovazione.
Con così tanti vantaggi e alcuni primi successi, la storica scarsità di “unicorni della difesa” indica quanto sia diventato pericolosamente isolato dal punto di vista tecnologico il Pentagono. Con la base industriale della difesa che continua a crollare – e l’80% della ricerca e sviluppo ora commerciale – se i futuri DeepMinds non vedono come un partner di innovazione in anticipo, i futuri Artuµs diventano una pericolosa questione di casualità, se mai accadono.
Nel frattempo, la prossima guerra mondiale viene combattuta ogni giorno: non una calda che richiede un numero romano, né una fredda contro un concorrente economicamente isolato, ma una competizione tecnologica che potrebbe radunaci alla vittoria: sembra proprio il tipo di strategia profonda che µZero e Artuµ riuscirebbero a escogitare.
(Web, Google, Wikipedia, Popularmechanics, You Tube)