Da dove nasce l’intelligenza artificiale?

0
622

Da dove nasce l’Intelligenza Artificiale? Il termine Artificial Intelligence (AI) è stato coniato nel 1956 dal matematico John McCarthy del Darouth College (USA) durante lo storico Summer Research Project attivato “con il preciso scopo di non lasciare dubbi sull’obiettivo della nuova disciplina: simulare l’intelligenza umana”.

La AI ha progredito mirabilmente negli anni e l’interesse per le sue applicazioni specialmente nell’ambito della ricerca medica e biologica è andato viepiù crescendo, ma solo di recente sono stati sviluppati modelli dettagliati del funzionamento cerebrale capaci di influenzarne i progetti.

In precedenza infatti, in assenza di strumenti di indagine in grado di esplorare il cervello con sufficiente risoluzione spaziale e temporale, gli ingegneri dell’AI hanno messo a punto varie tecniche non ancora basate sulla cosiddetta “retroingegnerizzazione dell’intelligenza naturale”.

In ogni modo, da subito i ricercatori hanno intuito le potenzialità della applicazione dell’intelligenza artificiale, in particolare alle scienze della vita, avviando sin dal 1965 presso la Stanford University un progetto chiamato “Dendral” (da “algoritmo dendritico”) finalizzato a produrre un dispositivo di ausilio alla disciplina della chimica organica in grado di identificare molecole ancora sconosciute, attraverso l’analisi del loro spettro di massa e la considerazione dell’intero patrimonio di conoscenze accumulate negli anni nel settore.

Dendral è dunque il primo esempio di “automatizzazione dei processi decisionali umani”, a cui hanno peraltro collaborato specialisti di diverse discipline, dagli informatici ai chimici, ai genetisti, ai filosofi della scienza. Negli anni Settanta poi l’intelligenza artificiale si è dedicata allo sviluppo dei cosiddetti “sistemi esperti”, che hanno rappresentato un metodo specifico di indagine basato su regole logiche capaci di simulare i processi decisionali degli esperti dei diversi campi dell’umano sapere. Il procedimento si basava sulla raccolta di interviste a una serie di “esperti” e sulla successiva codificazione delle loro tipiche “regole di decisione”.

E’ con questo metodo che sono stati messi a punto diversi sistemi innovativi di diagnosi medica. Fra i più famosi: il “Mycin”, implementato sempre alla Stanford per diagnosticare e identificare la cura delle malattie infettive; il CAsNet (da “Causal Associational Networks”), un sistema a rete semantica in grado di formulare raccomandazioni per il trattamento di diverse patologie sulla base di tre livelli descrittivi quali l’osservazione, lo stato patofisiologico, la classe della malattia; infine “Internist-1”, un sistema computerizzato di diagnosi per la medicina interna che ha dato ottimi risultati sia nella ricerca che nella pratica clinica.

Con il procedere della ricerca è diventato sempre più chiaro che i processi decisionali umani non si fondano esclusivamente su regole logiche, ma su tipi “più morbidi” di evidenza e che gli spunti decisionali possono essere influenzati anche dalla combinazione di informazioni di esperienze precedenti.

E’ così che all’inizio degli anni Novanta i “sistemi esperti” hanno finalmente incorporato l’incertezza e la probabilità: nell’ultimo decennio del secolo scorso è stata infatti ripresa ampiamente la logica bayesiana, delineata nel Settecento dal matematico Thomas Bayes per stabilire la probabilità condizionale di eventi futuri in base a occorrenze simili del passato.

In pratica i sistemi basati su questo metodo, elaborando costantemente i dati dell’esperienza passata, imparano in continuo migliorando progressivamente i propri processi decisionali. Nel campo della ia altro interessante paradigma è oggi quello di “auto-organizzazione”, rappresentato al meglio dai cosiddetti “algoritmi genetici  o “evolutivi” proprio perché emulanti l’evoluzione, con tanto di riproduzioni e mutazioni geniche.

Il loro funzionamento è basato sulla definizione iniziale di un elenco di parametri (che rappresentano il codice genetico originale dell’algoritmo) e sulla generazione casuale di migliaia di nuovi codici (considerati organismi soluzione simulati); successivamente, questi organismi vengono messi alla prova in ambienti di simulazione dove solo “i migliori” possono sopravvivere e riprodursi trasmettendo ai discendenti i propri codici genetici.

Il risultato è la creazione di numerose generazioni in rapida evoluzione. Utilizzando gli algoritmi evolutivi possiamo aspettarci dunque l’emergere quasi naturale di una soluzione da un processo iterativo basato sulla competizione e sui velocissimi miglioramenti evolutivi possibili.

Questo metodo – che fa parte della cosiddetta “teoria del caos” o della complessità – viene utilizzato per “catturare” schemi altrimenti non identificabili all’interno di dati complessi e si presta bene per affrontare problemi in cui l’eccessiva numerosità delle variabili rende poco adatti i metodi di calcolo tradizionali. Ai giorni nostri la biologia, la chimica e la medicina si trovano a fronteggiare nuove sfide legate alla travolgente quantità dei dati da prendere in esame e alla necessità di darvi una rapida interpretazione.

Gli approcci computazionali quali gli algoritmi evolutivi, i “sistemi fuzzy” e le reti neurali artificiali vengono usati con frequenza crescente proprio per fare fronte a questi problemi. Tali metodi possono essere usati con successo nello sviluppo di modelli robusti di elaborazione, impiegabili da soli o insieme agli approcci statistici tradizionali.

di Marco Mozzoni