INTELLIGENZA
ARTIFICIALE
Quali indicazioni dal confronto con lfintelligenza
naturale.
La gSocietà della Menteh e la concezione integrata di
Intelligenza Artificiale.
I «sistemi esperti» in ambito medico-diagnostico, le
reti neurali, gli algoritmi genetici.
Verso nuovi
modelli di gPost-humanh?
- di Marina Palmieri
-
¡ gArtificialeh ma non
troppo. Lfintelligenza umana e i suoi confini sempre più sottili fra
gnaturaleh e ginnaturaleh.
«I computer possono
essere capaci di pensare alla stessa stregua degli umani?»: è questa la
domanda fondamentale sulla quale sfimpernia, in modo sempre più vivace,
il dibattito contemporaneo sullfIntelligenza Artificiale. Un dibattito,
questo, che già da decenni coinvolge sul piano di un serratissimo
confronto il mondo della scienza e quello della filosofia, in cui nel
frattempo è confluita attivamente la disciplina della bioetica e che,
oggi più che mai, oggi che la vita anche quotidiana è intrecciata con
lfutilizzo diffuso dei mezzi informatici, irrompe nellfesistenza di
ciascuno di noi con indicazioni, scoperte e sviluppi di grande fascino e
dfindubbio interesse.
Prima di delineare
alcune di quelle indicazioni, sarà utile soffermarci sul significato
stesso di «Intelligenza Artificiale», ovvero sui concetti e sulle
principali coordinate della sua disciplina.
¡ Intelligenza
Artificiale (IA): concetti della disciplina.
Lf«Intelligenza
Artificiale» (che in letteratura viene indicata con lfacronimo gAIh,
dallfinglese Artificial Intelligence) è in genere definita
come lfinsieme di studi e di tecniche che tendono alla realizzazione di
macchine, e in particolare di calcolatori elettronici, capaci di
risolvere problemi e di riprodurre attività proprie dellfintelligenza
umana.
Concetti sottesi a
tale comune definizione di «Intelligenza Artificiale» sono, dunque,
quelli di «intelligenza umana» e di «calcolatori elettronici». Più
precisamente implicato nella rappresentazione di «Intelligenza
Artificiale» in campo informatico è quello di «elaboratore elettronico»
ossia di «computer». Ripercorriamone brevemente i significati, ai fini di
una migliore comprensione delle varie distinzioni via via operate sullo
stesso concetto di «Intelligenza Artificiale».
-
Intelligenza = Adattamento attivo dellforganismo
allfambiente fisico e sociale. Nel caso dellfessere umano, viene definito
gintelligenteh lfindividuo in grado di risolvere problemi anche
riguardanti situazioni lontane nel tempo e nello spazio, utilizzando
«rappresentazioni» mentali o «segni» (matematici, logici e linguistici).
-
Intelligenza
Artificiale (IA) = «LfIA è una
disciplina che studia i fondamenti teorici, le metodologie e le tecniche
che permettono di concepire, progettare, realizzare, sperimentare ed
utilizzare sistemi artificiali sia simulati via software che implementati
in hardware con gli obiettivi di ottenere prestazioni ritenute
caratteristiche dellfintelligenza e di fornire modelli computazionali di
processi cognitivi.» (definizione dellfI.A. secondo lfAssociazione
Italiana per lfIntelligenza Artificiale) (1).
E ancora: «Settore di ricerca che si propone di far fare
alle macchine cose che secondo l'opinione corrente richiedono
intelligenza. Non esistono confini netti fra la psicologia e
l'Intelligenza Artificiale, perché anche il cervello è un tipo di
macchina.» (Marvin Minsky,
"padre" delle teorie sullfIntelligenza Artificiale – vd. avanti
per approfondimenti).
-
Calcolatori
elettronici = Con
questfespressione generica si indicano sia i calcolatori elettronici numerici, più propriamente detti «elaboratori
elettronici» (vd. punto seguente), sia i calcolatori elettronici analogici che non operano numericamente, ma i cui
circuiti simulano specifici fenomeni fisici, tramite variazioni di
grandezze elettriche.
-
Elaboratori elettronici,
o computers = Insieme di apparati
meccanici (hardware) collegati tra loro, in grado di eseguire
rapidamente complesse operazioni matematiche e logiche su una quantità
anche molto elevata di dati. Un computer è costituito da speciali
componenti elettronici, chiamati «circuiti integrati» incisi su silicio:
questo tipo di semiconduttore comprende migliaia e migliaia di
transistori che controllano gli impulsi elettrici aventi la funzione di
griferireh al computer stesso cosa fare e come farlo. Il gcervelloh del
computer (ogcuoreh del computer, come spesso lo si definisce in gergo
informatico) si chiama CPU, acronimo di Central Processing Unit, unità
centrale di elaborazione. Il CPU si trova in comunicazione con i
dispositivi periferici (monitor, stampanti e altre periferiche) e
possiede la capacità di immagazzinare informazioni sulla sua memoria. Le
informazioni vengono immagazzinate sotto forma di impulsi elettrici, che
sono di due tipi: aperto o chiuso, e che corrispondono ad un codice binario 1 o
0; le diverse sequenze di questi impulsi - detti «bit» - vengono
immagazzinate insieme in gruppi di otto a formare un byte.
¨ Elementi
fondamentali per il funzionamento di un computer: memoria, CPU, programma
(o software).
-
Prototipo di tutti gli elaboratori elettronici
(gli odierni e tutti quelli sviluppati a partire da circa la metà del
secolo scorso) è la cd. «macchina di Turing», un modello ideale di
elaboratore automatico guniversaleh messo a punto nel 1936 dallo studioso
Alan Turing (1912-1954).
-
Informatica = «.. l'informatica studia
il comportamento generale delle interazioni, cioè come la società di
parti riesca a fare ciò che quelle parti non sono in grado di fare
separatamente. Benché partita dallo studio dei calcolatori seriali, cioè
di macchine capaci di fare una sola cosa alla volta, l'informatica si è
sviluppata al punto da poter studiare quelle reti interconnesse di
processi che devono svolgersi all'interno della società della mente.» (Marvin Minsky, cit.)
¡ Verso lfintegrazione
Intelligenza Artificiale-intelligenza naturale.
Al di là dei termini
più o meno rigidi del confronto, come quelli che vedono in
contrapposizione la scuola di pensiero dellf«Intelligenza Artificiale
debole» e quella dellf«Intelligenza Artificiale forte» (la prima più
scettica sulla possibilità di integrazione con lfintelligenza naturale
dellfuomo; la seconda, invece, decisamente più aperta e fiduciosa in
merito alla medesima possibilità), è innegabile il fatto che
lfIntelligenza Artificiale, in moltissime delle sue applicazioni,
coadiuvi ad altissimi livelli lfintelligenza umana, fornendo a questa
straordinarie possibilità di ampliamento delle sue stesse potenzialità.
Nata e creata dallfintelligenza umana naturale, lfIntelligenza
Artificiale restituisce a questfultima il suo stesso gportato di
eccellenzah e, in fondo, è una vera e propria estensione
dellfintelligenza umana.
Interessante, a tale
proposito, anche lfevoluzione del linguaggio informatico, che in non
poche espressioni gergali sta a sottolineare la tendenza a un approccio
più gumanizzatoh verso i vari congegni elettronici che, possiamo dire,
costituiscono il gcorpoh tecnologico dellfIntelligenza Artificiale.
Termini ormai dfuso comune sono per esempio quelli di gcuoreh del
computer e di gcervello del computerh, per designare parti di vitale
importanza del pc quali, nella fattispecie, quella del CPU, ossia lfunità
centrale di elaborazione del computer; altrettanto ricorrente,
oggigiorno, è lfuso dellfespressione gpartner tecnologicoh, col che,
ancora, si suggerisce la tendenza al superamento di una certa visione
rigidamente dicotomica fra gnaturaleh e ginnaturaleh, ovvero tra lfuomo e
il prodotto culturale di cui esso stesso è capace; senza dimenticare
ovviamente tutti quei termini - quali per esempio ginterfacciah, gfunzioneh,
gmaninah (parola ma anche immagine che, comfè noto, ci permette di
attivare un collegamento ipertestuale) e molti altri ancora, gvirush
compreso ovviamente - con i quali i vari programmi informatici via via in
commercio hanno efficacemente indotto o facilitato lfutente in una sorta
di familiarizzazione nei confronti del prodotto o progetto informatico
stesso (argomento, questo, che, in quel grande versante dellfIntelligenza
Artificiale rappresentato dal web, rientra per vari aspetti nel nutrito
dibattito su accessibilità e usabilità).
Ma cfè di più, molto
di più anche sullo stesso piano dellfinnovazione linguistica sulla
Intelligenza Artificiale, fino per esempio a impiegare un termine tanto
impegnativo come quello di gpersonalitàh per indicare il modo col quale
un certo programma informatico funziona: niente di più adatto per
riferirsi a linguaggi di «programmazione logica», che, basati su una
complessa serie di formule di logica, attivano processi interni di
deduzione; o per riferirsi alle reti neurali o, ancora, ai moderni
«algoritmi genetici», ossia programmi che si modificano automaticamente
(gspontaneamenteh al loro interno) e che sempre automaticamente
perfezionano le loro funzioni. (vd. più avanti)
Negli ultimi anni, per
di più, il complesso dibattito sullfinterazione uomo-macchina si è andato
arricchendo di tutta una serie di nuove espressioni che, anche nel campo
della bioetica riferita alle nuove frontiere dellfIntelligenza
Artificiale, ci ricordano come nuove specie di gibridazioneh (ibridazione
uomo-tecnica) e nuovi modelli esistenziali di gPost-humanh siano già
scenari aperti e perfettamente integrati con la nostra condizione umana.
Per chi volesse approfondire questi indirizzi di sviluppo della teoria
dellfinformazione, si rimanda alle opere di due illustri studiosi e
scienziati del nostro Paese: quelle di Giuseppe O. Longo
(ordinario di Teoria dellfInformazione all'Università di
Trieste), del quale qui ricordiamo il celebre gHomo technologicush, e quelle di Roberto Marchesini
(studioso di scienze biologiche e di epistemologia), autore fra lfaltro
della vasta opera gPost-human. Verso nuovi
modelli di esistenzah.
¡ Cenni storici sulle
antiche gmacchine intelligentih e sulle prime macchine di calcolo.
Dallfabaco allfavvento della gpascalineh.
Quella di delegare
compiti complessi e faticosi alle macchine non è certo unfidea dei tempi
moderni. La storia offre varie testimonianze di come lfuomo, sin dai
tempi più antichi, si sia ingegnato a realizzare sistemi che potessero
svolgere, al meglio dellfefficienza e dei criteri di economia del lavoro,
le attività di cui fino a quel momento aveva dovuto occupargli egli stesso.
Stante la scelta, adottata per il presente servizio, di affrontare più in
particolare le applicazioni informatiche dellfIntelligenza Artificiale,
sarà sufficiente ricordare, quale macchina intelligente ante-litteram, quello strumento
anticamente utilizzato per lfesecuzione di calcoli elementari, simile al
pallottoliere, noto col nome di gabacoh: a lungo ne fecero ampio ricorso
gli antichi popoli mediterranei e orientali (alcuni autori riferiscono
che probabilmente venne inventato attorno al 5000 A.C. dai Cinesi),
finché, in Occidente, lfintroduzione delle cifre arabe nei secoli
XII-XIII ne decretò il decadimento. Ma sicuramente interessanti, sempre
per ciò riguarda la storia più antica, sono anche i vari dispositivi di
crittografia automatica utilizzati per cifrare e per decifrare messaggi
segreti, soprattutto nel contesto di guerre e comunque di situazioni
strategiche ad alto rischio di violazione della sicurezza delle
informazioni. gPadrih degli odierni e ben più sofisticati sistemi di
crittografia informatica, i primi dispositivi per la scrittura segreta ga
chiaveh di cui ci è giunta conoscenza risalirebbero al 2000 A.C.:
sostanzialmente semplici nella loro forma esterna (in vari casi si
trattava di pali di legno, rotoli di pergamene e simili, previamente e
specificamente gtrattatih o vergati con crittografia gletteraleh, basata
cioè sulla sostituzione e trasposizione di lettere), nel corso del tempo
vennero perfezionati in dispositivi di tipo meccanico per lfimpiego di
sistemi crittografici ga repertorioh (codice, cifrario), ossia di sistemi
che permettevano di cifrare e di decifrare le scritture segrete cambiando
sillabe, parole e frasi con gruppi cifranti fissati dal repertorio.
Quanto alla creazione
di vere e proprie macchine di calcolo, si dovrà attendere il 17‹ secolo e
la realizzazione della macchina aritmetica gpascalineh, capace di
eseguire dei complessi calcoli di addizione e di sottrazione, inventata
da Blaise Pascal (1623-1662); scienziato
operosissimo - si dedicò assiduamente anche al calcolo degli
indivisibili, al calcolo delle probabilità, alle invenzioni del torchio
idraulico, come pure alla teoria delle coniche già iniziata dal
matematico Étienne Pascal (padre dello stesso Pascal, passato poi alla
storia anche per i suoi celebri gPensierih scritti nel 1670) – la sua
macchina gpascalineh verrà più tardi perfezionata dal tedesco G.W.
Leibniz (1646-1716) che la ottimizzò anche per
lfesecuzione di operazioni di moltiplicazione e di divisione.
¡ La nascita della
moderna Intelligenza Artificiale. Marvin Minsky e la teoria della
gSocietà della menteh.
Nel 1956, in occasione di un importante seminario dedicato ai
sistemi intelligenti tenuto nel New Hampshire (U.S.A.), il matematico
John McCarthy propose lfespressione "Intelligenza Artificiale"
(Artificial Intelligence): fu lfinizio di unfepoca. Già da anni alcuni
pionieri dellfIntelligenza Artificiale stavano lavorando a progetti che
poi, nella storia della stessa I.A., sarebbero divenuti lavori
imprescindibili per la conoscenza di tale disciplina. Tra questi vi era
Marvin Minsky (considerato tuttfoggi come il vero "padre "
delle teorie sullfIntelligenza Artificiale) il quale sin dai primi anni
f50 stava lavorando a un progetto per far funzionare gli elaboratori come
se questi disponessero di intelligenza e processi psicologici di tipo
umano. Nel 1951 lo stesso Minsky aveva costruito lo SNARC (Stocastic Neural Analog Reinforcement Computer), il primo
simulatore di reti neurali, basato su un processo di rinforzo dei
coefficienti di trasmissione di sinapsi simulate. Nel 1959, quindi dopo due anni dallo storico seminario che
ufficializzò la nascita della nuova disciplina, lo stesso Marvin Minsky e
John McCarthy fondarono quello che più tardi diventerà il MIT Artificial
Intelligence Laboratory (Laboratorio di Intelligenza Artificiale presso
il MIT), punto di riferimento essenziale per tutti gli studiosi di I.A. e
di sistemi intelligenti.
Ricordiamo che Marvin Minsky (nato a New York nel 1927, matematico ma anche fine studioso di linguistica, filosofia e
altre discipline) è attualmente Toshiba Professor of Media Arts and Sciences e professore di
ingegneria elettronica e informatica al MIT - Massachussets Institute of
Technology - e che allfattivo ha anche vari progetti di ingegneria
robotica. Membro dellfAmerican Academy of Arts and Sciences,
dell'Institute of Electrical and Electronic Engineers, della Harvard
Society of Fellows e della League for Programming Freedom, Marvin Minsky ha ricevuto vari riconoscimenti di altissimo prestigio scientifico
e accademico, tra i quali il Turing Award, il Killiam Award (MIT), il Japan Prize, lo IJCAI Research Excellence Award, il Benjamin Franklin Medal. (2)
Uno dei testi più
importanti e originali di Marvin Minsky, nonché best-seller senza uguali
nella letteratura mondiale sullfIntelligenza Artificiale, è gThe Society
of Mindh (gLa società della menteh). Il contenuto di questo libro è
frutto di un impegnativo lavoro che, sin dai primi anni f70 e assieme a
Seymour Papert (altro esperto di primo spicco nel settore), lo vide
impegnato nella formulazione della teoria gThe Society of Mindh. Lfidea
proposta in questa teoria era che lfintelligenza non fosse il processo di
un singolo meccanismo, bensì il risultato di unfinterazione combinata tra
diverse varietà di agenti (mentali), altamente specializzati e ricchi di
risorse. Minsky e Papert spiegavano, nella stessa teoria, che tale
varietà fosse resa necessaria dal fatto che compiti differenti richiedono
fondamentalmente meccanismi diversi. La teoria della gSocietà della
menteh presentò subito implicazioni forti per gli studi
sullfattività cognitiva; pubblicata già per estratti tra il 1970 e il 1980, la stessa
teoria venne ulteriormente ampliata da Minsky negli anni successivi e,
nel 1985, venne data definitivamente alle stampe (il libro gThe Society
of Mindh, va inoltre ricordato, è composto di 270 pagine ciascuna delle
quali dedicata a unfidea interconnessa con altre: un tipo di struttura
che ha voluto riflettere la struttura dellfintera teoria presentata).
Qui di seguito
alcune delle idee-chiave della teoria di Marvin Minsky:
Il cervello
funziona in base a un meccanismo di gdecentramento". La mente, più
in particolare, funziona in modo simile a una società di agenti altamente
specializzati, ciascuno dei quali svolge uno specifico compito, senza
impegnare la mente per intero. Un esempio fatto da Minsky per spiegare
come collaborino tra loro le diverse unità mentali è riassunto
nellfazione quotidiana del bere un caffè, giacché tale azione richiede
lfintervento di vari agenti specializzati: - gli agenti specializzati
nella presa (che permette di reggere la tazzina); gli agenti
specializzati nellfequilibrio (che impediscono che il caffè venga
versato); gli agenti specializzati nel gusto (che invogliano a bere il
caffè); gli agenti specializzati nel movimento (che fanno sì che la
tazzina venga portata alle labbra). Ebbene - spiega Minsky - quando un
individuo compie più azioni nello stesso momento, tra gli agenti possono
generarsi dei conflitti, con lfeffetto che generalmente uno degli agenti
prevale sugli altri, oppure che in presenza di tensioni eccessive si
produce un blocco, una paralisi, dellfintero sistema. Il fatto che una
persona possa compiere più azioni contemporaneamente – e, specularmente,
che non riesca più a svolgerle in caso di tensioni eccessive tra i vari
agenti – viene sostenuto da Minsky con la dimostrazione che la mente è una società di agenti, in
stretta cooperazione tra loro (da qui, appunto, lfespressione di gSocietà
della menteh). Le considerazioni qui ricordate, che nellfesempio del gesto
quotidiano di bere un caffè chiamano in causa le varie componenti
dellfattività cognitiva umana, riguardano direttamente anche i meccanismi
dellfIntelligenza Artificiale, poiché anche nel caso delle macchine
intelligenti si è in presenza di vari agenti e meccanismi specializzati,
ciascuno dei quali deputato a un compito specifico e che tuttavia
devfessere svolto in stretta cooperazione con gli altri.
Ancora con
riferimento alle macchine, Minsky fa notare come esse, pur precise e
veloci in determinate operazioni, non siano in grado di svolgere compiti
che invece un comune bambino di due-tre anni può portare avanti
facilmente. Questo accade perché alla macchina manca generalmente la
conoscenza del senso comune, quel senso che nellfesperienza umana viene
elaborato continuamente, quotidianamente, ovvero quella «immensa società di idee pratiche acquisite
faticosamente, di un'infinità di regole ed eccezioni, disposizioni e
tendenze, equilibri e freni appresi nel corso della vita". Tuttavia - così
ancora Minsky - riuscendo a dotare le macchine di unfappropriata
architettura di conoscenze, quindi di un gran numero di informazioni che
contengano anche quel senso comune, pure una macchina può gapprendereh e
comportarsi in maniera intelligente.
Altro tema
fondamentale del lavoro di Minsky è quello riguardante la memoria, e
precisamente la teoria gdelle linee kh e di un agente specializzato
definito glinea di conoscenzah. Tale agente viene attivato dallfindividuo
allorché, per esempio, questo voglia memorizzare la risoluzione di un
determinato problema. Una volta attivato, questo agente si glegah agli
agenti che si sono attivati in fase di risoluzione del problema,
determinando così nella mente uno stato che è simile allo stato in cui
precedentemente è stato risolto il problema. Un tema, anche questo delle
linee di conoscenza della memoria, che comfè noto ha trovato una sua potente
applicazione nel campo dellfIntelligenza Artificiale, segnatamente nel
funzionamento delle memorie dei computer, un funzionamento sempre più
raffinato e sempre più complesso (vd. avanti in particolare: reti
neurali, specializzazione dei neuroni, algoritmi genetici).
¡ Il modello delle
reti neurali.
La ricerca sulle reti
neurali rientra in quellfindirizzo di studi sullfIntelligenza Artificiale
denominato gstrutturaleh o gconnessionisticoh. Sul piano informatico,
alla base dei modelli sulle reti neurali vi è lfidea che sia possibile
riprodurre lfapprendimento, simulando al computer la struttura neurale
del cervello umano. Lfidea di costruire dei sistemi di apprendimento
basati su neuroni artificiali risale ai primi anni f40 del secolo scorso
(modello neurale di McCulloch e Pitts). Il primo simulatore di reti
neurali, che come già ricordato venne costruito nel 1951 da Marvin Minsky
(poi fondatore del MIT Artificial Intelligence Laboratory), funzionava in
base a un meccanismo di rinforzo dei coefficienti di trasmissione di sinapsi
simulate: si trattava dello SNARC, Stocastic Neural Analog Reinforcement
Computer, una tappa fondamentale nel campo della ricerca
sullfIntelligenza Artificiale. Nel giro di circa un decennio la ricerca
sulle reti neurali informatiche diede nuovi e (per lfepoca) sorprendenti
risultati, stavolta sul piano dellfapprendimento. Nel 1962, infatti, il
ricercatore Rosenblatt mise a punto il gpercettroneh, un modello di
neurone in grado di apprendere tramite esempi. Ciò che qui ci interessa
maggiormente ricordare è che il modello del percettrone descriveva il
funzionamento di un neurone in base a una somma degli ingressi dei suoi
valori, espressi in pesi (se la somma era superiore a un dato valore di
soglia modificabile, il modello restituiva g1h; se invece la somma era
inferiore a quel dato, il modello restituiva g0h). Tra il 1970 e il 1980 si
sviluppa notevolmente il filone di ricerca sulle reti neurali, che
tuttavia dovrà cimentarsi a lungo con le difficoltà della cd. esplosione
combinatoria (aumento esponenziale dei tempi di calcolo, in relazione
allfaumento della dimensione di un problema). Una svolta fondamentale nel
campo della ricerca neurale si è avuta con lfavvento del modello
gconnessionistah, che consentirebbe di ottenere diverse modalità di apprendimento
a seconda del tipo di apprendimento impartito alla rete neurale. Spiega
sul punto lfesperto Paola Mello (3): «In particolare, i
paradigmi di apprendimento possono essere suddivisi in tre classi
fondamentali: a) apprendimento con supervisione mediante esempi
(Supervised Learning): un insegnante fornisce alla rete le risposte
desiderate che i neuroni dovrebbero produrre dopo la fase di
addestramento; b) apprendimento senza supervisione (Unsupervised
Learning): i neuroni si specializzano mediante una competizione interna
al fine di discriminare gli stimoli presentati in ingresso;
c) apprendimento mediante rinforzo (Reinforcement Learning): alla
rete viene fornita solo una informazione qualitativa sulla bontà della
sua risposta; un critico valuta la risposta della rete ed invia ai
neuroni un segnale di rinforzo positivo se la valutazione è buona,
negativo altrimenti.»
¡ I linguaggi di
programmazione logica e gli «algoritmi genetici».
Altra tappa fondamentale della ricerca sullfIntelligenza
Artificiale fu lo sviluppo del linguaggio gPrologh (PROgramming in LOGic), creato nel 1973 nellfambito degli studi sulla programmazione
logica. A differenza di linguaggi di programmazione che funzionano in
base a un modello di tipo imperativo, ossia di linguaggi che (per esempio
come il linguaggio gCh) vincolano lfelaboratore a una serie di comandi
molto specifici sulle operazioni da eseguire per risolvere un determinato
problema, i linguaggi di programmazione logica utilizzano un complesso di
formule di logica e descrivono il problema, ma senza specificare le
operazioni che dovranno essere effettuate per risolverlo. Logica e
deduzione sono in sostanza i due processi cardine della programmazione
logica introdotta nei primi anni f70.
Allo stesso periodo risale la messa a punto dei primi «algoritmi
genetici», cioè di programmi realizzati in modo che possano modificarsi
in maniera automatica e quindi possano ottimizzare altrettanto
automaticamente le proprie funzioni.
¡ I «sistemi esperti»
o «sistemi basati sulla conoscenza». Lfapplicazione in campo medico di gMycinh, il primo e più noto «sistema esperto».
Tra
il 1970 e il 1980, parallelamente ai fitti studi sui modelli neurali, la
ricerca sullfIntelligenza Artificiale fornisce nuovi risultati anche su
un altro e differente versante: nascono infatti i primi «sistemi esperti»
o «sistemi basati sulla conoscenza», ossia quei sistemi che - per
definizione - rispondono a regole che li rendono in grado di risolvere
problemi in un gdominioh limitato, ma con prestazioni simili a quelle di
un esperto umano del gdominioh medesimo. Il primo «sistema esperto», o
«sistema basato sulla conoscenza», risale al 1972. Venne sviluppato da
E.M. Shortleffe e applicato in campo medico con lo scopo di
esercitare i medici nelle diagnosi. Utilizzare un «sistema esperto» per
la diagnosi permette di riconoscere determinati sintomi e, proprio in
base a tale riconoscimento, di individuare possibili cause di
malfunzionamento e quindi di tracciare un percorso terapeutico. Oltre che
per la diagnosi (che per lfappunto costituisce uno dei principali e più
tradizionali campi di applicazione di tali sistemi, a partire dalle
ricerche di Shortleffe), gli stessi «sistemi esperti» sono utilizzati
anche per: - il monitoraggio (il sistema segue lo sviluppo di un
processo, controlla lfelaborazione dei dati e fornisce informazioni e
stime sullfevoluzione del processo stesso); - la pianificazione (ottimizzazione
delle risorse in base a un determinato obbiettivo e lasso temporale); -
interpretazione di informazioni e segnali (i dati gin ingressoh vengono
sottoposti dal sistema a unfinterpretazione complessiva, che consente di
riconoscere la presenza di alcune situazioni predefinite).
Caratteristica
paradigmatica di un «sistema esperto» è dunque proprio la previa
definizione di un dominio (dominio = problema) limitato. Ed è proprio in
virtù del fatto che un «sistema esperto» sia basato sulla conoscenza di
determinati dati e informazioni che appartengono a quel dominio limitato
(«sistema basato sulla conoscenza» è
lfaltra definizione usata per «sistema esperto»), che lo stesso sistema
può fornire di volta in volta prestazioni simili a quelle dellfoperatore
umano. Simili - proprio grazie alla gcondivisioneh di dati e informazioni
di partenza, appartenenti a quel determinato dominio - ma non uguali: il
compito eseguito da un «sistema esperto» è propriamente un compito
ristretto, circoscritto alla conoscenza di un dominio limitato e
prestabilito.
Gli esperti di
Intelligenza Artificiale ritengono che lfepoca dei «sistemi esperti»
propriamente detti, cioè considerati come programmi isolati, sia prossima
alla fine, a vantaggio invece di una visione (e di una pratica) sempre
più integrata di diversi programmi e sistemi di Intelligenza Artificiale.
¡ Verso un modello
integrato di sistemi di
Intelligenza Artificiale.
Oggigiorno
lfIntelligenza Artificiale investe campi di applicazione fino a pochi
decenni fa impensabili, inclusi quelli finalizzati a riprodurre varie
funzioni umane, e in ciò rappresenta anche un settore di ricerca sempre
più apparentato con la ricerca medico-scientifica. Il perfezionamento, in
particolare, della ricerca sulle reti neurali ha consentito di mettere a
punto dei sistemi di Intelligenza Artificiale molto potenti, le cui
applicazioni pratiche consentono per esempio anche il riconoscimento del
parlato e delle forme.
Al di là dei diversi
atteggiamenti e dei diversi approcci implicati nel dibattito
sullfIntelligenza Artificiale (campo, questo, ormai ampiamente
interdisciplinare e, come già ricordato in premessa, gdi confineh tra la
varie scienze e discipline del sapere), piace concludere, per ora,
ricordando che la ricerca odierna in questo settore sta sempre più
decisamente avanzando verso la messa a punto di sistemi intelligenti
capaci contemporaneamente di ragionamento deduttivo e di ragionamento
induttivo e, più in generale, verso lo sviluppo di un modello gintegratoh
di Intelligenza Artificiale. Non più, quindi, applicazioni di I.A. a sé
stanti, ma combinazione, interconnessione e ottimizzazione di diversi
programmi e sistemi di Intelligenza Artificiale. È lo sviluppo, anche nel
campo dellfIntelligenza Artificiale, di quella «Società della Mente»
tanto ben illustrata dal gpadreh storico della stessa I.A. - Marvin Minsky - e nella quale a
determinare lfintelligenza è lfinterazione combinata tra diverse varietà
di agenti, altamente specializzati e ricchi di risorse.
A Riva del Garda la 17ma Conferenza Europea
sullfIntelligenza Artificiale (ECAI-06)
A Riva del Garda, dal 28
Agosto al 1‹ Settembre 2006, si terrà la 17ma edizione biennale della
ECAI, European Conference on Artificial Intelligence – Conferenza
Europea sullfIntelligenza Artificiale. Un evento di primaria importanza
internazionale nel campo degli studi, delle ricerche e delle
sperimentazioni in questo settore, che offrirà ai ricercatori di tutto
il mondo la possibilità di individuare nuovi sviluppi e nuove frontiere
in tutti i campi dellfIntelligenza Artificiale, e che rappresenterà un
Forum di eccellenza per tutti i potenziali utilizzatori delle tecniche
di Intelligenza Artificiale più innovative.
La 17ma Conferenza Europea
sullfIntelligenza Artificiale (ECAI-06) è organizzata dalla European
Coordinating Committee on Artificial Intelligence (Comitato di
Coordinamento Europeo sullfIntelligenza Artificiale) e
dallfAssociazione Italiana per l'Intelligenza Artificiale.
|
(Marina Palmieri)
Note e riferimenti bibliografici
(1) Associazione Italiana
per lfIntelligenza Artificiale, http://aixia.deis-ce.unibo.it:8080/aixia/aixia.jsp
£
(2) Per gli studi e le opere
di Marvin Minsky si segnala: http://web.media.mit.edu/~minsky/ £
(3) Paola Mello - Cfr.
gIntelligenza Artificialeh/ Le reti neurali - http://www.disf.org/Voci/76.asp
£
• Intelligenza Artificiale - Periodico
trimestrale dell'Associazione Italiana per l'Intelligenza Artificiale
• La società della mente, Marvin Minsky,
Adelphi, Milano, 1989.
• Homo technologicus, di Longo Giuseppe
O., Editore Meltemi, Collana Mutazioni.
• Roberto Marchesini, Post-human. Verso
nuovi modelli di esistenza, Bollati Boringhieri-Torino, collana gSaggi
scientificih.
• Eddy Carli (a cura di), Cervelli che
parlano. Il dibattito su mente, coscienza e Intelligenza Artificiale.
Bruno Mondadori, Milano.
• L'Intelligenza in Rete nascosta nel DNA,
Grazyna Fosar - Franz Bludorf, Macro Edizioni.
|