Vi presentiamo un approfondimento scientifico su un argomento sempre più di attualità
Per definire l’intelligenza artificiale bisogna partire dall’intelligenza biologica.
Nell’intelligenza biologica la percezione di tutti gli stimoli che contribuiscono allo sviluppo del Q.I. è automatico e in relazione al grado di specializzazione dei vari stimoli (visivi, uditivi, di percezione dei colori, percezione spaziale ecc.), si sviluppa nelle varie specie animali un diverso grado di intelligenza.
Nella costruzione dell’intelligenza artificiale si deve, pertanto, tener conto della diversità dei processi intelligenti esistenti in natura.
L’intelligenza artificiale può essere considerata una disciplina con due anime: una ingegneristica che persegue il fine di costruire modelli di sistemi utili ed intelligenti, ed una scientifica che cerca di capire i meccanismi della mente e del pensiero e di trasformarli in messaggi computazionali.
L’intelligenza artificiale deve essere considerata come una forma di filosofia della mente che sostiene che l’insieme di capacità mentali devono essere considerate come una sequenza di programmi più o meno complessa.
Ciò permette, in determinate condizioni, di realizzare sistemi artificiali in grado di effettuare prestazioni umane.
L’analogia tra programmi e capacità mentali trova riscontro nella teoria del Funzionalismo.
L’idea ispiratrice del funzionalismo è la metafora che la mente sta al cervello come il software sta al hardware.
Nei calcolatori l’hardware è mosso da parole e muove parole, ma nella macchina non c’è alcuna sostanza spirituale ed il movimento non è descrivibile in termine di leggi chimico – fisiche.
Secondo le teorie dell’intelligenza artificiale forte un dato programma può girare altrettanto legittimamente nella testa umana o in un calcolatore artificiale e quindi una facoltà mentale può manifestarsi sia con il sostegno del cervello sia con quello di un calcolatore.
Per contestare questa posizione, gli oppositori tra cui Searle, hanno ritenuto opportuno ribadire che per intelligenza o attività mentale, si deve intendere, solo ciò che è prodotto dal cervello umano.
Secondo questa definizione l’intelligenza deve essere considerata come un fenomeno unico ed irripetibile.
Ciò però comporta una tesi di inconoscibilità, poiché in natura non esiste un fenomeno la cui comprensione non implichi una capacità di replica anche abbastanza fedele.
Il funzionalismo paragona la mente ad un sistema operativo e di conseguenza ogni capacità mentale deve essere prodotta da un programma.
Alla luce di tutto ciò bisogna, allora, supporre che tutte le persone nella loro testa abbiano un qualcosa paragonabile ad un sistema operativo universale, e che esso sia uguale per tutti, a parte le diversità trascurabili dovute ad una diversa educazione e all’uso soggettivo che uno ne fa.
Quello che si ipotizza è che il cervello umano per la sua struttura geneticamente determinata e con l’aiuto dell’addestramento e dell’esperienza, sia in grado di produrre, sulla base di un funzionamento chimico – fisico, una struttura stabile simile a quella di un sistema operativo universale.
Il calcolatore viene quindi visto come un modello di cervello della struttura organizzata.
Tutti i sistemi operativi elaborati sono una realizzazione pratica della macchina universale di Turing, ma sono comunque diversi tra loro, come lo sono le macchine di Turing.
Secondo Turing tutte le capacità mentali sono esprimibili tramite algoritmi.
Turing diceva: “quando capiremo come nel cervello si compiono passaggi non logici, quali ad esempio le analogie potremo scrivere un programma”.
Turing fin dall’esordio (1948) aveva ipotizzato e sperimentato la possibilità di far emergere un sistema universale da una macchina organizzata e tutto ciò partendo dalla convinzione che un calcolatore può essere considerato come un modello di cervello.
Un sistema operativo per trasformarsi in un sistema universale ha bisogno di stimoli che si forniscono con operazioni di addestramento.
Il problema più grosso consiste nello stabilire i criteri in un addestramento realistico e come generalo.
Turing inoltre ipotizza che le varie capacità innate apprese e raffinate possono essere espresse da algoritmi che girano su questo sistema universale.
La macchina di Turing racchiude sia il concetto di ciò che non può essere computato che il concetto di macchina universale.
Verificare le caratteristiche di un così fatto sistema operativo universale, rappresenta uno degli handicap della teoria del funzionalismo in quanto, le prove a sostegno, le conferme e le smentite devono venire dalle scienze del cervello.
Quindi il funzionalismo per reggere ha bisogno delle neuroscienze e può reggere o cedere solo in base a quello che queste scienze sono in grado di dimostrare.
La scienza cognitiva assume l’esistenza di un sistema operativo universale e lo definisce in maniera astratta.
Per sistema operativo universale non bisogna intendere un sistema preciso come quello delle macchine su cui quotidianamente si lavora, poiché allora la mente scomparirebbe del tutto.
Sistemi operativi universali ne sono stati individuati diversi: dalle macchine di Turing alle macchine e registri, dalle reti Petri e sistemi di regole di conversione.
Tutti questi sistemi fanno ricorso ad un particolare architettura logica di elaborazione, ma ancora oggi non si può dire quale sia quello più compatibile con l’architettura logica prodotta dall’attività celebrale.
Il cervello produce sistemi operativi la cui materia prima sono i simboli, ma qual è il meccanismo che permette all’attività chimica ed elettrica di produrre strutture stabili che funzionano da simboli?
Capire ciò permetterebbe di costruire una macchina di Turing universale che utilizza il linguaggio della mente.
La difficoltà più grande è rappresentata dall’impossibilità di definire il linguaggio della mente nei dettagli poiché non se ne possono conoscere gli aspetti particolari che variano da individuo ad individuo.
Allora è più ragionevole pensare che la mente non è mai universale, ma che la capacità più sorprendente del cervello è quella di generare diverse macchine universali e quindi, mai, a livello cosciente siamo in grado di servirci, di volta in volta, delle varianti di essa a seconda della necessità.
Ciò però non spiega il meccanismo di funzionamento in presenza di fenomeni di interferenza e pertanto le macchine universali che ci appaiono come macchine in grado di incorporare diverse macchine particolari.
Da tempo biologia e tecnologia non sono più discipline completamente separate.
Esse risentono sempre di più di influenze reciproche. I sistemi naturali ispirano sempre più nuove e sofisticate applicazioni artificiali e gli innovativi strumenti tecnologici mettono a disposizione dei biologi strumenti di analisi sempre più efficienti e sofisticati.
Questo intreccio tra le due discipline a portato alla scoperta di campi di ricerca che altrimenti non sarebbero mai stati affrontati.
Lo studio delle reti neurali ha determinato l’avvicinamento della neurofisiologia al concepimento dell’intelligenza artificiale.
Lo studio degli algoritmi genetici alla genetica evolutiva e la costruzione di una intelligenza artificiale ad una migliore comprensione delle scienze naturali, fisiche ed informatiche.
Sicuramente uno dei maggiori interrogativi è quello di stabilire quali sono i criteri da seguire per impostare un programma di costruzione di intelligenza artificiale.
In merito si sono espressi molti studiosi
Roger Schank e Lawrence Bimbaum sostengono che, poiché l’intelligenza è una questione di apprendimento, di acquisizione di memoria o base di coscienza e di sviluppo di meccanismi utili a poterli usare, la creazione dell’intelligenza artificiale deve essere considerata un processo evolutivo che avviene nella formazione dell’intelligenza biologica.
L’intelligenza artificiale dipende, quindi, dalle “dimensioni” cioè dalla quantità di informazioni di diversa natura, che possono essere inserite nella macchina.
Il problema fondamentale rimane, tuttavia, quello di capire se l’uomo è in grado di costruire una macchina realmente intelligente, una macchina capace di simulare il comportamento umano in una certa attività.
Una macchina in grado di trasformare stimoli, segnali e simboli in pensieri.
I computers o “cervelli elettronici”, costruiti finora dall’uomo non manifestano nemmeno un comportamento “istintivo” catalogabile, secondo l’ipotesi di Jaynes, come livello animale pre – umano, ed inoltre anche quando, inserendo una notevole quantità di informazioni, l’automa mostra un sistema plastico di adattamento, i livelli a cui può giungere non sono consci.
Questa mancanza di consapevolezza, delle proprie capacità, è presente a volte anche nel l’uomo che, senza ombra di dubbio, può essere considerato l’automa più avanzato.
Nell’uomo, quando avviene la percezione di tali processi è possibile parlare di coscienza o auto – coscienza cioè di capacità di riflettere sui propri pensieri e su quelli degli altri.
L’uomo è quindi capace di metacognizione ed è logico che un sistema che non è capace di metacognizioni non può riflettere.
La parte di cui l’uomo è, cosciente è minima rispetto alla grossa mole di contenuti e di elaborazioni mentali presenti in un cervello umano ed è plausibile supporre la presenza di una componente di memoria chiamata M, in cui sono contenuti frammenti dei nostri pensieri.
M si interpone tra percezioni, espressioni verbali ed il resto della mente.
Senza dubbio il problema più grosso, presente nella costruzione di una intelligenza artificiale è rappresentato dalla difficoltà di realizzare un automa, in grado di organizzare il pensiero e produrre intelligenza utilizzando la memoria, senza seguire la sequenza data.
Un automa così fatto, in grado, cioè di simulare l’intelligenza biologica, potrebbe rendere comprensibile l’annoso problema del “ponte” tra corpo e mente e chiarire il perché anche sistemi nervosi biologici elementari risultano qualitativamente più intelligenti di macchine di notevoli dimensioni.
Tra i lavori condotti, a dimostrazione di quanto detto ricordiamo l’esperimento condotto sull’Octopus, un mollusco invertebrato con un sistema nervoso completamente diverso da quello dei vertebrati ma comunque in grado di mostrare un livello di “intelligenza” maggiore di qualsiasi intelligenza artificiale attuale (intelligenza biologica ed intelligenza artificiale di E. Bilotta, G. Fiorito, P.A. Bertacchini).
Resta allora da stabilire cosa le macchine possono e non possono faree quali sono i problemi legati alla comunicazione uomo – macchina.
A tale proposito sono schierate due fazioni una rappresentata da Noam Chomsky e altri linguisti e l’altra da John Searle e altri filosofi.
Stanislao Guglielmelli (ricercatore)