domenica 25 novembre 2012

Robot alla conquista del potere? Per Cambridge è un rischio serio

Londra (Regno Unito), 25 nov. (LaPresse/AP) - Un centro per valutare il rischio che in futuro robot intelligenti possano conquistare il potere, assoggettando gli umani. Non è il soggetto di un film ma il progetto di una delle università di più note e prestigiose del mondo, quella di Cambridge. L'idea è quella di mettere insieme un centro interdisciplinare che raggruppi esperti e accademici di diversi settori, per valutare i rischi che la rapida evoluzione dell'intelligenza artificiale può creare, incluso quello di "minacciare la nostra stessa esistenza".

Anche se l'idea che i robot possano prendere il potere, spiega Huw Price, professore di filosofia di Cambridge, può apparire lontana, vale la pena di prendere il rischio seriamente. E' difficile al momento, ammette, predire l'esatta natura dei rischi ma proprio questo dimostra, sottolinea, che è necessario capirne di più.

"Nel caso dell'intelligenza artificiale - spiega Price - sembra una ragionevole previsione che in un certo punto del tempo in questo o nel prossimo secolo l'intelligenza sfuggirà ai limiti della biologia". Quando questo accadrà, "non saremo più gli essere più intelligenti" sulla terra e saremo alla mercé di "macchine che non sono maliziose, ma i cui interessi non includono noi". "In genere - aggiunge - tende a essere considerata una preoccupazione poco seria, ma i rischi potenziali sono troppo seri per spazzarla semplicemente via". L'università ha annunciato che il centro sarà aperto nel corso del 2013 e si chiamerà Center for the Study of Existential Risk.

La questione in effetti è più seria di quanto non sembri e da tempo chi si occupa di intelligenza artificiale l'ha individuata. Il primo fu, nel 1965, il matematico inglese Irvin John Good, che la spiegò così: "Definiamo una macchina ultraintelligente come una macchina che può superare di molto tutte le attività intellettuali di una persona, per quanto intelligente. Dal momento che la progettazione delle macchine è una di queste attività intellettuali, una macchina ultraintelligente potrebbe progettare macchine ancora migliori; ci sarebbe allora senza dubbio una 'esplosione di intelligenza', e l'intelligenza dell'uomo sarebbe lasciata molto indietro. Di conseguenza la prima macchina ultraintelligente è l'ultima invenzione che l'uomo avrà bisogno di fare".

Raymond Kurzweil, un visionario futurologo, nel 2005 ha dato alle stampe un libro intitolato 'La singolarità è vicina'. Esperto informatico, Kurzweil si occupa di riconoscimento ottico dei caratteri, sintesi vocale, riconoscimento vocale e altre cose di questo genere, ma è diventato noto per i suoi numerosi libri. La "singolarità", parola presa a prestito dalla fisica, nella quale indica un particolare punto nello spazio-tempo in cui non si applicano le normali leggi della fisica, rappresenta per Kurzweil il momento in cui l'uomo costruirà il primo computer più intelligente delle persone. Lui sostiene che questo potrebbe accadere nel giro di qualche decennio e non appena questo succederà la vita sulla terra subirà un drastico cambiamento.

Ipotesi visionarie senza fondamento? Forse. Ma il fondatore della Microsoft Bill Gates, che lo ha invitato a cena a casa sua più di una volta, dice che Kurzweil è "la persona migliore che conosca nel predire il futuro dell'intelligenza artificiale".

Vi ricordate I Robot? Tolte le esplosioni, le americanate e le seplificazioni, il problema potrebbe anche essere più o meno in questi termini.


Meno inquietante ma altrettanto interessante: L'uomo bicentenario. Forse un po' troppo un Pinocchio contemporaneo, ma centra diversi temi importanti. Costruito in forma di commedia, un bel film.

sabato 24 novembre 2012

Alan Turing: questo è solo un'ombra di quello che sarà

Alan Turing aveva già capito tutto. Aveva già risposto a tutte le domande fondamentali dell'intelligenza artificiale, o meglio aveva già dato tutte le risposte necessarie a indicare la direzione nella quale andare, il che vale ancora di più. Sto leggendo un libro meraviglioso su Turing, noto matematico inglese che fu il padre dell'informatica, oltre al principale artefice della decriptazione del codice che usavano i tedeschi durante la seconda guerra mondiale per trasmettere tra di loro ordini e risultati delle operazioni militari. Nonostante i suoi eccezionali meriti, fu perseguitato per la sua omosessualità e si suicidò a 41 anni, mangiando una mela avvelenata col cianuro di potassio, probabilmente prendendo spunto dalla favola di Biancaneve, la cui versione Disney del 1938 lo aveva colpito particolarmente. Il libro, "L'uomo che sapeva troppo", di David Leavitt, Codice Edizioni, (da cui sono tratte tutte le citazioni di seguito), ripercorre tutta la vita di Turing.


TRATTARE LE MACCHINE IN MODO EQUO: L'INTELLIGENZA NON È INFALLIBILE
Tra gli anni Trenta e Quaranta scriveva ciò che ancora oggi resta alla base dello sviluppo tecnologico del prossimo secolo. Parlando di un suo progetto, l'Ace (Automatic Computing Engine), che stava sviluppando presso il National Physics Laboratory di Teddington (un sobborgo di Londra) scrisse:

Io sostengo che la macchina deve essere trattata in modo equo e leale. Invece di avere una situazione in cui essa a volte non dà risposte, potremmo aggiustare le cose in modo che dia ogni tanto risposte sbagliate. Anche il matematico umano prende qualche cantonata quando sperimenta nuove tecniche. E' facile per noi considerare queste sviste come non rilevanti e dare al ricercatore un'altra possibilità, ma alla macchina non viene riservata alcuna pietà. In altre parole, se si aspetta che la macchina sia infallibile, allora essa non può anche essere intelligente.

Per proseguire nel mio appello per un fair play nei confronti delle macchine nel verificare il loro quoziente di intelligenza, voglio osservare che ogni matematico umano è sempre sottoposto a un addestramento prolungato e che il suo effetto può essere considerato non dissimile dall'inserzione di tavole di istruzioni dentro a una macchina. Non ci si deve perciò aspettare che essa faccia molto nella direzione di costruire tavole di istruzioni sue proprie. Nessun uomo aggiunge granché al corpo generale delle conoscenze umane: perché dovremmo aspettarci di più da una macchina?


LE SCOPERTE DI UN ALLIVEVO BRILLANTE NON APPARTENGONO AL MAESTRO
Le posizioni di Turing accesero la curiosità della stampa e anche le obiezioni dell'opinione pubblica, che si divise sull'idea che fosse possibile costruire macchine intelligenti. Turing rispose elencando le cinque obiezioni principali (che sono sorprendentemente le stesse a settant'anni di distanza), e rispose a una per una:

Una riluttanza ad ammettere la possibilità che il genere umano possa avere rivali nei poteri intellettuali; [...] un sentimento religioso, secondo il quale ogni tentativo di costruire macchine del genere sia una sorta di empietà prometeica; [...] il potere molto limitato delle macchine usate fino ai tempi recenti (possiamo dire fino al 1940) [...] [che ha] incoraggiato la convinzione che le macchine fossero necessariamente limitate a compiti estremamente diretti, forse persino solo a quelli ripetitivi; [...] la scoperta che esistono casi in cui qualunque macchina è incapace di fornire una risposta [mentre] l'intelligenza umana sembra capace di trovare metodi di potenza sempre crescente per trattare tali problemi "trascendendo" i processi disponibili alle macchine; [...] [l'idea che] se e nella misura in cui una macchina può esibire intelligenza, la sua prestazione dev'essere considerata nulla più che un riflesso dell'intelligenza del suo creatore.

Le prime due obiezioni, scrisse, "sono puramente emotive e non richiedono davvero una replica. Se si sente la necessità di una loro confutazione preventiva, c'è ben poco da dire, anche se l'effettiva costruzione delle macchine avrebbe probabilmente un certo peso". Alla terza obiezione rispose che le macchine "possono compiere, ammesso che non si verifichino guasti, numeri immensi di operazioni non ripetitive". Ed è proprio questo, sottolineò, quarta risposta, che rende le macchine non infallibili. Anzi, disse che l'infallibilità non è necessariamente un "un requisito per l'intelligenza".

Per quanto riguarda la quinta obiezione, "il merito per le scoperte di un allievo dovrebbe essere assegnato al maestro. In caso di successo, l'insegnante sarebbe lieto della riuscita dei suoi metodi di educazione, ma non pretenderebbe di attribuirsi i risultati, a meno che non li avesse comunicati proprio lui all'allievo".


L'INIZIATIVA
E centrò il punto fondamentale sul quale i ricercatori dell'intelligenza artificiale si dannano l'anima:

Perché la mente non addestrata del neonato diventi intelligente, dovrà acquisire sia disciplina che capacità di iniziativa. [...] La disciplina da sola non è certamente sufficiente a produrre intelligenza: è richiesta, in aggiunta, anche l'iniziativa (e questa frase dovrà servire da definizione del concetto). Il nostro compito è quello di scoprire la natura di questo "residuo" che si presenta nell'uomo e cercare di "copiarlo" nelle macchine.

Non solo, ma introduce un concetto fondamentale, quello della comunicazione con gli umani, senza la quale l'intelligenza può risultare incomprensibile: "Alla macchina deve essere permesso di avere contatti con gli esseri umani affiché possa adattarsi ai loro criteri".


LA POESIA
Gli rispose Geoffry Jefferson, direttore del dipartimento di neurochirurgia dell'università di Manchester e fautore della lobotomia frontale:

Fino a quando una macchina non potrà scrivere un sonetto, o comporre un concerto, sulla base di pensieri e di emozioni sentite come tali e non per una casuale combinazione di simboli, cioè finché non solo possa farlo, ma sappia di averlo fatto, noi non accetteremo mai che possa essere l'eguale del cervello. Non c'è meccanismo capace di provare (e non semplicemente segnalare artificialmente, il che sarebbe facile da ottenere) piacere per i successi conseguiti, dolore quando le sue valvole bruciano, gioia quando riceve dei complimenti, tristezza per gli errori commessi, l'incanto del sesso, la collera o la delusione perché non riesce ad avere ciò che desidera.

La risposta di Turing è spiazzante e geniale, perché sposta il terreno:

Io non credo che si possa porre il limite di sonetti, sebbene il paragone non sia molto corretto perché un sonetto scritto da una macchina sarebbe meglio apprezzato da un'altra macchina.


QUESTO E' SOLO UN'OMBRA DEL FUTURO
E poi racconta come vede il futuro, mettendo giù quella che ha il sapore di una profezia:

Questo è solo un assaggio di quello che verrà, soltanto un'ombra di quello che sarà. Dobbiamo acquisire un po' di esperienza con la macchina prima di scoprire veramente le sue capacità. Potrebbero volerci degli anni prima che ci applichiamo sulle nuove possibilità, ma non vedo perché [la macchina] non dovrebbe accedere a qualunque campo normalmente dominato dall'intelletto umano e alla fine competere a pari condizioni.

E questo è iCub, un progetto nato a Genova che sembra uscito direttamente dalla testa di Turing... E' una una piattaforma aperta, una delle più promettenti che esistano.

mercoledì 21 novembre 2012

"Tutti non c'è". Ovvero: la correlazione non basta, lingua è regole

Il linguaggio ovviamente si costruisce un po' per volta. Ma finora ho sempre pensato che prima si apprendessero le parole per assonanza e solo molto dopo si arrivasse all'apprendimento delle regole di grammatica. Mi spiego: credevo che imparare a dire correttamente "il cane mangia" e "i cani mangiano", declinando correttamente il verbo, si apprendesse con un meccanismo di correlazione per rinforzo, per cui sentire tante volte "cane" associato a "mangia" e "cani" a "mangiano" (e mai "cane" a "mangiano") portasse a un collegamento rinforzato tra le due parole che ingegneristicamente potrebbe essere un coefficiente alto tra i due elementi oppure, in termini di reti neurali, pattern più fortemente associati nello schema di risposta di una rete, il che è lo stesso.

Ma forse non è così. Mi figlia, da poco passati i due anni, sta imparando a declinare correttamente i verbi sulla base di un evidente ragionamento di tipo grammaticale. Per esempio dice "puliscio", oppure "salo", per indicare la prima persona singolare rispettivamente del verbo pulire e salire. Non ha mai sentito da nessuno dire alcuna delle due parole. Le ha costruite lei, evidentemente estendendo la regola da parole sentite dire e imparate, come "gioco" o "mangio". Insomma, non ha imparato solo singole parole. E non ha solo imparato ad associarle a "io". Ha imparato anche che in generale a "io" si associano verbi (parole che indicano azioni) che finiscono con la lettera "o". E questa è una regola generale, non è una semplice correlazione tra due parole. Indica una correlazione tra classi e non tra singole parole, l'introduzione di un suono, di una variazione fonetica, che viene associato trasversalmente alle singole parole in funzione di un'altra parte della frase.

La conferma arriva da altri elementi. Qualche mese fa diceva frasi tipo "Tutti non c'è", per indicare che non c'era nessuno. Non aveva mai sentito nessuno dire una frase genere, in italiano chiunque dice "non c'è nessuno". Di nuovo era una sua costruzione. "Tutti" indica l'insieme composto da mamma, papà, cane, nonni e zia. "Tutti non c'è" voleva dire letteralmente - e il ragionamento è perfettamente corretto - che tutti gli elementi di questo insieme non ci sono. Solo più tardi ha imparato a dire, come dice ora, "non c'è nessuno". Il ragionamento ha preceduto l'apprendimento per correlazione, cioè la costruzione della frase per imitazione.

Allo stesso modo, diceva "non c'è ancora", per dire che una cosa non c'era più. Per esempio "non c'è ancora nonna", per dire che la nonna era andata via (non per dire che doveva ancora arrivare). Il ragionamento, di nuovo: a tavola "ancora pasta" vuol dire "datemi ancora pasta, ne voglio ancora". La negazione è "non voglio ancora pasta" (oppure "c'è ancora pasta" si nega con "non c'è ancora pasta"). Quindi la negazione di "c'è ancora la nonna" è "non c'è ancora". "Non c'è più" è una frase che ha imparato in seguito, e rappresenta in effetti, a rigore logico, un'eccezione al senso della parola. Non a caso in inglese si dice "some more" oppure "no more" per dire "ancora" e "basta, non più". Gli anglosassoni usano la stessa parola ed è più logico così.

Dal momento che mia figlia non ha mai sentito dire a nessuno "non c'è ancora" qualcosa per indicare che quella cosa "non c'è più", vuol dire che è stata lei a costruire la frase, sulla base di una costruzione linguistica che va dal particolare al generale, cioè con l'individuazione di regole.

In pratica questo cosa ci dice? Ci dice che non possiamo realizzare dei programmi in grado di parlare correttamente una lingua umana affidandoci soltanto o prevalentemente a una intelaiatura fatta di correlazioni rinforzate o indebolite tra le parole. Semplicemente non è così che funziona il cervello e di conseguenza il nostro programma non sarà in grado di emularne le capacità linguistiche. Il che, corollario, significa che i traduttori automatici da una lingua all'altra non saranno mai sufficientemente accurati finché si baseranno solo su correttivi basati su reti di correlazioni fonetiche. Occorrerà introdurre necessariamente anche delle capacità di apprendimento linguistico vero. Il sistema deve essere grado di andare dal particolare al generale e di individuare delle regole.