Forse il discorso sull’intelligenza artificiale non si sta esaurendo, ma si avverte un effetto di saturazione. A volte per rispondersi, a volte per confondersi a vicenda, continuano a ripresentarsi gli stessi temi: corsa all’intelligenza artificiale con l’aria di una corsa agli armamenti, sostituzione effettiva o ipotetica del lavoro umano, paura di perdita di controllo e desiderio di onnipotenza, speculazione sui possibili sviluppi, sulle opportunità finanziarie… Lo stupore senza precedenti si affianca a vecchie paure e fantasie sullo sfondo del business as usual. Il tutto si sposa perfettamente con un approccio superficiale al fenomeno che talvolta suggerisce la generazione spontanea. La pubblicità, ovviamente, si aggiunge e non perde più occasione per elogiare i pregi di dispositivi e servizi etichettati come AI, senza che sia necessario capire di cosa si tratta.
Gli acronimi sono spesso accompagnati da nebbie. Quelli a cui entriamo qui non derivano dall’ignoranza dell’espressione da cui è tratto l’acronimo. Non c’è bisogno di ricordarti che “AI” significa “intelligenza artificiale”! Né derivano da questa cattiva abitudine degli specialisti che consiste nel ridurre a un gergo migliore. Il vocabolario tecnico del settore è ricco di abbreviazioni e di termini più circoscritti e rigorosi. L’“AI” accentua la vaghezza che già circonda l’”intelligenza artificiale”.
Analizzare la formula sarebbe di aiuto limitato. Le definizioni di intelligenza hanno portato principalmente a battaglie teoriche; così come le molteplici misure, scale e test che ha ispirato. L’artificiale non se la cava molto meglio. A meno che, forse, non si rinunci ad ogni dialogo critico con le grandi categorie ereditate dall’antichità occidentale.
Prendere insieme le due parole potrebbe non soddisfarci più. Cercheremo invano una definizione consensuale e univoca di “intelligenza artificiale”. Del resto, la pertinenza dell’espressione è stata più volte contestata. Alcune delle figure che i posteri ricorderanno come fondatori del settore si rifiutarono addirittura di utilizzarlo per anni. Ritenendolo impreciso, hanno preferito denominazioni più austere come “elaborazione complessa delle informazioni” [1] . Tuttavia, è in ciò che qui viene criticato che risiede il potere simbolico dell’“intelligenza artificiale”, e probabilmente la chiave del suo successo. Anche questo è ciò che dobbiamo lasciare per un momento da parte per capire perché e come è nata questa espressione.
La sua prima occorrenza risale ad un documento del 31 agosto 1955, che presenta, in vista del finanziamento da parte della fondazione Rockefeller, l’obiettivo e le linee generali di un evento scientifico in preparazione. Se il testo è firmato da quattro autori, la paternità della formula viene generalmente attribuita a uno solo di essi: John McCarthy. Questo giovane matematico è recentemente entrato a far parte del Dartmouth College, una prestigiosa università nel nord-est degli Stati Uniti. È qui che un anno dopo, una volta assegnato il finanziamento, si terrà il workshop comunemente associato alla nascita dell’“intelligenza artificiale”.
Possiamo però dubitare che questa espressione e il progetto che essa portava con sé, abbiano colto subito nel segno. Ottenere un finanziamento non è un compito facile. McCarthy incontrò per la prima volta Warren Weaver, il direttore della divisione di scienze naturali della Fondazione Rockefeller. Lo indirizza al suo collega nella ricerca medica e biologica, Robert Morison. È altrettanto perplesso di fronte alla proposta che gli è stata sottoposta. Alla fine cede, concedendo però un sussidio a prezzo scontato. La presenza, tra gli organizzatori, del matematico Claude Shannon lo avrebbe rassicurato. I due uomini si conoscono e la serietà di Shannon non è più in dubbio dopo il suo lavoro sulla teoria dell’informazione [2] .
L’obiettivo dichiarato e perseguito durante il workshop del Dartmouth College nel 1956 doveva però essere molto serio: “garantire che le macchine utilizzino il linguaggio, formino astrazioni e concetti, risolvano tutti i tipi di problemi attualmente riservati agli esseri umani e migliorino da sole”. [3] . Essa permette ancora oggi di descrivere parte dei progetti dell’intelligenza artificiale. Al momento in cui scrivo, ciò potrebbe tuttavia sollevare alcune domande. A cominciare da quello riguardante l’ambito scientifico a cui è legato. Potrebbe anche sorprendere che la richiesta di finanziamento sia stata esaminata dai settori di scienze naturali e ricerca medica e biologica della Fondazione Rockefeller.
Tuttavia, questo è meno sorprendente di quanto sembri. Innovativo sotto certi aspetti, il progetto che prende il nome di “intelligenza artificiale” non è assolutamente originale. Nella sostanza come nella forma, quanto accade al Dartmouth College ha una certa somiglianza con le conferenze Macy, il ciclo di conferenze che costellarono, tra il 1946 e il 1953, la grande era della cibernetica.
Il laboratorio del 1956 rinnova l’idea di una scienza interdisciplinare per la quale la formalizzazione logico-matematica funge da punto di aggregazione. Per usare il sottotitolo che Norbert Wiener dà al suo best-seller scientifico, Cibernetica, l’approccio che ne risulta si concentra più specificamente sul “controllo e comunicazione negli animali e nelle macchine”. Attraverso un prisma unico, basato sulle nozioni di informazione [4] e di feedback (il famoso feedback), sarebbe possibile spiegare sia il funzionamento di un cannone da difesa aerea adattandosi automaticamente ai movimenti del suo bersaglio che ciò che avviene quando un persona cerca di mettersi un bicchiere alla bocca – e fallisce, ad esempio, in caso di atassia. Il confine tra esseri viventi e artefatti sta cadendo, così come quello tra pensiero e macchina [5] .
Questa vicenda, centrata eminentemente sugli Stati Uniti, non è priva di risonanza anche oltre Atlantico. Nel Regno Unito, il Ratio Club riunisce informalmente psicologi, fisiologi, ingegneri, ecc. durante cene regolari. per discutere di cibernetica. Tra questi c’è il matematico Alan Turing.
Alla soglia degli anni Cinquanta scrive di sentire un “interesse per le “macchine pensanti” [lui stesso] risvegliato da un particolare tipo di macchina generalmente chiamata “computer elettronico”” [6] . Si mette così in luce un oggetto che si rivelerà decisivo in questa storia. Sotto la sua penna, però, come nei testi di cibernetica, nulla di tutto ciò viene ancora chiamato “intelligenza artificiale”. Si potrebbe ribattere che alcune sue formule, come “macchina[rie] intelligente”, sono molto simili. Certamente, ma l’“intelligenza artificiale” designerà più di un obiettivo, accompagnerà la comparsa e la strutturazione di un campo tecnoscientifico.
Ciò non toglie che le cose sarebbero state subito imposte in modo così netto agli attori che contribuirono a questo avvento. Alcuni archivi suggeriscono addirittura che McCarthy possa essere stato influenzato dalle parole di Turing, o per lo meno che lo stesso brodo di cultura scientifica lo abbia portato a identici assemblaggi lessicali. Dal 1953, infatti, lui e Shannon iniziarono un lavoro di pubblicazione scientifica in linea con le questioni cibernetiche dell’epoca. A Turing fu chiesto di firmare un capitolo, ma alla fine declinò l’invito. McCarthy scrive della macchina di Turing [7] .
Tuttavia, piccoli disaccordi compaiono quando invia al suo collaboratore una prima bozza della prefazione. Possiamo leggere che “le diverse linee di ricerca rappresentate dagli articoli qui inclusi potrebbero, in definitiva, contribuire alla progettazione di macchine intelligenti” [8] . Nel processo, McCarthy propose di intitolare il volume Verso gli automi intelligenti. La frase è cancellata, il titolo proposto rifiutato. La raccolta si chiamerà Automata Studies. Il progetto del seminario del 1956 suggerisce tuttavia che Shannon finì per aderire, anche se solo in parte, agli obiettivi di McCarthy e per essere più indulgente nei confronti di un vocabolario che fino a quel momento aveva avuto magniloquenza [9] .
La svolta del termine “intelligenza artificiale”, tuttavia, va oltre una questione di gusto personale. Essa accompagna l’accentuazione del divario tra i diversi approcci scientifici. Leggendo il documento di presentazione del workshop del Dartmouth College, o le testimonianze che ci sono pervenute, due prospettive distinte si propongono per raggiungere l’obiettivo prefissato.
Il primo, detto connessionista, è interessato al livello “inferiore” dei meccanismi alla base del pensiero; ha come riferimento il (presunto [10] ) funzionamento del cervello. La sua teoria originale deriva direttamente dalla cibernetica, e più precisamente dal lavoro svolto, in questo contesto, dal neuropsichiatra Warren McCulloch e dal logico Walter Pitts.
Questi ultimi si propongono di comprendere l’attività nervosa utilizzando strumenti logici e matematici, in relativa astrazione, quindi, dai meccanismi biologici. Il cervello potrebbe quindi essere modellato come una rete di neuroni formali, ciascuno dei quali funziona come una calcolatrice. Ogni neurone è collegato ad altri neuroni tramite assoni e sinapsi che trasmettono un segnale eccitatorio o inibitorio. Poi a sua volta comunica un impulso ai neuroni successivi se la somma degli input supera una certa soglia. Il tutto è quindi simile ad una grande macchina che, da un segnale in ingresso, può produrre un segnale in uscita a seconda dei percorsi fatti all’interno della rete che la compone. Pertanto, possiamo immaginare di costruire artefatti su questo modello. Tuttavia il passaggio dalla teoria alla pratica non è banale.
Il secondo approccio, detto simbolico, si concentra sui processi mentali classicamente qualificati come superiori: l’uso del linguaggio, le decisioni, la pianificazione, la risoluzione dei problemi, ecc. Questa volta non è più il cervello ma la mente ad essere presa come riferimento. La logica è ancora utilizzata, ma in un’altra modalità. Condizione formale dell’attività cognitiva, esprimerebbe le regole del ragionamento. L’esistenza di macchine capaci di compiere operazioni logiche suggerisce, in questo senso, la possibilità dell’intelligenza artificiale. Se le nozioni di informazione e feedback non sono del tutto scomparse, le analogie con gli organismi viventi, ad esempio, stanno perdendo il loro interesse. Solo la mente umana e le macchine logiche, costantemente confrontate, sono al centro dell’attenzione.
https://www.asterios.it/catalogo/la-mente-umana-e-la-mente-artificiale
Lo sviluppo di questo approccio va di pari passo con lo sviluppo dei linguaggi di calcolo e di programmazione. All’epoca dei primi computer, la programmazione consisteva, infatti, nell’effettuare manualmente i collegamenti, nell’attivare circuiti che definivano le operazioni da svolgere, cioè il modo in cui sarebbe stato trasformato un segnale in ingresso. I primi linguaggi di programmazione hanno permesso di semplificare questa attività introducendo codici corrispondenti alle operazioni che il processore può eseguire. Parliamo di linguaggio “di basso livello” perché le istruzioni così consegnate alla macchina corrispondono direttamente al suo funzionamento hardware.
Ma altre lingue, allontanandosi da quest’ultima, e per questo definite “di alto livello”, vedranno presto la luce. Essendo più simili alle formalizzazioni logiche e matematiche, pur attingendo ampiamente al vocabolario dei linguaggi naturali (principalmente l’inglese), consentono, ad esempio, di esprimere i meccanismi di risoluzione di un problema senza preoccuparsi dei dettagli implementativi o dell’infrastruttura. Da qui la mania di far sì che le macchine svolgano attività che raramente neghiamo richiedano un alto grado di intelligenza. Il Logic Theorist, che di solito è considerato il primo programma di intelligenza artificiale, mira a dimostrare teoremi logici tratti dai Principia Mathematica di Bertrand Russell e Alfred North Whitehead. Due dei suoi progettisti, Allen Newell e Herbert Simon, la presentarono durante il workshop del Dartmouth College nel 1956.
I due approcci sopra presentati coesistono quindi durante l’evento. Ma l’invito di alcune figure note per il loro lavoro sulle reti neurali mira anche ad attirare il finanziatore. La Fondazione Rockefeller non è il primo contributo finanziario alla ricerca in questo campo e a quella della cibernetica in generale. McCarthy, tuttavia, disse di essersi rifiutato di invitare Wiener per paura che si posizionasse come un “guru” [11] .
L’andamento complessivo del laboratorio tende chiaramente a favore del percorso simbolico. Alcuni, tra cui John McCarthy, si muovono già da tempo in questa direzione. Altri cambiano idea lì. Marvin Minsky, che fu anche tra gli organizzatori del workshop, cambiò corso al Dartmouth College e abbandonò per sempre le reti neurali, nonostante avessero ricevuto tutta la sua attenzione fin dai tempi del dottorato. La posta in gioco qui, però, va oltre i singoli itinerari. È l’affermazione della specificità della prospettiva simbolica e delle sue ipotesi fondative che l’espressione “intelligenza artificiale” viene gradualmente a nominare. Alcuni anni dopo, John McCarthy dichiarò che uno dei motivi della sua invenzione era quello di dissociarsi dalla cibernetica, e in particolare dalla sua insistenza sul “feedback analogico” [12] .
https://www.asterios.it/catalogo/analogico-e-digitale
La conferenza internazionale sulla “meccanizzazione dei processi mentali” tenutasi nel 1958 presso il National Physical Laboratory di Teddington, in Inghilterra, illustrò più chiaramente l’attuale divario. Il computer è al centro di alcune controversie che rivelano, sullo sfondo, disaccordi più profondi. Frank Rosenblatt, esperto di reti neurali, asserisce in questa occasione che, sebbene i computer “seguano perfettamente le regole”, il loro funzionamento impedisce loro di avvicinarsi a ciò che chiamiamo “pensiero o intelligenza originale” [13] . Sebbene possano eseguire calcoli più complessi di quelli di cui è capace qualsiasi essere umano, non sono in grado di elaborare spontaneamente le informazioni tratte dal loro ambiente.
Per superare questo traguardo, Rosenblatt sostiene che le macchine fisiche siano più paragonabili al cervello. Il suo percettrone, dedicato al riconoscimento di “forme, suoni e altri stimoli che costituiscono il nostro mondo fisico ordinario”, aprirebbe loro la strada. In pratica, l’implementazione da lui realizzata nel 1957, il Mark-I Perceptron, individua forme visive semplici (quadrati, cerchi, triangoli, ecc.), purché poste davanti al suo sistema sensoriale, ovvero un quadro di 20 x 20 griglia cellulare fotosensibile.
Marvin Minsky ovviamente non la vede in questo modo. Nella stessa conferenza, ha presentato un documento che, secondo lui, è stato tratto da appunti presi al seminario del Dartmouth College. Dopo un lungo inventario delle prospettive aperte al percorso simbolico (problem solving, pianificazione, geometria piana e, quindi, riconoscimento delle forme, ecc.), una breve sezione toglie il terreno da sotto le reti neurali.
Le macchine che si ispirassero a loro produrrebbero solo comportamenti elementari difficilmente qualificabili come intelligenti. Ammesso che si superi questa fase, si finirebbe probabilmente per arrivare al punto in cui iniziano coloro che, grazie ai computer, astraggono la dimensione fisica delle macchine. Potremmo anche affrontare il problema direttamente al livello del ragionamento formale e del linguaggio. La conclusione è chiara: anche per chi si propone di “svelare i misteri del cervello”, sarebbe meglio “dedicare maggiori sforzi allo sviluppo di quel tipo di considerazioni euristiche che alcuni di noi chiamano “intelligenza artificiale”” [ 14] .
La controversia non finisce qui. Per diversi anni Minsky e Rosenblatt trovarono varie opportunità per riproporlo. Il primo firmò addirittura insieme al collega Seymour Papert, nel 1969, un’opera volta a porvi fine una volta per tutte. Intitolato Perceptrons, questo volume pretende di dimostrare, con il supporto matematico, i limiti intrinseci delle macchine omonime. Efficace contro le loro versioni più semplici, l’inadeguatezza di questa critica finirà per diventare evidente nel tempo [15] . Quando il libro fu pubblicato, tuttavia, fece molto rumore. Va detto che il contesto è cambiato negli ultimi dieci anni.
Già verso la metà degli anni ’60 i finanziamenti e l’interesse per le reti neurali diminuirono notevolmente. Lo stesso Rosenblatt si è in parte rivolto ad altri argomenti. L’approccio rimane laborioso e i suoi risultati, sebbene reali, non sono sempre impressionanti. Impallidisce quindi di fronte ai programmi per computer che cominciano a risolvere un numero crescente di problemi e, fonte continua di meraviglia, a giocare a certi giochi: tris, dama, scacchi, ecc.
Sulla scia del seminario del 1956, inoltre, l’intelligenza artificiale venne istituzionalizzata. Tre centri principali e alcune figure di spicco, tutti al Dartmouth College, stabilirono il tono e concentrarono le risorse computazionali: il Massachusetts Institute of Technology con Minsky, il Carnegie Institute of Technology con Simon e Newell e la Stanford University con McCarthy. Catturano la maggior parte dei crediti dedicati al settore.
A questo proposito forse gioca un ruolo anche l’invenzione del termine “intelligenza artificiale”. Perché dopo la seconda guerra mondiale la cibernetica perse progressivamente la sua aura negli Stati Uniti. Alcune posizioni di colui che è spesso considerato suo “padre”, Norbert Wiener, ne sono in parte la causa. Nel 1947 si rifiutò di trasmettere a un ingegnere della Boeing una copia del lavoro che aveva svolto durante il conflitto per la Commissione nazionale di ricerca sulla difesa. Tuttavia, egli non si accontenta di notificare al ricorrente il suo rifiuto. In una lettera aperta ha espresso la sua categorica opposizione alla pubblicazione di qualsiasi ricerca che “potrebbe diventare pericolosa una volta nelle mani di militaristi irresponsabili” e si è scagliato contro la dipendenza della scienza dai finanziamenti militari.
Per ottenerne qualcuno in piena Guerra Fredda, poiché sarà soprattutto il Dipartimento della Difesa a sovvenzionare i primi decenni di ricerca sull’intelligenza artificiale, un nuovo nome non è troppo. Tanto più che la parola intelligence, in inglese, significa anche “informazione”! E che dopo la morte di Stalin, la cibernetica suscitò un entusiasmo senza precedenti in un’Unione Sovietica dove fino ad allora era stata classificata come una pseudoscienza borghese.
La storia dell’intelligenza artificiale arriva […] a fondersi con la storia stessa, e l’intelligenza artificiale per inserirsi nella storia.
Qualcosa di inquietante emana da queste vecchie storie. Una netta distanza li separa da quella che oggi chiamiamo “intelligenza artificiale”. Nessuno dei programmi di quest’epoca rimane descritto in questo modo, se non su base storica. Allo stesso modo, anche se la ricerca universitaria continua a svolgere un ruolo significativo in questa impresa, ora è la Big Tech ad aprire la strada. Prodotti da e per l’informatica ubiqua e reticolare, i sistemi di intelligenza artificiale contemporanei sono destinati a un uso massiccio e non più riservati alle poche persone che possono accedere fisicamente a computer tanto rari quanto imponenti. Infine, se gli Stati Uniti rimangono essenziali in questa vicenda, sono diventati più internazionali che mai.
https://www.asterios.it/catalogo/epimente
Potremmo continuare a fare il punto su queste differenze. Alcuni la riconoscerebbero, in ogni caso, come una storia lineare, posta con poca spesa sotto il solo segno del progresso atteso. L’IA che trionfa oggi non è però il frutto di un percorso simbolico, ma di una tardiva “rivincita dei neuroni” [16] . L’approccio un tempo dominante è ora in gran parte in minoranza, schiacciato dal rivale che prima derideva. Questo ha finito per distinguersi nettamente in zone un po’ troppo resistenti rispetto al suo concorrente. A partire dalla visione artificiale o dall’elaborazione automatica del linguaggio: traduzione automatica, elaborazione vocale, generazione di testo, ecc.
Anche in questo caso l’apparenza di piena continuità svanisce rapidamente. I sistemi di intelligenza artificiale di oggi hanno poco in comune con le macchine che una volta venivano costruite ad hoc per implementare qualche modello formale di rete neurale. Si affidano tutti ai computer e i loro progressi generalmente non sono correlati al progresso delle scoperte neurofisiologiche. L’analogia si è trasformata in una metafora lontana.
L’unica cosa che potrebbe appianare tutto questo è la grande narrativa dell’IA. Colui che viene chiamato dalla potenza simbolica del suo nome. Quella di un duello sempre rinnovato con gli esseri umani, dove i fallimenti di un giorno non faranno altro che rendere più grande il trionfo futuro. Colui che annuncia l’imminente arrivo di una macchina la cui intelligenza, divenuta generale, sarà salita al livello di quella degli esseri umani “più intelligenti” e che, sviluppandosi poi da sola, porterà ad una “esplosione dell’intelligenza” relegandoci definitivamente in disparte. Quella, infine, dell’avvento di una “singolarità tecnologica”, di un punto di rottura irreversibile che metterà in discussione intere civiltà umane. La storia dell’IA arriva così a fondersi con la storia stessa, e l’intelligenza artificiale entra proprio nella storia. Dal marketing al transumanesimo, tutta una serie di discorsi tecno-profetici si stanno precipitando lungo questa strada. Anche molte personalità scientifiche del settore non hanno mancato di aggiungere acqua a questo mulino.
Questa storia deterministica, che non esita ad adottare accenti religiosi, ama agire “come se le parole avessero conservato il loro significato, i desideri, la loro direzione, le idee, la loro logica; come se questo mondo delle cose dette e volute non avesse conosciuto invasioni, lotte, saccheggi, travestimenti, inganni” [17] . Non è solo una questione di termini. L’evoluzione delle tecniche avviene anche attraverso squilibri, tensioni, sfasamenti e riconfigurazioni raramente previste e in sintonia con il mondo e i contesti umani. L’intelligenza artificiale non fa eccezione.
La sfida di smantellare questa narrazione uniforme non si limita a una semplice questione di accuratezza. Si tratta della possibilità di altri rapporti con le tecniche e con il pensiero, emancipati dalle mistificazioni egemoniche.
Note
[1] Vedi Pamela McCorduck, Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence , Natick, AK Peters, 2004, p. 115.
[2] Su questa storia, vedere Ronald Kline, “Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence”, IEEE Annals of the History of Computing , vol. 33, nᵒ 4, aprile 2011, p. 8.
[3] John McCarthy et al. , “Una proposta per il progetto di ricerca di Dartmouth sull’intelligenza artificiale” , 1955, p. 1.
[4] Va ricordato, tuttavia, che la nozione di informazione dà origine, all’interno della stessa cibernetica, a teorie divergenti. Su questo punto, e sulla cibernetica in generale, si veda Mathieu Triclot, Il momento cibernetico: la costituzione della nozione di informazione , Seyssel, Champ Vallon, 2008.
[5] Sul modo in cui la cibernetica intende costruire una “scienza della mente”, si veda Jean-Pierre Dupuy, Alle origini delle scienze cognitive , Parigi, La Découverte, 2005.
[6] Alan Turing, “Computing Machinery and Intelligence”, Mind , LIX, nᵒ 236, ottobre 1950, p. 436.
[7] Macchina immaginaria che Alan Turing presenta in un famoso articolo del 1937 e che offre un modello formale della nozione di algoritmo. Vedi Alan Turing, “On Computable Numbers, with an Application to the Entscheidungsproblem ”, Atti della London Mathematical Society , vol. s2-42, nᵒ 1, 1937, p. 230-265.
[8] Il corsivo è mio. Citato da Ronald Kline, “Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence”, op. cit. , P. 8.
[9] Se parte del lavoro di Shannon è stato decisivo per il futuro dell’intelligenza artificiale e se ha partecipato agli albori del campo, non si è distinto come uno dei principali attori in esso.
[10] Ricordiamo che ancora oggi il cervello è lungi dall’aver svelato tutti i suoi segreti e che, negli anni Cinquanta, le conoscenze scientifiche in materia erano a dir poco rudimentali.
[11] Nils John Nilsson, The Quest for Artificial Intelligence , Cambridge, Cambridge University Press, 2010, p. 53.
[12] Ibid .
[13] Frank Rosenblatt, “Two Theorems of Statistical Separability in the Perceptron”, in Mechanization of Thought Processes: Proceedings of a Symposium Held at the National Physical Laboratory on 24 , 25 , 26 and 27 November 1958 , Londra, Ufficio di cancelleria di Sua Maestà, 1959, p. 423.
[14] Marvin Minsky, “Alcuni metodi sull’intelligenza artificiale e la programmazione euristica”, in Mechanization of Thought Processes: Proceedings of a Symposium Held at the National Physical Laboratory on 24 , 25 , 26 and 27 November 1958 , Londra, Ufficio di cancelleria di Sua Maestà, 1959, p. 25-26.
[15] L’argomento più spesso riportato è che il perceptron sarebbe incapace di eseguire l’operazione booleana “OR esclusivo”. Questo è infatti solo il caso di un percettrone comprendente un solo strato di neuroni. Minsky e Papert affermano di non aver studiato le macchine multistrato perché non ne hanno trovata nessuna, almeno “nessuna i cui principi sembrano avere una relazione significativa con quelli del perceptron” (Marvin Minsky e Seymour Papert, Perceptrons: An Introduction to Computational Geometria , Cambridge, MIT Press, 1988, p.
[16] L’espressione è tratta da Dominique Cardon, Jean-Philippe Cointet e Antoine Mazières, “La vendetta dei neuroni”, Réseaux , vol. 5, n. 211, 2018, pag. 173-220. L’articolo offre una buona introduzione al lungo ritorno alla ribalta, a partire dagli anni Ottanta, del connessionismo.
[17] Michel Foucault, “Nietzsche, genealogia, storia” (1971), in Hommage à Jean Hyppolite, Parigi, Presses Universitaires de France, 1994, p. 145.
Autore: Vivien Garcia è un Filosofo, docente-ricercatore presso la Facoltà di Medicina dell’Università della Lorena.
Fonte: AOCMedia