Sull’AI interviene Contiliano

Già gradito collaboratore di “Critica integrale”, Antonino Contiliano mi ha inviato un ampio saggio sul problema della Intelligenza Artificiale, che pubblico ben volentieri.

Antonino Contiliano, La cecità dell’AI

Nell’epoca della quarta rivoluzione della produzione industriale capitalistica tele-informatica, il capitalismo, sfruttando gli sviluppi dell’Intelligenza Artificiale – “AI” – con il suo linguaggio digitale ‘0 1’ (o numerazione discreta/finita, incorporata nel cervello elettronico dei moderni robot, capaci di tradurre e rispondere agli input verbo-scritti o quesiti posti dall’utente), ha fatto sparire la materialità del mondo-contesto e l’insieme delle variazioni sensoriali e logiche legate all’intelligenza situazionale e sociale dei soggetti umani che, variamente disposti, hanno corpo e carne abitati dalle parole senza confini precostituiti. Il linguaggio digitale, essendo un’esecuzione routinaria di istruzioni già predefinite da un programmatore, invece, è sempre un calcolo – computazione – scorporato, finito e compreso sempre tra due limiti, i valori discreti numerici ‘0 1’ (letti anche come falso/vero, chiuso/aperto, destra/sinistra, basso/alto…); sì che l’intelligenza del calcolatore è di fatto esclusivamente un’autoreferenzialità autoriflessiva segnaletica racchiusa in celle steccate, un linguaggio ad hoc, senza mondo.

Una segnaletica avvitata su se stessa perché esegue esattamente una sequenza di puri calcoli passo dopo passo (cammino algoritmo), mentre le previsioni inferenziali procedono secondo i rapporti di inclusione o esclusione previsti dalle regole necessarie già prestabilite. Il risultato della decisione di un programmatore che può o meno coincidere anche con un progettista. In tal senso (solo per inciso) Roger Penrose, nel tentativo di mettere a prova il famoso test comportamentale del gioco dell’imitazione del logico e matematico Alan Turing (diremo avanti), che avrebbe segnato la parità dei cervelli-mente uomo-macchina, ebbe a dire che se le previsioni, rispettando la logica Vero/Falso, si fossero realizzati nel rispecchiamento biunivoco con le cose e i significati, ci sarebbe un interrogativo dilemmatico; chi si dovrebbe giudicare intelligente: “il computer (o il programma per computer, o il programmatore, o il progettista)” (R. Penrose, La mente nuova dell’imperatore, Rizzoli, Milano, 1997, p. 26).

Dubbi e perplessità non sono mai mancati fin da quando, sin dai primi del Novecento, studiosi e psicologi hanno tentato di darne, dell’intelligenza, una definizione in termini di “quoziente intellettuale” (“QI”: rapporto tra età mentale ed età cronologica dei soggetti ma espresso in scala numerica tra un minimo e un massimo di 110 punti). Per Turing, immaginando un calcolatore astratto, la definizione più appropriata per individuare il comportamento intelligente della sua macchina fu invece l’“imitazione”. Se una macchina calcola – ipotizzò – tutti i valori numerici calcolabili (anche infiniti, come fa una mente umana), allora si può considerare che il calcolatore sia potenzialmente capace di riprodurre anche tutte le capacità umane, non esclusa la capacità di poter comporre anche delle poesie (un cervello matematico elettronificato come il pensiero-linguaggio di una mente umana e viceversa). Per Turing (stimatore anche delle poesie di Shakespeare, i sonetti), rispetto alla simbolizzazione logico-matematica e ai teoremi algoritmici formalizzati, il linguaggio della poesia – crediamo – si presentasse (allora) come il più pertinente e coerente medium amniotico: sia astrazione che parola viva; un insieme di dentro/fuori un mondo con tutte le sue relazioni positive, negative e di sconfinamento materiale e immateriale. Altri programmatori e inventori più moderni e contemporanei (ma qui solo per inciso) hanno definito l’intelligenza ora secondo gli scopi ora secondo una specifica funzione algoritmica (algoritmi per la ricerca, accumulo illimitato di dati e velocità – impossibile per gli stessi soggetti umani – di elaborazione; “pulizia” delle informazioni, classificazioni, decisioni, operatività per la medicina, istruzione, biologia, astronomia, fisica-matematica, finanza…). Ma, qui, non è improprio ricordare che il linguaggio della poesia, per esempio, se si guarda sia alla metrica (metri e piedi dei versi) sia alla fono-semantica della rima dei sonetti, è una parola che, pur connettendosi ai numeri razionali o naturali, non derealizza né dematerializza. Stessa cosa la versione della simbolizzazione dei tipi di sonetto nella forma della rima baciata (a a b b), o dell’alternata (a b a b), o chiuse (a b b a), o della rima incatenata (a b a, b c b, c d c), o rinterzata (a b c, c b a). Una modellizzazione, il linguaggio della poesia, che non sacrifica affatto l’anteriorità ed eterogeneità della logica del sensibile, del senso e del fuori dove corrono il meta-pherein (ancoraggio figurativo all’esterno) e l’allegoreuein (parlare d’altro, il dire altrimenti), la distanza tra il fatto di dire (la facoltà di parola) e ciò che si dice.

Passo di critica

Né fa di meno la stessa critica estetica della poesia moderna che usa la formalizzazione semiotica matematizzata lì dove un matematico sovietico come Kolmogorov (anche lui appassionato di poesia) e un critico come Jurij Lotman hanno fatto uso dei simboli ideografici della logica matematica per una congiunzione disgiunta tra le regole procedurali, la significanza complessa dell’informazione poetica e la stessa entropia dei significati veicolati dalle parole. Nello specifico si allude alla formula estetica “β<h2” Kolmogorov/Lotman (Jurij M. Lotman, La struttura del testo poetico, 1976, p. 35) nella critica negli enunciati della poesia). L’invenzione è del matematico sovietico Andrej Nikolaevič Kolmogorov. Per Kolmogorov infatti – scrive Jurij Lotman – le «limitazioni della tecnica (indicate con il simbolo β) debbono essere organizzate secondo una logica che sappia ben lavorare il passaggio della lingua (H) alla grandezza di una certa informazione-trasmissione di significato (h1) a “h2”, la creazione poetica; la plasticità della lingua, cioè, che ha “la possibilità di esprimere lo stesso contenuto con mezzi diversi, aventi pari valore”. La creazione poetica infatti è possibile solo finché la quantità dell’informazione utilizzata per le limitazioni non supera (β<h2), la plasticità del testo. In una lingua con β ≥ h2 la creazione poetica è impossibile”» (Cfr. A. Contiliano in questo blog). L’applicazione dei suoi metodi logico-matematici formalizzanti della teoria dell’informazione al testo poetico ha così aperto la possibilità di misurazioni precise: informazione artistica senza eliminarne però la controparte dell’eterogeneità materiale e del possibile. Anche lo psicoanalista e filosofo francese Jacques Lacan, ancora, è un altro esempio paradigmatico di logica formalizzata applicata – però – alla ‘psyche’ e al piacere del desiderio trasgressivo della ‘jouissance’ dell’animale umano. Il riferimento è alla simbolizzazione formalizzata “$ < > a” con cui Lacan affronta lo scarto entropico affidato all’ordine simbolico di primo ordine del “Discorso del Padrone” (Fabio Vighi, Crisi del valore-Lacan, Marx e il crepuscolo della società del lavoro, Mimesis, 2018, pp. 72-73). È lo scarto che rimane abbordabile solo attraverso il desiderio e il fantasma denotandolo con la formula “$ < > a”. Qui “$” è il soggetto reale dell’inconscio ma barrato (/); “< > a” è il reale del desiderio e del fantasma; “a” è il petit a(utre), il plusgioire che abita il lavoratore, il consumatore e pure il capitalista ma nella forma particolare del plusvalore come concreto interesse ed esclusivo profitto privato del capitalista. Nessuna esclusione dell’eterogeneo materiale e sensibile, dunque. La formalizzazione è usata come una razionalizzazione che ne stabilisce l’esistenza anziché surclassarne la realtà. Anzi! Il reale, cioè, è lì come un “ante/i” o controparte immediata e inaggirabile in quanto crogiuolo che antecede gli automatismi delle formule simbolizzate con segni e lettere. C’è sempre un ritorno del “sintomo” rimosso e una cecità dei linguaggi grammaticali e logici rispetto alla particolarità e alla contingenza delle cose e degli eventi umani e non umani. Così, per un altro esempio lacaniano (e a fronte di quello simbolico (S1) del padrone e del (S2) scientifico dell’accademico, c’è pure l’analogo del discorso dell’isterico: “$/ a → S1/S2”. È il reale della parola del soggetto isterico che, indicibile per lo scire scientifico-tecnico dell’accademia (alleata con il padrone), rimane un altro eterogeno corporeo antagonista e fuori la rete dei calcoli. La richiesta del nevrotico, che chiede allo psicoanalista di dirgli “chi/che cosa” egli sia, rimane infatti conflittuale e senza risposta. Il linguaggio del tecnico psicoanalista rimane muto e cieco, ma non evapora l’esistenza della soggettività psico-materiale che connota l’identità del nevrotico (unità processuale intrecciata di corporeità e simbolicità linguistica). Ora torniamo all’occhio cieco e muto della mente artificiale.

Un occhio senza sguardi

La “mente” del calcolatore, pur commutando poi il logos (proposizioni e discorsi ragionati) in espressioni e comunicazioni del linguaggio naturale, rimane sempre una pura e semplice astrazione computazionale. Fondamentalmente rimane una “parola” senza un corpo sensiente (cieco). Una parola priva di un’aisthesis diretta, coscienza sensibile, intelligenza situazionale, sociale e contestuale, se è anche vero, come ha scritto lo stesso Alan Turing, che una macchina può dirsi veramente pensante solo se, nella tecnologia logos-linguistica (che è propria solamente all’homo sapiens), sa scrivere una poesia. Un testo, cioè, che mette in moto anche procedure di verità, processualità e immaginazione, eccedenze e analogie che possono variare all’istante seguendo improvvisi movimenti fonatori aleatori, casualità, pause e vuoti come sentieri incalcolabili e non pre-addestrabili. Così, sulla rivista “Mind” nel 1950, Turing scriveva l’articolo “Computing Machinery and Intelligence” /AI: “Le macchine possono pensare?” Da allora le obiezioni non mancarono. Ci fu anche una “obiezione teologica” (Dio ha dato un’anima per pensare solo a uomini e donne, e non a macchine e animali. La più significativa, e presa in considerazione, fu però l’“Argomento della coscienza” (unità dinamica di percezione, coscienza sensibile, linguaggio e astrazione intellettuale) insieme con la capacità di scrivere poesie: se “una macchina non potrà scrivere un sonetto o comporre un concerto in base a pensieri ed emozioni che ha provato e non per giustapposizione causale di simboli, non potremo essere d’accordo sul fatto che la macchina eguagli il cervello, cioè che non solo scriva ma sappia di aver scritto” (D. R. Hofstadter, Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante, Adelphi, Milano, 1984, p. 645.). Il suo test – il gioco operativo dell’imitazione – nacque infatti su questo nesso materiale inaggirabile di corpi-pensieri-affettività-parola-discorsi simbolizzati: mente e corpo/carne intrecciati pur se distinti. L’esempio di Turing: un dialogo linguistico fra tre giocatori di cui ognuno non conosce l’identità dell’altro. Uno un pc (dotato di linguaggio ad hoc). Su supporto, le risposte date e lette impersonalmente. L’esperimento discorsivo, e non a caso, visto l’“Argomento della coscienza”, toccava anche gli aspetti “speciali” del linguaggio (allusioni, metafore, comparativi) oltre a connettivi e sintassi. L’aspettativa? Se, nel distinguere o meno il detto/descritto, il nome, il senso e il metaforico delle parole, le articolazioni linguistiche dei tre si fossero presentate con un certo scarto statistico non troppo elevato, si sarebbe potuto dire che il pensiero creativo o la scrittura di una poesia fosse un’attività possibile anche per un computer? Anche se la macchina avesse ingannato il soggetto umano, non facendosi riconoscere come macchina, si può dire che la macchina pensi come si verifica nel linguaggio naturale degli animali umani e/o del loro far poesia?

I limiti

Per chi scrive, nonostante il rispetto per la grande utilità individuale e sociale dei cervelli elettronici e l’inferenziale logica binaria (‘0 1’), il limite c’è. I benefici (medicina, fisica quantistica, genetica, astronomia, economia, meteorologia, comunicazione) non l’annullano. È nella potenza del loro stesso linguaggio algoritmico automatizzato o delle regole di pre-addestramento e predeterminate in astratto. Le regole cioè che, ricombinando la massa dei dati trasformati nelle sequenze dell’aritmetica-logico-binaria ‘0 1’ e facendone una corrispondenza biunivoca isomorfa, sovrappongono la supposta semantica percettivo-linguistica e la referenza extralinguistica. Lo scarto però rimane. Quelli che oggi si nominano algoritmi non sono altro – crediamo – che i “numeri armonici” (M. Vegetti, Quindici lezioni su Platone, Einaudi, Torino, 2003, p. 166) idealizzati dell’idealità platonica. Sono le nuove catene numeriche che rimangono sorde e cieche rispetto a ogni mutazione ambientale improvvisa che modifichi, per esempio, il rapporto sfondo e primo piano di un’immagine (in questo contesto, cognitivamente non previsto, il digitalizzato rimane infatti sfasato!). Nessuna macchina logicistica o formalizzante (anti-Turing e post-Turing) supera il Turing-test. La sua controparte operativo-mimetica o extralinguistica, sua stessa condizione, rimane sempre una eterogeneità pre-formalizzazione. Le parole del linguaggio automatizzato e autonomo (meccanico o digitale) non abitano nessun mondo che non di segnaletica. Le linee rette e/o curve che incanalano la rete delle sinapsi virtuali neuro-elettroniche. Un mondo che non convive né con le veglie né con i sogni (diurni e/o notturni) né con l’eros dei rapporti sessuali e la diversità dei desideri (a meno che non siano gli androidi di Philip K. Dick, Ma gli androidi sognano pecore elettriche?).

Le macchine “OpenAI”

Rispetto al vecchio calcolatore turinghiano, non molto diversa è la base dell’identità “intelligente” delle nuove e più sofisticate macchine pensanti come gli attuali “GPT-3, 3.5, 4” (Generative Pre-Trained Trasformer) e degli chatter robot o “Chatbot” che, lanciati dal 2020 dai ricercatori “OpenAI”, sono in grado “di generare testi simili a quelli scritti dagli esseri umani (compresa la poesia), di comunicare usando il normale linguaggio umano e, […], di trasformare in codici informatici le istruzioni che ricevono in linguaggio naturale” (Daron Acemoglu e Simon Johnson, Lotta artificiale, in Potere e progresso-La nostra lotta millenaria per la tecnologia e la prosperità (Traduzione di Fabio Galimberti e Paola Marangon), il Saggiatore, Milano, 2023, p. 342).
Infatti, anche queste nuovissime macchine – addestrate a trattare e ottimizzare statisticamente le informazioni raccolte e classificate come “data” (entità elaborati da un algoritmo automatizzato e anche autonomo) – rimangono semplici calcolatori di astratti concatenamenti sintattici secondo una inferenzialità che concatena per regole logico-matematiche pre-determinate e necessarie. Il necessario digitale, cioè, che, nella nuvola di rette e curve orientate obbligatoriamente ‘0 1’, simula la rete neuronica e ripulisce le cose dalle particolarità semantiche singolari virtuali e possibili. Sì che la comunicazione è diventata solo “comunicazione generale” o astratta combinazione immediata-generica di segni numerico-binari “0 1”; una logica-lingua standardizzata tanto semplice quanto potente forza di trasformazione. Una articolazione asemantica e insensata che se da un lato, grazie a regole inferenziali di “presupposto” rispecchiamento teorico-scientifico, trasformano prima le immagini, le parole-proposizioni-enunciati del linguaggio naturale in numeri, dall’altro poi li restituiscono, a tempo e luogo, ancora nella forma di una corrispondenza biunivoca con il mondo-contesto. Questo, però, essenzialmente, di per sé, per la macchina intelligente non ha più consistenza alcuna. Né lo “schema” matematizzato, come un’immagine intuitiva nel mondo della poesia, può essere pensato come un prototipo meta-forico e sinestetico che si possa rapportare concretamente all’antecedente eterogeneo nel suo insieme di essere molteplicità e plastico divenire generico non meno che etico-politico. Questo mondo, nell’ambiente cognitivo del digitale, scompare. Non così per gli altri linguaggi del sapere non numerico delle scienze quali la sociologia, l’antropologia, le psicologie, i linguaggi artistico-letterario-poetici, sebbene anche essi, criticamente, non trascurano l’uso delle formalizzazioni o dei metalinguaggi tecnici.
Nel caso il riferimento è agli attuali “ChatGPT” (Chat Generative Pre-trained Transformer) dell’AI con la loro capacità preordinata in grado di dare risposte ai quesiti degli utenti. Il limite non è di tipo quantitativo – che per accumulo dei dati, fornito dagli utenti, è illimitato –, ma riduzionistico: la complessità plastica della facoltà di linguaggio umano viene chiusa entro gli schemi riduttivi delle sequenze algoritmiche astratte biunivoche: aritmetica corrispondenza biunivoca parole-cose-stati-di-cose; numerosità di incroci ricombinabili con equivalenze equipotenti definite ad hoc. Il limite è pure epistemologico: le corrispondenze binarie ‘0 1’-parole, fatti o stati di cose ignorano il principio di indeterminazione di Heisenberg (un sistema, nel caso, non cattura simultaneamente le percezioni non empiriche come nel caso dell’onda-corpuscolo o della funzione – onda fantasma – o probabilistica della fisica quantistica), quello di incompletezza di Gödel (un’aritmetica assiomatizzata, se coerente – assenza di contraddizioni –, contiene allora proposizioni indecidibili, indimostrabili: è il vecchio paradosso di Epimenide, il rincorrersi dei metalinguaggi/linguaggio-oggetto) e la plasticità del non-linguistico che l’aseità logica della poesia (dar senso a paradossi e entropia dei significati) sa invece cogliere.
Per quanto evoluto, non c’è linguaggio algoritmico-lineare (i neuroni digito-elettronici) che rimpiazzi la creatività del pensiero e della scrittura artistico-poetica (in specie). Se ogni ragionamento è un pensiero, non ogni pensiero è un ragionamento. Neanche per “approssimazione”, direbbe G. Bachelard. In queste scritture, infatti, l’astrazione si deve far carico di non far dileguare la singolarità molteplice di senso delle cose di cui dice e non dice dicendole (intreccio dialettico precluso a linguaggio predeterminato, statico e statistico di cui fa uso il cervello di un pc). Il cervello-pc, pre-addestrato, è governato da regole scorporate. A ciò non sfugge nessun chatbot “GPT”, pur accompagnato ai “motori dell’emozione” (emotion engine): capacità di influenzare la stessa sfera emotiva delle sensazioni, delle percezioni, dell’immaginazione e dei comportamenti degli individui come degli stessi gruppi sociali (docet la rete INTERNET e gli smartphone).

Un sonetto che non suona

Ora, in rilevanza, si prova la sofisticata AI della pensante chatbot “GPT 3.5” (pc capace di “dialogo”) ponendole una domanda. Si è chiesto di leggere e rielaborare in altra forma la poesia “La chiave della loro prigione è la loro lingua / Tuttavia la loro lingua si avvinghia attorno alle dita del mio desiderio / E al mio desiderio non impartiscono ordini” della poetessa libanese Joumana Haddad. Qui la risposta di “GPT 3.5: “Certo, posso riscriverla in forma di sonetto”:

La chiave della prigione è il lor parlare,
ma avvinghia intorno al mio ardente volere,
ordini al desiderio non vogliono dare,
la lingua loro, un nodo da sciogliere.

Serrati tra le frasi, il cammin serrato,
legame e libertà in quel mistero intrecciato,
al desiderio mio, comando negato,
nei silenzi, ogni sentiero bloccato.

Intrappolata è la via, stretta è la via,
dove parole tentano, ma poi s’arrestano,
ogni suono, un’ala che il vento non guida.

E così la lingua, prigione e libertà,
s’aggira nel desiderio, ma non dà
comandi al volere che in silenzio sfida.

Ora (come Turing): un lettore, all’oscuro del fatto che questo sonetto è la traduzione di una machine learning e della sua capacità di autoapprendimento algoritmicamente automatizzato (parole, sillabe, accenti tonici “simbolizzati” e poi binarizzati ‘0 1’), avrebbe dubbi o no sull’uso designativo del linguaggio, delle forme metaforiche, analogiche ed extralinguistiche che sostanziano questo sonetto? Ancora, distinguerebbe, la machine, parole piane, sdrucciole, affinità foniche – che sottendono valori semantici evocativi – e le “piccole percezioni” né denotabili né unificabili e misurabili? E sull’esempio de “La teoria del Tutto” (unificazione delle quattro forze fondamentali della fisica quanto-relativa), riuscendo a unificare i vari tipi di algoritmi (mirati a compiti diversi), il differimento scomparirebbe? Cesserebbe il bisogno di accumulare ulteriori informazioni-data? Si allude ai ‘learner’ della teoria dell’“Algoritmo Definitivo” di Pedro Domingos, quello capace di assemblare e riassemblare automaticamente e in autonomia: il deep learning (apprendimento profondo). Gli algoritmi cioè che (Pedro Domingos, L’algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo, Bollati Boringhieri, Milano, 2015, p. 232), espletando funzioni diverse per affrontare e risolvere problemi diversi, sono strutturati differentemente: “simbolisti” (deduzione); della “deduzione inversa” (induzione dai dati empirici); connessionisti o della retropropagazione; evoluzionisti come nella programmazione genetica; bayesiani o dell’inferenza probabilistica/statistica; analogisti o della somiglianza (capire quanto siano simili-dissimili “due cose e decidere cos’altro inferire dalla loro somiglianza”). Guardando alla “Teoria del Tutto”, l’unificazione delle quattro forze fondamentali della fisica, l’ideale di Domingos sarebbe l’algoritmo definitivo: l’unificazione dei diversi algoritmi. Monolinguismo senza molteplicità, la pluralità delle singolarità e la contingenza degli eventi che miscelano il mondo e la sua non linearità: quella che invece la logica e la tecnologia della poesia frequenta. Non per astratte equazioni binarie automatizzate: eguaglianze fattuali per deduzioni formalizzate (deep learning). Il linguaggio poetico, diversamente dai teoremi digito-elettronici combinatorio-lineari descrittivi, gode sia dell’aseità semantica della logica contro-fattuale (il possibile, il non necessario) sia dell’evenemenziale che del contestuale e del ‘sensibile’ lì dove le stesse analogie e le metafore sinestetiche mostrano l’eterogeneità del non-linguistico. Una contingenza materiale e sensibile, cioè, che, oltre ad essere praticata dal linguaggio della poesia, non manca neppure fra le righe della critica estetica e della stessa psicoanalisi, ricerche e configurazioni dove ricorrono pure certe formalizzazioni simboliche algebrico-matematiche impure.

La complessità del mondo (l’extralinguistico) e la sua materiale aisthesis (il sensibile) sono veramente destinati, allora, ad essere soppiantati completamente dai linguaggi numerici e dalle formalizzazioni del digitale dell’Intelligenza Artificiale (le macchine pensanti dell’AI, ‘seriale’ o ‘parallela’ sia la potente architettura del loro cervello) che macinano ogni cosa nei modelli matematici e nella potenza del calcolo binario, quello che trasforma il linguaggio naturale (parole, suoni, immagini, espressioni, informazioni e comunicazione) nel linguaggio dei numeri, le cui formule, a sua volta vengono riconvertite in linguaggio naturale? O non è piuttosto possibile dire che le stesse formalizzazioni che animano la testa di un pc attestano l’inaggirabile presenza ed esistenza del mondo materiale, se è vero, come è vero, che il loro rapporto formalizzato con le cose, gli stati di cose non è di coincidenza naturale bensì di convenzionalità tecnica, e che di coscienza hanno niente? Del resto, in conclusione e succintamente, lo stesso Roger Penrose, non ha dimenticato di avvertire, della debolezza della convinzione, chi è convinto di vedere nello sviluppo dei computer paralleli la chiave per la costruzione di una macchina con le capacità del cervello umano. Infatti, sebbene “in grado di eseguire indipendentemente un numero grandissimo di calcoli distinti, come fanno (corsivo nostro) parti diverse dell’encefalo sembrano […] in grado di eseguire funzioni di calcolo separate e indipendenti (per esempio con l’elaborazione dell’informazione visuale nella corteccia visiva)”, i risultati sono solo intermittenze del calcolo generale e in linea di principio rimangono macchine di Turing con maggiore efficienza e velocità di elaborazione dei data; cosa che non autorizza a dire che un calcolo parallelo sia la chiave per imitare ciò che accade nel pensiero cosciente di un soggetto umano. Perché – sempre Roger Penrose – un “carattere tipico del pensiero cosciente (almeno quando si è in uno stato psicologico normale, e non si è subito un intervento di commissurotomia!) è la sua «singolarità», in contrapposizione a molte attività indipendenti che si svolgono simultaneamente” (R. Penrose, La mente nuova dell’imperatore, cit., p. 504). E la singolarità non è abitata dalla comunicazione generalizzata e semplice generata dai programmatori degli algoritmi confinati, bensì dal tempo esponenziale dei ritmi contingenti della poesis e dal singolare soggettivo che, usando contraddizioni e paradossi, può scrive e dire: “questo, ma non questo”; “io noi” o i tanti io ma non io.

22/01/2024

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.