1X
🔊 100%
Contenuti del libro
Informazioni
“Teoria letteraria per robot. Come i computer hanno imparato a scrivere” di Dennis Tenen ti fa capire che l’idea di far scrivere le macchine non è roba di oggi. Si parte da sistemi antichi come la Zairja o le idee di Raimondo Lullo, che usavano tavole e regole per combinare simboli e generare risposte, un po’ come fa l’IA moderna. Il libro si chiede cosa significa davvero intelligenza: è solo manipolare simboli, come facevano quelle vecchie macchine o come fanno i computer di oggi, o c’è di più? Fa vedere che l’intelligenza, soprattutto quella che usiamo per capire e creare linguaggio, è un mix di mente umana, strumenti e un sacco di lavoro collettivo, non solo un chip super potente. Poi ti porta attraverso la storia, passando per gente come Kircher con le sue macchine strane, la ricerca di linguaggi universali tipo quella di Leibniz, fino al punto di svolta con Babbage e Ada Lovelace che hanno capito come far rappresentare alla macchina le sue stesse operazioni, aprendo la strada alla programmabilità universale. Vedi come l’idea di usare schemi e regole è passata dalla manifattura alla scrittura, con manuali e ‘generatori’ di trame, e come la linguistica, con lo strutturalismo e le grammatiche generative di Chomsky, ha provato a trovare le regole nascoste del linguaggio, usate poi dai primi programmi di generazione testo. E arriviamo a oggi, dove l’IA usa un approccio statistico pazzesco, basato sulle catene di Markov e sull’idea che il significato di una parola dipende da quelle che le stanno vicino, creando questi ‘spazi vettoriali delle parole’ che sembrano capire le relazioni tra i concetti solo analizzando testi enormi. Insomma, “Teoria letteraria per robot” ti fa vedere che l’IA che scrive non è una magia o un cervello elettronico, ma il risultato di secoli di tentativi di automatizzare il pensiero e il linguaggio, un enorme lavoro di squadra tra umani e macchine che continua a cambiare come lavoriamo e interagi. È uno strumento potente, ma l’intelligenza vera sta sempre nell’uso che ne facciamo noi.Riassunto Breve
I computer elaborano grandi quantità di testo e simboli, automatizzando lavori che prima facevano le persone. Questa capacità di manipolare simboli non è una cosa nuova; già in passato, sistemi come la Zairja o l’Arte di Lullo usavano tabelle e regole per combinare elementi e generare risposte. Sia questi vecchi metodi che l’intelligenza artificiale di oggi funzionano manipolando simboli seguendo regole. Possono creare testi che sembrano corretti grammaticalmente, ma non capiscono veramente il mondo fuori dal linguaggio. Le risposte possono essere giuste per il sistema, ma non per la realtà. Per avere risultati utili o giusti, servono limiti e conoscenze che vengono dall’esperienza umana e dal mondo vero. L’intelligenza non sta solo nella macchina. È un mix di mente umana, corpo, strumenti e collaborazione tra persone. Quando si usa un correttore o un motore di ricerca, si usa una specie di intelligenza di gruppo, fatta dal lavoro di tanti nel tempo. Dire che lo strumento è intelligente, come se avesse una sua coscienza, è una metafora che non considera che questa capacità è diffusa e si basa sull’unione della ragione con l’uso di strumenti. La storia delle macchine intelligenti mostra diverse idee. Dispositivi come l’Organum Mathematicum combinavano elementi per fare cose come poesie, facendo discutere se l’intelligenza fosse un processo interno o la capacità di produrre risultati. Si è cercato di creare linguaggi perfetti per collegare parole e concetti alla realtà e rendere automatico il ragionamento, ma la realtà è troppo complessa per essere messa in tabelle fisse. Un passaggio importante è con Charles Babbage e Ada Lovelace. Lovelace capisce che lo stato fisico della macchina di Babbage si può rappresentare con simboli, come formule. Questo permette di creare un linguaggio (software) che controlla la macchina (hardware). La macchina non deve più avere una mappa del mondo, ma manipola simboli che rappresentano le sue operazioni. Questo lega il mondo fisico a quello simbolico e permette alla macchina di fare lavori diversi cambiando le istruzioni (il programma), creando la base per i computer moderni. Il lavoro intellettuale richiede metodo, non solo talento. Nell’era industriale, si applicano modelli e schemi, usati nella produzione, anche alla scrittura, aumentando la quantità di testi prodotti. Strumenti come manuali, schemi per saggi e generatori di testo diventano comuni tra gli scrittori. Intanto, lo strutturalismo cerca regole universali nel linguaggio e nella letteratura. Noam Chomsky propone di testare una grammatica vedendo se può generare linguaggio corretto. I primi sistemi di intelligenza artificiale per scrivere testi usano queste grammatiche, ma producono frasi corrette ma senza senso, perché la grammatica è separata dal significato. L’idea degli “schemi” (modelli di situazioni con personaggi e azioni) aiuta a unire grammatica e senso. Programmi come TALE-SPIN creano storie semplici con questi schemi. L’approccio con gli schemi è utile per analizzare dati strutturati e si usa in vari campi per organizzare informazioni. L’intelligenza linguistica oggi usa un metodo statistico, basato su come le parole si seguono (catene di Markov). Il significato di una parola viene dalla sua vicinanza statistica ad altre parole nel testo, non dalla grammatica o dall’esperienza reale. Come dice il linguista Firth, le parole significano in base alle parole che “frequentano”. Questo porta a rappresentare le parole come punti in uno spazio, dove la distanza mostra la loro relazione statistica, permettendo alle macchine di capire relazioni di significato senza “conoscerle” davvero. Questo metodo funziona perché i computer possono elaborare enormi quantità di testo per calcolare queste relazioni. L’intelligenza artificiale basata su questi modelli è un lavoro di gruppo e diffuso. Non è una cosa singola, ma il risultato del lavoro coordinato di tante persone, tecnologie e organizzazioni. Usare parole come “apprendimento” o “reti neurali” per l’IA può nascondere questa natura collettiva e rendere difficile capire chi è responsabile delle sue azioni. L’automazione con l’IA cambia i lavori, specialmente quelli che usano la conoscenza, rendendo meno prezioso il lavoro che si può automatizzare, ma anche facilitando l’accesso e migliorando il lavoro che resta. L’IA ha effetti sociali e politici, come l’uso nella disinformazione. Risolvere questi problemi richiede più della tecnologia, servono cambiamenti nel comportamento delle persone e nuove leggi. L’intelligenza artificiale, alla fine, è uno strumento che aumenta la collaborazione umana, non un agente autonomo con suoi obiettivi.Riassunto Lungo
1. Testi, Tavole e l’Intelletto Artificiale
I computer sono capaci di leggere e lavorare con enormi quantità di testo. Questo permette di fare in automatico cose che prima facevano le persone, come scrivere, analizzare o creare documenti. Questa capacità di usare simboli e linguaggio non è una cosa nuova di oggi.Manipolare simboli: dalle tavole antiche all’intelligenza artificiale
Già nel passato esistevano sistemi che usavano tabelle o ruote per mettere insieme lettere e creare risposte o idee, seguendo regole precise. Pensiamo alla Zairja nel mondo arabo medievale o all’Arte di Raimondo Lullo. Questi vecchi metodi e l’intelligenza artificiale di oggi funzionano in modo simile: prendono simboli e li manipolano seguendo delle istruzioni.Cosa manca alle macchine: la comprensione del mondo reale
Possono creare testi che sembrano corretti quando si guarda la grammatica, ma non capiscono davvero la realtà che sta fuori dal linguaggio. Le risposte che danno possono essere giuste per le regole interne del sistema, ma non è detto che corrispondano al vero nel mondo reale. Per ottenere risultati che abbiano un senso profondo o che siano giusti dal punto di vista etico, servono limiti e conoscenze che arrivano dall’esperienza delle persone e da quello che c’è fuori, nel mondo vero.Dove si trova veramente l’intelligenza
L’intelligenza non è solo nello strumento tecnologico che usiamo. Nasce da come la mente umana, il corpo, gli strumenti e la collaborazione tra le persone lavorano insieme. Quando si usa un programma per correggere gli errori di scrittura o un motore di ricerca, si sta usando una forma di intelligenza che è stata costruita da tante persone nel tempo. Dire che lo strumento, come un computer, è intelligente da solo, come se avesse una sua coscienza, è un modo di dire che non considera che l’intelligenza è diffusa e si è sviluppata nella storia. È il risultato dell’unione della capacità di ragionare con l’abilità di usare gli strumenti.Ma è così certo che l’intelligenza non possa emergere anche dallo strumento stesso, o che la ‘comprensione del mondo reale’ sia un concetto univoco e inaccessibile alle macchine?
Il capitolo propone una visione dell’intelligenza legata indissolubilmente all’interazione umana con strumenti e contesto sociale, relegando la macchina a mero strumento privo di “comprensione reale”. Questa prospettiva, pur valida, non esaurisce il dibattito filosofico e scientifico sulla natura dell’intelligenza e sulla possibilità che essa possa emergere anche in sistemi artificiali complessi, o che la “comprensione” stessa possa avere forme diverse da quella umana. Per esplorare queste sfumature, è utile confrontarsi con la filosofia della mente, la teoria dell’intelligenza artificiale e la robotica, magari leggendo autori che hanno messo in discussione i confini tradizionali tra mente e macchina, come Daniel Dennett.2. Tessere Motivi Algebrici
La storia delle macchine intelligenti e l’idea stessa di intelligenza si sono sviluppate partendo da diverse concezioni. Tutto inizia con dispositivi come l’Organum Mathematicum creato da Athanasius Kircher. Era una macchina capace di combinare vari elementi per produrre risultati, come poesie o calcoli matematici. Questo strumento fece nascere una domanda centrale: l’intelligenza è un processo che avviene solo dentro la mente di una persona, qualcosa di intimo e personale (un’idea che ricorda la visione di Platone e sostenuta da Quirinus Kuhlmann)? Oppure è semplicemente la capacità di creare risultati concreti e utili che si possono vedere fuori (un’idea più vicina ad Aristotele e a Kircher stesso)? Questa discussione fondamentale ha posto le basi per capire come pensiamo all’intelligenza artificiale ancora oggi.La ricerca di un linguaggio universale
Il desiderio di rendere l’intelligenza qualcosa di “universale” portò a cercare linguaggi perfetti. Pensatori come John Wilkins e Gottfried Wilhelm Leibniz cercarono di creare lingue artificiali e sistemi di classificazione che potessero collegare in modo perfetto parole, concetti e la realtà fisica. L’obiettivo era rendere automatico il ragionamento e garantire che i risultati fossero sempre veri. Tuttavia, questo approccio si scontrò con la realtà: il linguaggio e la conoscenza umana cambiano continuamente e dipendono dal contesto. La realtà non è qualcosa che si può facilmente mettere in tabelle fisse e immutabili.La svolta di Babbage e Lovelace
Un passo decisivo nella storia delle macchine intelligenti fu l’opera di Charles Babbage e Ada Lovelace. Babbage progettò la macchina analitica, un dispositivo meccanico molto avanzato per l’epoca. Ada Lovelace ebbe un’intuizione fondamentale: capì che lo stato fisico della macchina poteva essere rappresentato usando simboli, come le formule dell’algebra. Questa idea permise di creare un linguaggio, quello che oggi chiamiamo software, che descriveva e controllava il funzionamento interno della macchina, cioè l’hardware. Grazie a questa intuizione, la macchina non aveva più bisogno di contenere una mappa completa del mondo esterno. Divenne uno strumento universale capace di manipolare simboli che rappresentavano le sue stesse operazioni e configurazioni interne. Questo stabilì un legame profondo tra il mondo fisico della macchina e il mondo simbolico delle istruzioni. In questo modo, la macchina poteva eseguire compiti molto diversi semplicemente cambiando le istruzioni simboliche, il programma. Questa capacità di rappresentare e manipolare il proprio stato interno segna l’inizio della possibilità di programmare una macchina per fare qualsiasi cosa ed è la base dei computer moderni.Davvero la manipolazione di simboli interni, come suggerito dal capitolo, basta a rendere una macchina capace di ‘fare qualsiasi cosa’?
Il capitolo presenta l’intuizione di Lovelace come il passo decisivo che rende la macchina uno strumento universale. Tuttavia, affermare che la manipolazione di simboli che rappresentano lo stato interno della macchina permetta di “fare qualsiasi cosa” è una semplificazione che necessita di un contesto più ampio. La capacità universale delle macchine moderne non deriva solo dalla manipolazione simbolica interna, ma si fonda su principi teorici più profondi legati alla computabilità. Per comprendere appieno questo concetto e i suoi limiti, è fondamentale approfondire la teoria della computabilità, studiando il lavoro di pionieri come Alan Turing o Alonzo Church. Questo permetterebbe di capire cosa significa realmente “calcolabile” e quali sono le frontiere di ciò che una macchina può o non può fare, anche manipolando simboli.3. La Struttura del Testo
Il lavoro intellettuale, inclusa la scrittura, richiede metodo e tecnica, non solo talento naturale. Con l’arrivo dell’era industriale, l’applicazione di modelli e schemi, già usati nella produzione manifatturiera, si estende anche alla creazione letteraria. Questo approccio sistematico aumenta notevolmente la quantità di opere scritte, come si vede dall’enorme numero di libri pubblicati tra l’Ottocento e il Novecento, anche se i compensi per chi scrive diminuiscono. Per aiutare gli autori, diventano comuni vari strumenti: manuali di scrittura, strutture predefinite per saggi, sistemi per classificare le trame e persino generatori automatici di testo, come quelli creati da Polti, Plotto e Plot Genie. Questi aiuti pratici sono usati da molti scrittori, anche se spesso in segreto, per mantenere l’immagine del genio creativo che lavora solo per ispirazione.La ricerca di regole nel linguaggio
Contemporaneamente, nel campo della linguistica e della critica letteraria, nasce lo strutturalismo. Questo approccio si dedica a trovare i modelli universali e le regole nascoste che governano il linguaggio e le storie, come le funzioni narrative identificate da Propp. Un passo importante è l’introduzione del “test generativo” da parte di Noam Chomsky. Questo test valuta la validità di una grammatica in base alla sua capacità di generare frasi che siano grammaticalmente corrette. Questa idea di una struttura sottostante capace di generare testo influenza i campi successivi.Generare testo con i computer
Queste teorie sulla generazione del linguaggio influenzano i primi tentativi di creare testo con l’intelligenza artificiale, come quelli fatti al MIT. Inizialmente, i sistemi usano le grammatiche generative per produrre frasi. Il risultato sono testi che rispettano le regole grammaticali ma spesso non hanno un vero significato, perché la struttura della frase è separata dal suo contenuto. La svolta arriva con l’idea degli “schemi”, che sono come modelli di situazioni reali complete di personaggi, scopi e azioni. Usando questi schemi, i programmi riescono a combinare la correttezza grammaticale con un senso logico legato al contesto. Programmi come TALE-SPIN sono esempi di come si possano generare storie semplici basate su questi modelli strutturati.Applicazioni pratiche degli schemi
L’approccio basato sugli schemi si dimostra molto efficace anche al di fuori della creazione di storie. È utile, ad esempio, per analizzare dati che hanno una struttura chiara, come i rapporti sugli incidenti aerei. L’uso degli schemi si diffonde così in molti settori diversi. Vengono impiegati nell’istruzione, nella creazione di videogiochi, nei sistemi di assistenza clienti e persino in medicina. In questi campi, gli schemi narrativi aiutano a organizzare informazioni complesse e a gestire le interazioni in modo più efficace e strutturato.[/membership]Ma la ‘struttura’ e gli ‘schemi’ bastano davvero a catturare la complessità del pensiero e della creatività umana?
Il capitolo descrive l’evoluzione verso modelli strutturati e schemi come una svolta nella generazione di testo, capace di combinare correttezza grammaticale e senso logico. Tuttavia, ridurre la creazione testuale, e per estensione il pensiero, a pure strutture o schemi predefiniti rischia di ignorare dimensioni fondamentali come l’intenzionalità, il contesto situato, l’esperienza vissuta e la vera creatività, che non si esauriscono in modelli formali. Per esplorare questi limiti, sarebbe utile approfondire la filosofia del linguaggio, la cognizione incarnata e le critiche ai modelli computazionali della mente. Autori come Wittgenstein, Searle o Dreyfus offrono prospettive critiche sulla natura del significato e dell’intelligenza che vanno oltre la semplice manipolazione di simboli o strutture.4. Il significato statistico e l’intelligenza collettiva
L’intelligenza linguistica nel ventunesimo secolo si basa su un approccio statistico. Questo metodo, che affonda le radici nelle idee di Andrej Markov e Claude Shannon, guarda alla probabilità che una parola appaia vicino a un’altra. Il significato di una parola non viene capito attraverso regole grammaticali o esperienze dirette, ma dalla semplice frequenza con cui certe parole si trovano insieme nel testo. Come diceva il linguista J.R. Firth, le parole “significano” in base alle “compagnie che frequentano”. Questo concetto si visualizza bene nello spazio vettoriale delle parole, dove ogni parola è un punto e la sua distanza da altri punti mostra la sua relazione statistica, permettendo alle macchine di “inferire” significati senza averli realmente compresi come farebbe un umano.La base dell’intelligenza statistica
Questo approccio statistico funziona solo se si possono analizzare quantità enormi di testo per calcolare quante volte le parole compaiono insieme. I computer di oggi rendono possibile questa analisi su vasta scala, superando i limiti che c’erano in passato. L’intelligenza artificiale costruita su questi modelli non è opera di una singola mente o entità. È invece il risultato di un lavoro collettivo e distribuito, che coinvolge l’attività coordinata di tantissime persone, diverse tecnologie e molte istituzioni. Usare parole come “apprendimento” o “reti neurali” per descrivere l’IA può far dimenticare questa sua natura collaborativa e rendere difficile capire chi è responsabile delle sue azioni o decisioni.Impatto sulle professioni
L’automazione guidata dall’intelligenza artificiale sta cambiando profondamente il mondo del lavoro. Questo impatto è particolarmente forte nelle professioni che gestiscono informazioni e conoscenza. Da un lato, il valore del lavoro che può essere facilmente automatizzato diminuisce. Dall’altro, l’IA abbassa le barriere che impedivano l’accesso a certi strumenti o conoscenze e può migliorare la qualità del lavoro che richiede creatività, giudizio critico o interazione umana. Questo porta anche a una maggiore possibilità di integrare saperi umanistici con l’informatica, rendendo più accessibile la collaborazione tra questi campi.Risvolti sociali e politici
L’intelligenza artificiale solleva questioni importanti a livello politico e sociale. Un esempio rilevante è il suo utilizzo nella diffusione di notizie false e disinformazione su larga scala. Per affrontare questi problemi, non bastano soluzioni puramente tecnologiche. Servono risposte che includano anche cambiamenti nel modo in cui le persone si informano e interagiscono, oltre a nuove leggi e regole. In definitiva, l’intelligenza artificiale è uno strumento molto potente che amplifica la capacità umana di cooperare e creare, non un agente autonomo che agisce con obiettivi propri.Se il significato è solo statistico, e le macchine non “capiscono” come noi, possiamo davvero parlare di “intelligenza linguistica”?
Il capitolo, pur descrivendo efficacemente l’approccio statistico all’analisi del testo, lascia aperta una questione cruciale: se il “significato” è ridotto alla frequenza di co-occorrenza e le macchine non possiedono la comprensione umana, stiamo forse usando il termine “intelligenza linguistica” in modo improprio o ambiguo? Per esplorare questa distinzione e le implicazioni filosofiche di un significato puramente statistico, sarebbe utile approfondire la filosofia del linguaggio, esaminando autori come Wittgenstein o Searle, e confrontare questi approcci con le teorie semantiche in linguistica e le ricerche sulla cognizione umana.Abbiamo riassunto il possibile
Se vuoi saperne di più, devi leggere il libro originale
Compra il libro[sc name=”1″][/sc] [sc name=”2″][/sc] [sc name=”3″][/sc] [sc name=”4″][/sc] [sc name=”5″][/sc] [sc name=”6″][/sc] [sc name=”7″][/sc] [sc name=”8″][/sc] [sc name=”9″][/sc] [sc name=”10″][/sc]