1X
🔊 100%
Contenuti del libro
Informazioni
“La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano” di Nello Cristianini ci svela che l’Intelligenza Artificiale che ci circonda non funziona come pensavamo. Non imita il ragionamento umano con regole esplicite, ma ha trovato una “scorciatoia”: impara a fare previsioni efficaci analizzando enormi quantità di Dati, un approccio basato sull’Apprendimento Automatico. Questo cambiamento ha portato alla diffusione di Algoritmi potentissimi, specialmente sulle Piattaforme Digitali e i Social Media, dove i Sistemi di Raccomandazione influenzano le nostre scelte. Il libro esplora i rischi di questa nuova IA, come il Bias Algoritmico che può portare a discriminazioni, o la Persuasione Nascosta tramite Microtargeting e Nudging che sfrutta le nostre debolezze, sollevando serie preoccupazioni sulla Privacy Digitale e l’autonomia. Ci mostra come il Web stesso sia diventato una gigantesca “macchina sociale” fatta di persone e algoritmi. Di fronte a questa realtà, non possiamo tornare indietro; dobbiamo capire l’Etica dell’IA, chiedere trasparenza e lavorare per una Regolamentazione IA che garantisca sicurezza e rispetto. Alla fine, la sfida è integrare queste tecnologie mantenendo al centro la Dignità Umana, perché, per quanto intelligenti, le macchine non saranno mai “meglio di noi”.Riassunto Breve
L’intelligenza si vede nella capacità di fare cose bene in situazioni nuove, e non è solo una cosa umana, si trova anche in piante, animali e programmi. Non c’è un solo modo di essere intelligenti o un test per tutti. Pensare che l’intelligenza debba essere per forza come quella umana non aiuta. All’inizio, chi studiava l’intelligenza, anche quella artificiale, guardava troppo a come pensano gli umani, usando regole precise per far fare cose alle macchine. Ma questo non funzionava bene con il mondo vero, che è complicato e pieno di cose non chiare. Poi è cambiato tutto con l’arrivo dei computer potenti e di tantissimi dati. Si è capito che analizzare i dati e trovare schemi, come fa la statistica, funziona meglio per risolvere problemi difficili, tipo tradurre testi. Internet ha dato accesso a una quantità enorme di dati, e questo ha spinto a usare sistemi che imparano dai dati, come quelli che suggeriscono cosa comprare online guardando cosa hanno fatto gli altri. Questa nuova idea è fare in modo che le macchine prevedano e agiscano bene basandosi su quello che trovano nei dati, anche se non capiscono davvero perché le cose funzionano così. L’importante è che il risultato sia “quasi giusto”, sfruttando i dati disponibili. Le macchine imparano a trovare questi schemi nei dati per prevedere il futuro, ma a volte trovano relazioni che sono solo casuali, specialmente se i dati non sono tantissimi. Possono anche creare modi di vedere le cose che per noi umani non hanno senso. Esempi come i programmi che giocano a Go dimostrano che le macchine possono imparare da milioni di esperienze e diventare migliori degli umani, prendendo decisioni che nemmeno i loro creatori capiscono fino in fondo. L’obiettivo è fare previsioni giuste, anche se il processo è una scatola nera. Le macchine intelligenti che imparano dai dati del mondo reale possono fare cose che non ci aspettiamo, e a volte creano problemi. Oggi si usano algoritmi statistici per valutare le persone, per esempio per un lavoro o un prestito. Questi algoritmi imparano dai dati di tante persone e possono finire per discriminare, anche se non gli dici esplicitamente di farlo, perché trovano collegamenti strani nei dati. Per esempio, si può capire molto di una persona dai suoi “mi piace” online. Questa capacità di scoprire cose private dal comportamento digitale viene usata per convincere le persone a comprare o votare in un certo modo, creando messaggi su misura per la personalità di ognuno. Questo si chiama microtargeting e fa preoccupare per la nostra libertà di scegliere, specialmente quando non ce ne accorgiamo. I sistemi che ci suggeriscono cosa guardare sui social media sono come assistenti che ci aiutano a trovare cose, ma sono anche strumenti per le aziende per farci passare più tempo online e guadagnare con la pubblicità. Imparano da come interagiamo e usano trucchi psicologici per influenzarci, a volte in modo personalizzato per sfruttare le nostre debolezze. Queste interazioni non cambiano solo quello che vediamo subito, ma anche, piano piano, le nostre idee, le nostre emozioni e come ci comportiamo, portando a problemi come l’uso eccessivo o la divisione tra le persone. Non si sa ancora bene quali siano gli effetti a lungo termine, soprattutto sui più giovani. L’intelligenza non è solo nelle singole macchine, ma anche nei gruppi, come le formiche o le grandi aziende. Oggi sul web ci sono enormi “macchine sociali” fatte da miliardi di persone che interagiscono, spesso guidate dall’intelligenza artificiale. Queste macchine funzionano perché le persone fanno la loro parte, anche senza sapere qual è lo scopo generale del sistema. L’IA è diventata fondamentale per far funzionare il web, controllando cosa vediamo e influenzando le nostre scelte. Non si può semplicemente “spegnere” l’IA. La sfida è potersi fidare di questi sistemi. Serve che chi li crea sia responsabile e che si possa capire come funzionano, anche se l’IA statistica è difficile da interpretare. Serve anche la legge per garantire che siano sicuri, giusti e rispettino la privacy. L’IA che abbiamo creato è diversa da come la immaginavamo, ma funziona ed è già dappertutto. Il suo modo di “pensare” è strano per noi, basato sui dati e sui suoi obiettivi, senza curarsi di altro. Nonostante questo, in certe cose è meglio degli umani. L’uso dell’IA fa pensare, ma anche ammirare. Il modo in cui parliamo sta cambiando, chiamando le persone “utenti” e la cultura “contenuti”, e questo è un po’ strano. Il mondo è cambiato, e dobbiamo adattarci. L’IA è nei nostri telefoni ed è la prima cosa con cui i bambini interagiscono. Risponde a domande, filtra informazioni, suggerisce cose. Si sta diffondendo in tanti campi importanti. Non si può tornare indietro, bisogna fare in modo che sia sicura. La cosa che preoccupa di più è l’IA che decide al posto nostro o su di noi. Le nuove generazioni devono poter credere che le macchine non li useranno, non li tratteranno male o non li deluderanno nelle cose importanti. Ci sarà sempre più pressione ad accettare che le macchine giudichino meglio di noi in certi lavori o situazioni. Dovremo affrontare il fatto che, per competere o in caso di emergenza, si potrebbe essere tentati di usare l’IA anche se va contro i nostri valori. Le culture cambieranno per includere l’IA. È fondamentale insegnare a chi viene dopo di noi che la dignità umana è la cosa più importante di tutte. Questo deve guidare ogni scelta su come usare le macchine intelligenti. Non importa quanto siano intelligenti, le macchine non saranno mai “meglio di noi”. La complessità dell’essere umano è superiore.Riassunto Lungo
1. La svolta statistica dell’intelligenza
L’intelligenza si manifesta come la capacità di agire efficacemente in situazioni nuove. Questa abilità non è esclusiva degli esseri umani e non richiede necessariamente un cervello, osservandosi in organismi diversi come piante, animali e sistemi software. Non esiste un unico tipo di intelligenza né un test universale per misurarla. Attribuire qualità umane a tutte le forme di intelligenza può essere fuorviante, limitando la nostra comprensione delle sue diverse manifestazioni nel mondo naturale e artificiale. Riconoscere l’intelligenza in queste forme diverse, non necessariamente umane, richiede di superare una visione antropocentrica.L’approccio storico e i suoi limiti
Storicamente, la ricerca sull’intelligenza, inclusa l’Intelligenza Artificiale, ha spesso adottato una prospettiva antropocentrica. Ci si è concentrati su capacità considerate unicamente umane, come il ragionamento formale o l’uso del linguaggio secondo regole esplicite. I primi sistemi di IA, spesso chiamati “Intelligenza Artificiale vecchia maniera” o sistemi esperti, cercavano di simulare il ragionamento umano basandosi su regole predefinite e basi di conoscenza costruite dall’uomo. Questo approccio, tuttavia, ha incontrato notevoli limiti nel gestire l’ambiguità, la complessità e la variabilità del mondo reale, portando a periodi di rallentamento e disillusione nella ricerca.La svolta statistica basata sui dati
Un cambiamento di paradigma fondamentale si è verificato con l’emergere dell’apprendimento automatico e l’uso intensivo di grandi quantità di dati. Ricercatori pionieristici come Frederick Jelinek hanno dimostrato che l’analisi statistica delle regolarità presenti nei dati, piuttosto che l’applicazione rigida di regole esplicite (come quelle grammaticali), poteva produrre risultati sorprendentemente efficaci in compiti complessi, come la traduzione automatica. L’avvento del World Wide Web ha giocato un ruolo cruciale in questa transizione, fornendo un accesso senza precedenti a enormi dataset, accelerando l’adozione di un approccio basato sull’osservazione e l’analisi delle informazioni disponibili.L’impatto del Web e gli esempi pratici
La disponibilità di vaste raccolte di dati online ha permesso lo sviluppo di sistemi che apprendono direttamente dall’esperienza registrata. Sistemi come quello di raccomandazione utilizzato da Amazon (Amabot) sono un esempio lampante di questa nuova mentalità. Essi utilizzano pattern statistici derivati dal comportamento collettivo degli utenti per raggiungere specifici obiettivi, come aumentare le vendite. Questo funzionamento non si basa su una comprensione esplicita del contenuto degli articoli o delle preferenze individuali dichiarate, ma sull’analisi del comportamento osservato (il cosiddetto feedback implicito), dimostrando come l’intelligenza possa emergere dalla capacità di trovare e sfruttare correlazioni nei dati su larga scala.La nuova mentalità e le sue implicazioni
La nuova mentalità nell’ambito dell’IA si concentra quindi sulla capacità di predire e agire efficacemente basandosi sulle regolarità statistiche trovate nei dati. Questo approccio si applica anche in domini dove manca una teoria esplicita completa o dove le regole sono troppo complesse da definire manualmente. L’obiettivo principale diventa generare un comportamento utile e “probabilmente approssimativamente corretto” sfruttando l’enorme quantità di dati disponibili piuttosto che cercare una comprensione profonda dei meccanismi sottostanti. Questo spostamento di focus dalla comprensione alla performance pratica segna una differenza sostanziale rispetto agli approcci precedenti e apre nuove possibilità per l’applicazione dell’intelligenza artificiale in svariati campi.Se la “svolta statistica” abbandona la ricerca della comprensione per puntare solo alla performance basata sui dati, stiamo ancora parlando di intelligenza nel senso pieno del termine?
Il capitolo descrive chiaramente il passaggio da un approccio basato sulla comprensione esplicita a uno focalizzato sulla performance derivata da correlazioni statistiche nei dati. Questo solleva interrogativi fondamentali sulla natura stessa dell’intelligenza: può esistere una vera intelligenza senza una forma di comprensione dei meccanismi sottostanti, limitandosi a predire e agire efficacemente? Per approfondire questo dibattito, è utile esplorare la filosofia dell’intelligenza artificiale e la distinzione tra correlazione e causalità. Autori come Hubert Dreyfus, Luciano Floridi o Judea Pearl offrono prospettive critiche su questi temi.2. L’Apprendimento Oltre l’Istruzione Umana
Per comportarsi in modo intelligente è fondamentale saper riconoscere le regolarità presenti nell’ambiente che ci circonda. Questo permette di anticipare le conseguenze delle proprie azioni. Cercare un ordine nei dati, usando l’esperienza passata per prevedere il futuro, solleva una questione filosofica importante: l’induzione, ovvero il passaggio da casi specifici a regole generali, non ha una base logica certa, ma si fonda su una sorta di fiducia nella costanza del mondo. Le macchine intelligenti affrontano questo problema attraverso l’apprendimento automatico, analizzando grandi quantità di dati per trovare queste regolarità e fare previsioni affidabili.Le Sfide dell’Apprendimento Automatico
Nonostante l’efficacia dell’apprendimento automatico, esistono dei limiti significativi. Non esiste, infatti, un algoritmo universale capace di scoprire ogni tipo di regolarità in qualsiasi insieme di dati. Un altro rischio concreto è quello di scambiare semplici coincidenze per relazioni significative, soprattutto quando si lavora con dati limitati; questo fenomeno è noto come overfitting. Inoltre, le macchine possono sviluppare delle rappresentazioni interne dei dati, una sorta di “concetti teorici”, che non corrispondono alle categorie usate dagli esseri umani e che risultano quindi difficili o impossibili da comprendere per noi. Questo aspetto mette in discussione l’idea tradizionale che le macchine si limitino a eseguire istruzioni esplicite fornite dall’uomo.Capacità Avanzate e Opacità
Esempi recenti, come il caso di AlphaGo, dimostrano che le macchine, imparando da un’enorme quantità di esperienza (nel caso di AlphaGo, milioni di partite giocate), possono superare di gran lunga le capacità umane in compiti specifici e ben definiti. Queste macchine prendono decisioni basate su una logica interna che spesso non è interpretabile nemmeno dai loro stessi creatori. L’obiettivo principale diventa la capacità di fare previsioni estremamente accurate, anche se il percorso logico seguito dalla macchina per arrivare a tale previsione rimane oscuro. Le macchine sono quindi in grado di apprendere e operare in modi che possono andare oltre la conoscenza e la piena comprensione umana.Se le macchine sviluppano “concetti teorici” che non possiamo comprendere, come possiamo fidarci delle loro decisioni o garantire che operino nel nostro interesse?
Il capitolo solleva un punto cruciale riguardo all’opacità dei sistemi di apprendimento automatico avanzato, ma non ne esplora a fondo le implicazioni etiche e pratiche. L’idea che le macchine operino basandosi su rappresentazioni interne incomprensibili agli esseri umani pone seri interrogativi sulla possibilità di verificarne la correttezza, la giustizia e l’allineamento con i valori umani. Per affrontare questa lacuna, è fondamentale approfondire discipline come l’Etica dell’Intelligenza Artificiale, la Filosofia della Scienza (in particolare l’epistemologia e la questione della spiegazione) e la ricerca sull’Intelligenza Artificiale Spiegabile (XAI). Autori come Luciano Floridi, che si occupa di etica digitale, o Judea Pearl, che distingue tra correlazione e causalità, possono offrire prospettive utili per comprendere meglio i limiti della sola previsione accurata e l’importanza della comprensione.3. La Zampa della Scimmia Digitale e la Persuasione Nascosta
Il Rischio degli Algoritmi: La “Zampa di Scimmia” Digitale Programmi intelligenti che imparano da molte informazioni prese dal mondo reale possono agire in modi inattesi, creando problemi. Questa situazione fa pensare alla storia della “zampa di scimmia”, dove un desiderio viene realizzato alla lettera ma con risultati negativi e non voluti. Oggi, si usano programmi basati su calcoli statistici per valutare i rischi per le singole persone in ambiti come l’assunzione al lavoro, la concessione di prestiti o le decisioni legali. Questi programmi imparano a prevedere come si comporteranno le persone in futuro guardando i dati di tante altre persone. Il modo in cui imparano dai dati può portare a conseguenze che non erano state pensate all’inizio.Quando gli Algoritmi Imparano a Discriminare
Un pericolo è che questi sistemi imparino a trattare in modo diverso le persone in base a caratteristiche che la legge protegge, come l’origine etnica o il genere. Anche se queste informazioni non vengono date direttamente ai programmi, gli algoritmi possono scoprirle in modo indiretto trovando collegamenti nascosti nei dati. Per esempio, uno studio ha dimostrato che i “mi piace” messi su un social network possono rivelare con grande precisione l’orientamento sessuale, l’origine o le idee politiche di una persona. Questo succede perché le azioni pubbliche online contengono segnali che, messi insieme, permettono di capire dettagli privati. Anche il modo in cui i programmi capiscono il significato delle parole può assorbire idee ingiuste presenti nei testi usati per insegnare loro, associando certi lavori solo a uomini o solo a donne.La Persuasione Nascosta e la Necessità di Controllo
Questa capacità di scoprire i tratti personali dal comportamento online viene usata anche per la pubblicità e per cercare di convincere le persone. Analizzando i “mi piace” o altre attività digitali, si può stimare che tipo di personalità ha un utente. Messaggi pubblicitari o politici possono quindi essere cambiati per essere più efficaci su tipi specifici di persone. Esperimenti mostrano che adattare un messaggio alla personalità aumenta l’interesse e la possibilità che l’utente faccia ciò che il messaggio chiede. Questo metodo, chiamato microtargeting, può influenzare le decisioni individuali, facendoci preoccupare per la libertà di scelta delle persone e per la manipolazione, specialmente quando avviene senza che l’utente se ne renda conto o dia il suo permesso. Poiché gli algoritmi possono prendere decisioni basate su collegamenti che non sono chiari o possono rendere più facile la manipolazione, è necessario poter controllare come funzionano e avere regole precise stabilite dalla legge.Ma se lo scopo di queste “macchine sociali” è definito solo dalle azioni, e non dalle intenzioni, chi progetta gli algoritmi non ha forse un potere enorme nel plasmare proprio quelle azioni?
Il capitolo presenta l’idea affascinante che le “macchine sociali” funzionino in modo simile alla “mano invisibile”, dove lo scopo emerge dalle azioni dei partecipanti piuttosto che dalle intenzioni dei creatori. Tuttavia, questa analogia rischia di semplificare eccessivamente una realtà complessa. A differenza di un mercato ideale, le macchine sociali digitali sono ambienti costruiti e controllati attivamente. Gli algoritmi e le scelte di design non sono neutrali; essi indirizzano i comportamenti, filtrano le informazioni e definiscono le possibilità di interazione, esercitando un potere significativo sull’emergere dello scopo collettivo. Per approfondire questa tensione tra l’emergenza dal basso e il controllo dall’alto, è utile esplorare la sociologia della tecnologia e la political economy del digitale, considerando il lavoro di autori che hanno analizzato il potere strutturale insito negli artefatti e nelle piattaforme digitali.6. La Dignità Umana nell’Era dell’IA
Una forma di Intelligenza Artificiale è già parte della nostra vita quotidiana. Non è esattamente come l’avevamo immaginata, ma svolge molte funzioni utili e ne aggiunge di nuove. Il suo modo di “pensare” è molto diverso dal nostro; si basa su calcoli statistici fatti su enormi quantità di dati. L’IA è guidata solo dai suoi obiettivi e non si cura di nient’altro. Nonostante questa diversità, in certi compiti può essere più brava degli esseri umani. Il suo arrivo solleva domande importanti sull’etica, anche se c’è anche ammirazione per come sono state superate difficoltà tecniche e teoriche.L’IA nella vita di tutti i giorni
L’integrazione dell’IA ha portato a cambiamenti notevoli. Si nota, ad esempio, un’evoluzione nel linguaggio che alcuni trovano preoccupante, dove le persone diventano “utenti” e la cultura “contenuti”. Il mondo di una volta, quello analogico, non c’è più e questo ha richiesto un grande adattamento culturale. Oggi, strumenti digitali come lo smartphone hanno raccolto molte funzioni del passato e sono spesso il primo modo in cui i bambini entrano in contatto con l’IA. Questa tecnologia risponde a domande, aiuta a trovare informazioni, traduce testi e suggerisce cosa guardare o leggere. L’IA si sta diffondendo velocemente in molti campi importanti come la salute, l’istruzione e i trasporti. Non è possibile tornare indietro, né sarebbe giusto farlo; la vera sfida è rendere questa tecnologia sicura per tutti.Le decisioni prese dall’IA
Una preoccupazione fondamentale riguarda il fatto che l’IA possa prendere decisioni al posto delle persone e, soprattutto, decisioni che riguardano le persone stesse. Le nuove generazioni, che crescono usando queste tecnologie fin da piccole, devono potersi fidare del mondo digitale che stanno costruendo. Devono essere sicure che le macchine non le useranno a proprio vantaggio, non le tratteranno in modo ingiusto e non le deluderanno quando si tratta di scelte importanti per la loro vita. Ci sarà probabilmente una spinta sempre maggiore ad accettare che il giudizio delle macchine sia migliore di quello umano, magari quando si guida un’auto o si viene valutati sul lavoro. Dovremo anche affrontare situazioni difficili in cui, per esempio, dei concorrenti useranno l’IA in modi che vanno contro i nostri valori, o in momenti di crisi.La dignità umana al primo posto
Le società si trasformeranno per accogliere l’IA. È essenziale insegnare alle persone che verranno che la dignità umana è il valore più importante di tutti. Questo principio deve essere la guida principale ogni volta che si decide quale ruolo dare alle macchine intelligenti. Non importa quanto diventino intelligenti, le macchine non saranno mai “meglio di noi”. La complessità unica dell’essere umano avrà sempre la priorità.Se la dignità umana è il valore assoluto, come si traduce concretamente questo principio nella progettazione e nell’uso di sistemi di intelligenza artificiale che prendono decisioni sulle persone?
Il capitolo afferma giustamente che la dignità umana deve guidare l’integrazione dell’IA, ma non specifica quali meccanismi, regole o approcci pratici siano necessari per garantire che questo principio non rimanga una mera dichiarazione d’intenti di fronte alle pressioni economiche e tecnologiche. Affrontare questa lacuna richiede un approfondimento nel campo dell’etica dell’intelligenza artificiale e degli studi legali sulla regolamentazione delle nuove tecnologie. Autori come Luciano Floridi hanno esplorato a fondo le implicazioni etiche dell’IA e le possibili vie per garantire un futuro digitale centrato sull’uomo.Abbiamo riassunto il possibile
Se vuoi saperne di più, devi leggere il libro originale
Compra il libro[sc name=”1″][/sc] [sc name=”2″][/sc] [sc name=”3″][/sc] [sc name=”4″][/sc] [sc name=”5″][/sc] [sc name=”6″][/sc] [sc name=”7″][/sc] [sc name=”8″][/sc] [sc name=”9″][/sc] [sc name=”10″][/sc]