1X
🔊 100%
Contenuti del libro
Informazioni
ti porta in un viaggio super interessante che parte dal deserto del New Mexico, dove nel 1991 è nato arXiv, il primo archivio di preprint scientifici grazie a Paul Ginsparg. Questo è stato l’inizio di una rivoluzione: passare da banche dati scientifiche costosissime e chiuse, accessibili solo a pochi esperti, a un sistema di accesso aperto dove la conoscenza è libera per tutti. Il libro esplora come questa idea si è evoluta, passando per iniziative chiave come la Budapest Open Access Initiative (BOAI) del 2002, che ha definito la “via verde” e la “via d’oro” per l’Open Access. Scoprirai come documenti fondamentali come le Dichiarazioni di Budapest, Bethesda e Berlino hanno plasmato il movimento, definendo la conoscenza scientifica come un bene comune, un “common”, non solo un bene pubblico, ispirandosi alla Teoria dei Commons. Si parla anche di luoghi come Los Alamos, Cornell University, e di progetti enormi come il Progetto Genoma Umano, che ha reso i suoi dati liberamente accessibili. Il libro ti fa capire come l’accesso aperto non sia solo una questione tecnica, ma una scelta politica e culturale che sfida il modello basato sul mercato, specialmente in settori vitali come la medicina (vedi PubMed/MEDLINE). È una storia che mostra come la comunicazione scientifica e la valutazione della ricerca stiano cambiando, e come la tecnologia, dalle vecchie banche dati con logica booleana all’era delle reti, stia ridefinendo cosa significa “sapere” e chi può accedervi. È un libro che ti fa riflettere su chi possiede la conoscenza e su quanto sia importante renderla disponibile a tutti per il progresso globale.Riassunto Breve
La trasformazione dell’accesso al sapere scientifico inizia con la creazione di archivi online. Nel 1991, a Los Alamos, Paul Ginsparg sviluppa arXiv per i fisici, permettendo di condividere gratuitamente preprint via Internet. Questo sistema si contrappone ai vecchi database scientifici, che erano costosi, richiedevano abbonamenti e offrivano solo riferimenti, non i testi completi. L’auto-archiviazione (self-archiving) rende i lavori immediatamente disponibili, velocizzando la comunicazione scientifica. Questa pratica si basa sullo scambio informale di preprint già diffuso nella fisica. Il luogo di nascita, Los Alamos, unisce segretezza e creatività , contribuendo a un modello basato sulla condivisione comunitaria. arXiv, ora a Cornell, dimostra che la qualità può essere valutata dalla comunità stessa. Il Movimento Open Access si formalizza con la Budapest Open Access Initiative (BOAI) nel 2002, vista come una “carta costituzionale”. Si basa su esperienze come arXiv e altre. L’obiettivo è rendere la letteratura scientifica liberamente disponibile online per tutti, accelerando la ricerca e diffondendo la conoscenza. La BOAI propone la “via verde” (archivi/repository) e la “via d’oro” (riviste open access). Si vuole superare il sistema a pagamento, valorizzando l’impatto della ricerca e rendendo accessibile la ricerca finanziata pubblicamente. Questo rappresenta un cambiamento politico e culturale. Documenti successivi come le Dichiarazioni di Budapest, Bethesda e Berlino rafforzano questi principi. Budapest vede l’accesso aperto come un bene pubblico. Berlino definisce i diritti di accesso come gratuiti e irrevocabili, andando oltre il copyright e promuovendo la conservazione. Introduce il concetto di “common” (bene comune), legato alla Teoria dei Commons di Elinor Ostrom, dove la conoscenza su internet è una risorsa non esauribile. Bethesda si concentra sulla medicina, chiedendo accesso libero alle pubblicazioni biomediche e deposito in archivi come PubMed Central. La gratuità di PubMed (dal 1997) è un esempio chiave, trattando l’informazione sanitaria come investimento pubblico. Questo approccio sfida l’idea che beni come salute, istruzione e conoscenza debbano essere solo merci regolate dal mercato. L’accesso aperto li porta fuori dal mercato per favorire la collaborazione globale. Alla fine del millennio, i database scientifici diventano accessibili a tutti, una scelta politica supportata da figure come Al Gore, riconoscendo la conoscenza medica come bene comune (es. trasformazione MEDLINE in PubMed). Il Progetto Genoma Umano è un altro caso dove i dati sono stati resi liberamente accessibili, nonostante spinte commerciali, considerati patrimonio dell’umanità . I vecchi database (online classico) erano costosi e difficili da usare (logica booleana), spesso solo bibliografici. La storia della famiglia Odone illustra le difficoltà . Con il web, l’accesso diventa più semplice con interfacce intuitive (PubMed Plus). Tuttavia, coesistono ancora database proprietari e pubblici, riflettendo visioni diverse sul rapporto tra scienza, mercato e società . L’accesso ai database in Italia negli anni Ottanta era limitato, quasi mitico. Lyotard vede i database come l’immagine centrale del sapere contemporaneo. L’informatica trasforma il sapere, privilegiando ciò che è quantificabile. Questo lega la ricerca a ingenti investimenti economici, rendendola un “gioco dei ricchi” e creando disuguaglianze. Il principio di efficienza sostituisce quello di verità . Tuttavia, l’informatizzazione offre anche la possibilità di una diffusione democratica del sapere. Eventi come l’11 settembre mostrano la fragilità del sapere digitale e la necessità di considerare i saperi come situati, richiedendo nuove competenze per navigare un mondo complesso.Riassunto Lungo
1. La nascita dell’accesso aperto nel deserto del New Mexico
La trasformazione delle banche dati scientifiche da risorse costose e chiuse a sistemi ad accesso aperto inizia con la creazione del primo repository nel 1991 a Los Alamos, New Mexico. Il fisico Paul Ginsparg sviluppa questo archivio, chiamato inizialmente “l’archivio di Los Alamos” o “e-print Archive”, per raccogliere e distribuire preprint, articoli scientifici completi ma non ancora pubblicati. Questo sistema si distingue dalle banche dati esistenti, che erano costose, richiedevano abbonamenti e offrivano solo riferimenti bibliografici, non i testi completi. L’archivio di Ginsparg permette agli autori di caricare i propri lavori direttamente online (self-archiving), rendendoli immediatamente disponibili ai lettori tramite Internet. Questo elimina i tempi e i costi della stampa tradizionale e velocizza la comunicazione scientifica.Le scelte alla base del progetto
La scelta del preprint come tipologia documentaria principale si basa su una pratica già diffusa nella comunità dei fisici, che scambiavano versioni preliminari dei lavori per confronto e verifica. Il repository online estende questa pratica, rendendo la comunicazione più rapida e accessibile a una comunità più ampia. Il luogo di nascita, Los Alamos, ha un ruolo significativo. È un sito con una storia complessa, legata al Progetto Manhattan e caratterizzata da un mix di segretezza e creatività , scienza e diverse culture. Questo ambiente contribuisce a un modello di comunicazione scientifica alternativo, basato sulla condivisione e la fiducia all’interno della comunità , piuttosto che sul controllo editoriale o governativo.L’evoluzione e l’impatto
L’evoluzione dell’archivio, noto oggi come arXiv, e il suo trasferimento a Cornell University, riflettono i cambiamenti nella politica scientifica e la crescente accettazione del modello open access. arXiv è diventato un punto di riferimento fondamentale per la pubblicazione scientifica. Ha iniziato a influenzare anche i metodi con cui la ricerca viene valutata. Questo dimostra che la qualità e l’autorevolezza possono essere stabilite dalla comunità scientifica stessa. La lettura e la citazione da parte dei pari diventano i criteri principali, al di fuori dei tradizionali canali editoriali.Ma davvero la ‘comunità scientifica stessa’ è sempre il giudice migliore della qualità , o il capitolo dipinge un quadro troppo idilliaco dell’accesso aperto?
Il capitolo, pur descrivendo efficacemente la genesi di arXiv, semplifica eccessivamente il complesso panorama della comunicazione scientifica e, soprattutto, della valutazione della ricerca. Presentare la validazione da parte della comunità come un’alternativa diretta e quasi superiore al controllo editoriale tradizionale ignora decenni di dibattiti e pratiche consolidate, nonché le criticità insite nei meccanismi di valutazione basati unicamente su lettura e citazione. Per comprendere appieno le sfide e le controversie legate all’accesso aperto e alla valutazione della ricerca, è utile approfondire la sociologia della scienza, gli studi sulla comunicazione scientifica e le diverse prospettive sulla peer review e sui sistemi di metriche.2. La Carta Fondamentale dell’Accesso Aperto
La Budapest Open Access Initiative (BOAI), nata nel 2002, è come una carta fondamentale per il Movimento Open Access. L’idea è quella di condividere liberamente la conoscenza scientifica. Questa iniziativa si basa su esperienze positive già esistenti, come archivi online per articoli scientifici nati negli anni ’90 in fisica (arXiv), scienze cognitive (CogPrints) ed economia (REpEc). Queste esperienze hanno dimostrato che rendere i lavori accessibili a tutti funziona e porta molti vantaggi. L’iniziativa di Budapest unisce la lunga tradizione degli scienziati che hanno sempre condiviso i loro risultati gratuitamente con le nuove grandi possibilità offerte da Internet. L’obiettivo principale è semplice: rendere tutta la letteratura scientifica disponibile online per chiunque, senza dover pagare o avere permessi speciali. Fare questo permette alla ricerca di andare avanti più velocemente, migliora l’istruzione per tutti e aiuta la conoscenza a diffondersi in ogni parte del mondo. Per raggiungere questo obiettivo, la BOAI propone due modi principali: la “via verde”, che significa creare archivi online dove gli autori possono mettere i loro lavori, e la “via d’oro”, che consiste nel pubblicare direttamente su riviste già ad accesso aperto o nel trasformare riviste che prima chiedevano un abbonamento in riviste ad accesso aperto.Un cambiamento per la ricerca e la societÃ
Questo Movimento Open Access vuole superare il vecchio sistema in cui si pagano abbonamenti molto costosi per accedere agli articoli. Propone invece un modello diverso, dove il valore di una ricerca non si misura da quanto costa leggerla, ma da quanto è utile e da come aiuta a far circolare le idee e le scoperte sia tra gli scienziati che fuori. Questo è particolarmente importante perché molta ricerca è pagata con soldi pubblici, e quindi è giusto che i cittadini che finanziano questa ricerca possano poi accedervi liberamente. Tutto questo rappresenta un grande cambiamento non solo nel modo di pubblicare, ma anche nella cultura e nelle politiche legate alla scienza, coinvolgendo ricercatori, università , case editrici e il pubblico in generale.Se l’obiettivo è rendere la letteratura scientifica disponibile online “senza dover pagare”, chi sostiene concretamente i costi della pubblicazione e della gestione?
Il capitolo, pur descrivendo l’obiettivo dell’accesso libero, non approfondisce a sufficienza le implicazioni economiche del modello proposto. L’idea che la conoscenza sia disponibile ‘senza dover pagare’ per il lettore è fondamentale, ma il costo della pubblicazione, della revisione e della gestione non scompare; si sposta. Comprendere chi sostiene questi costi (spesso gli autori tramite le loro istituzioni o finanziatori, attraverso le cosiddette ‘Article Processing Charges’) è cruciale per valutare la sostenibilità e l’equità del sistema. Per approfondire questi aspetti, è utile esplorare l’economia dell’editoria accademica e le diverse strategie di finanziamento dell’Open Access. Autori come Peter Suber hanno analizzato in dettaglio queste dinamiche.3. Sapere aperto: un bene oltre ogni confine
Il movimento per l’Accesso Aperto è cresciuto grazie a documenti fondamentali come le Dichiarazioni di Budapest, Bethesda e Berlino. La Dichiarazione di Budapest ha presentato l’accesso aperto come un bene per tutti, nato dall’incontro tra la tradizione scientifica e le nuove tecnologie di rete. Ha chiesto un impegno comune per eliminare gli ostacoli e permettere alla ricerca e all’istruzione di diffondersi liberamente nel mondo. Il termine “free” usato qui intende sia libertà che gratuità .I Principi dell’Accesso Aperto
La Dichiarazione di Berlino ha definito i diritti di accesso come gratuiti, definitivi e validi ovunque, superando i limiti del copyright tradizionale. Ha sottolineato quanto sia importante conservare i contenuti nel tempo. Ha cambiato il significato di “pubblicazione” in “contributo” per includere i nuovi formati digitali. Ha promosso l’idea di “common” (bene comune) al posto di “public” (pubblico), collegandosi alla Teoria dei Commons.La Conoscenza come Bene Comune
Questa teoria, sviluppata da Elinor Ostrom, considera la conoscenza e i flussi di informazioni su internet come risorse comuni che non si esauriscono usandole. La vera sfida non è la mancanza, ma il blocco se i contenuti non vengono usati o arricchiti. Per questo, è fondamentale riconoscere e proteggere i contributi in accesso aperto. Un incontro di esperti da diverse discipline ha esplorato la conoscenza come bene comune, portando a nuove prospettive sulla ricerca e sull’impegno civile. L’idea di “common” si lega anche a luoghi fisici storici che sono stati spazi condivisi.L’Accesso Aperto in Medicina
La Dichiarazione di Bethesda si è concentrata sul campo medico. Ha stabilito che le pubblicazioni biomediche devono essere aperte, con accesso libero e depositate in archivi come PubMed Central. Ha mantenuto il sistema di revisione tra esperti. La novità più importante è stata eliminare i costi per chi usa le informazioni, migliorando la qualità del sapere medico condiviso a livello globale. Rendere gratuita la banca dati PubMed nel 1997 è stato un passo cruciale, trattando le informazioni sulla salute come un investimento pubblico per il benessere mondiale, non come qualcosa da vendere.Sapere e Beni Essenziali
Questo approccio mette in discussione l’idea che tutto debba essere gestito dal mercato. Beni come la salute, l’istruzione e la conoscenza perdono valore se considerati solo merci. L’accesso aperto, soprattutto in settori vitali come la medicina, è una scelta precisa per portare questi beni fuori dalla logica di mercato e renderli disponibili a tutti, favorendo la collaborazione internazionale e il progresso del sapere.[/membership]Ma se l’accesso aperto è la soluzione, quali sono i costi e le complessità che il capitolo ignora?
Il capitolo, pur delineando con entusiasmo i principi e i benefici dell’accesso aperto come bene comune, sorvola sulle significative sfide pratiche ed economiche legate alla sua attuazione su larga scala. Non affronta, ad esempio, le complesse dinamiche del mercato editoriale accademico, i dibattiti sui modelli di finanziamento alternativi (come gli Article Processing Charges e le loro implicazioni) o le resistenze strutturali e culturali che ancora ostacolano una transizione completa. Per acquisire una visione più equilibrata, è fondamentale esplorare l’economia dell’informazione e le politiche della scienza, leggendo autori che analizzano le criticità e le tensioni nella gestione della conoscenza in un contesto globale e digitalizzato.4. La Mappa del Sapere Aperto
Prima dell’arrivo del web, le banche dati online erano costose e non facili da usare. Per poter cercare le informazioni, servivano competenze specifiche, come saper usare la logica booleana e comandi particolari. C’erano principalmente due tipi di banche dati: quelle bibliografiche, che ti davano solo i riferimenti dei documenti, e quelle fattuali, che invece offrivano i dati diretti. La storia della famiglia Odone, che ha dovuto imparare a usare MEDLINE per cercare una cura per il figlio, mostra bene quanto fosse complicato l’accesso alle informazioni in quel periodo.L’arrivo del Web e l’accesso semplificato
Con la diffusione di internet e la diminuzione dei costi della tecnologia, l’accesso alle informazioni è diventato molto più semplice e alla portata di più persone. Questo cambiamento ha permesso di creare programmi e interfacce più intuitive, come PubMed Plus, che rendono la ricerca facile anche per chi non ha una preparazione specifica nel campo.La scelta politica dell’Open Access
Alla fine degli anni Novanta, si è verificato un passaggio fondamentale: le banche dati scientifiche, che prima erano a pagamento e riservate a pochi, sono diventate disponibili gratuitamente per tutti. Questo movimento, chiamato Open Access, è stato una decisione politica importante, sostenuta da figure come Al Gore e Bill Clinton. Riconosce che la conoscenza, specialmente quella legata alla medicina, è un bene che appartiene a tutta la comunità . La trasformazione di MEDLINE in PubMed è un esempio chiave di questo cambiamento.Il Progetto Genoma Umano: un caso esemplare
Il Progetto Genoma Umano (HGP), iniziato nel 1990, è un caso molto significativo di questa apertura. Il suo scopo era decifrare l’intero codice genetico umano. Questo progetto ha promosso una grande collaborazione a livello internazionale, coinvolgendo sia enti pubblici che privati. Tuttavia, ha anche sollevato importanti questioni etiche su chi dovesse possedere i dati genetici scoperti. Nonostante le pressioni commerciali per privatizzare queste informazioni, si è deciso di rendere i dati dell’HGP liberamente accessibili. Questa scelta sottolinea l’idea che una conoscenza così fondamentale appartenga all’umanità intera, non a singole entità private.Banche dati pubbliche e private oggi
Oggi, convivono ancora diverse realtà nel mondo delle banche dati. Esistono molte banche dati private, gestite da editori o società scientifiche che operano seguendo le logiche del mercato, richiedendo un pagamento per l’accesso. Queste si affiancano alle banche dati rese pubbliche, spesso da istituzioni governative o universitarie, che danno priorità alla libera diffusione della conoscenza, vista come un servizio per la collettività . La distinzione tra modello proprietario e Open Access riflette visioni differenti sul ruolo della scienza, del mercato e della società .Se l’Open Access è stata una “scelta politica” così chiara e definitiva, perché la conoscenza scientifica è ancora in gran parte chiusa dietro costosi paywall?
Il capitolo presenta l’Open Access come una decisione politica cruciale per rendere la conoscenza un bene pubblico. Tuttavia, non approfondisce sufficientemente le ragioni per cui, nonostante questa presunta svolta, una vasta porzione della letteratura scientifica rimane accessibile solo tramite abbonamenti onerosi, gestiti da editori privati. Per comprendere questa apparente contraddizione e le sfide persistenti del movimento Open Access, sarebbe utile esplorare la storia dell’editoria accademica, le dinamiche economiche del settore e le complesse questioni legali e politiche legate alla proprietà intellettuale. Approfondire il pensiero di autori come Peter Suber può fornire una prospettiva più completa sulle sfide e le diverse strategie per l’accesso aperto.Capitolo 5: La Conoscenza nell’Era delle Reti
Accesso alle banche dati nell’Italia dei primi anni Ottanta era limitato a pochi, rendendo queste tecnologie una realtà distante, quasi leggendaria, raccontata da chi aveva esperienza diretta negli Stati Uniti. Figure come Paolo Bisogno riportavano l’importanza e l’emozione legate a questi strumenti, che non erano solo tecnologici ma diventavano allegorie della contemporaneità . Jean-François Lyotard, nel suo lavoro sulla condizione postmoderna, identifica le banche dati come l’immagine centrale del sapere nell’età contemporanea, non come semplice metafora, ma come infrastruttura tecnologica reale, diffusa negli Stati Uniti. Questo divario iniziale evidenziava già come la disponibilità e la comprensione delle nuove tecnologie stessero ridisegnando la mappa del sapere a livello globale. Le testimonianze di chi aveva visto queste innovazioni in azione preannunciavano un futuro dove l’informazione digitale avrebbe giocato un ruolo centrale.La trasformazione del sapere
La trasformazione tecnologica, in particolare l’informatica e le banche dati, incide profondamente sulla natura del sapere stesso. La conoscenza tende a diventare operativa solo se traducibile in informazioni quantificabili, che possono essere elaborate e gestite dai sistemi informatici. Questo porta inevitabilmente all’abbandono di saperi che non si prestano a questa traduzione e condiziona pesantemente la direzione della ricerca futura. L’egemonia dell’informatica impone una logica basata su enunciati accettati come “sapere” solo se conformi a certi criteri computazionali, legando strettamente la ricerca e la sua validazione a ingenti investimenti economici. La scienza si configura così come un “gioco dei ricchi”, dove la capacità finanziaria di un’istituzione o di un paese influenza direttamente la possibilità di produrre, accedere e validare la conoscenza.Potere, accesso e valore
Questa concentrazione del sapere digitale, localizzato principalmente negli Stati Uniti e regolamentato dalle leggi del mercato e dalle dinamiche di potere esistenti, genera profitti significativi ma al contempo crea profonde discriminazioni. Esclude di fatto chi non possiede i mezzi economici o tecnologici per accedervi, sostituendo il principio tradizionale di verità con quello di efficienza e performatività , ovvero la capacità di produrre risultati utili e misurabili. Tuttavia, questa stessa diffusione dell’informatica apre anche la possibilità di una diffusione più democratica del sapere. Permette di immaginare scenari di libero accesso alle banche dati, promuovendo principi di giustizia sociale e stimolando un più ampio desiderio di esplorare l’ignoto. Questa tensione tra concentrazione di potere e potenziale democratico è una caratteristica centrale dell’era digitale.La fragilità e i saperi situati
Eventi successivi, come quelli verificatisi l’11 settembre, hanno evidenziato l’inaspettata fragilità del sapere digitale e delle infrastrutture che lo supportano. Questi momenti critici hanno mostrato che l’informazione digitale non è invulnerabile e può essere persa o compromessa. È emersa con forza la necessità di considerare la conoscenza non più come un tutto universale e monolitico, ma piuttosto come un insieme di “saperi situati”, legati a contesti specifici, prospettive e comunità . Navigare un mondo sempre più complesso e interconnesso richiede pertanto lo sviluppo di nuove competenze, che vanno oltre la semplice capacità di accedere alle informazioni. È fondamentale saper valutare criticamente le fonti, collegare idee da ambiti diversi e applicare la conoscenza in modi pertinenti alle specifiche situazioni.Ma è davvero la scienza oggi solo un “gioco dei ricchi”, come suggerisce il capitolo?
Il capitolo presenta una visione molto deterministica del rapporto tra finanza e produzione di sapere, legando la validazione della ricerca quasi esclusivamente alla capacità di investimento. Questa prospettiva rischia di trascurare i complessi processi di peer review, la costruzione del consenso scientifico all’interno delle comunità accademiche e il ruolo delle istituzioni pubbliche e delle fondazioni non-profit nel finanziare e validare la ricerca. Per comprendere meglio queste dinamiche, sarebbe utile approfondire la sociologia della scienza, l’epistemologia contemporanea e l’economia della ricerca. Autori come Robert Merton, Thomas Kuhn o Bruno Latour offrono prospettive diverse su come il sapere scientifico viene prodotto, validato e diffuso, che potrebbero arricchire l’analisi proposta nel capitolo.Abbiamo riassunto il possibile
Se vuoi saperne di più, devi leggere il libro originale
Compra il libro[sc name=”1″][/sc] [sc name=”2″][/sc] [sc name=”3″][/sc] [sc name=”4″][/sc] [sc name=”5″][/sc] [sc name=”6″][/sc] [sc name=”7″][/sc] [sc name=”8″][/sc] [sc name=”9″][/sc] [sc name=”10″][/sc]