L’attendibilità di Wikipedia e il futuro delle enciclopedie tradizionali

0

Non è un segreto che la copertura di Wikipedia sia molto ampia, completa e approfondita per le voci che hanno a che fare con gli interessi della base dei wikipediani, giovani computer geek, tanto per semplificare, mentre lo sia parecchio di meno per altre. Ad esempio le voci tecnologiche e scientifiche, almeno quelle inglesi, sono davvero complete e aggiornatissime, uno strumento di lavoro per chiunque operi in quei settori.

In un recente post Scarseggiano i redattori, Wikipedia è in declino? mi sono occupato di una delle principali sfide che l’enciclopedia online si trova ad affrontare (redattori in calo, barriere all’ingresso, regole interne troppo complesse). Ho di proposito tralasciato, per motivi di spazio, la pur spinosa questione dei contenuti: uno sterminato corpus di voci, squilibrato nell’ampiezza e profondità degli argomenti, con una attendibilità che a volte lascia a desiderare.

In fondo si tratta del solito problema degli UCG, gli user generated content. La gente scrive di ciò che conosce, la interessa, la diverte, le piace, non necessariamente di ciò che serve alla comunità. E hai voglia a inserire voci stub (abbozzi da completare) nel tentativo di indirizzare l’energia dei wikipediani verso zone poco battute della loro enciclopedia. Sono in tanti a preferire l’editing della voce Lady Gaga (quasi 60.000 battute, 260 note, una media di 5 edit al giorno – nella versione inglese) piuttosto che quella del Codex Ambrosianus 435 (voce stub, meno di 1.000 battute, neanche 10 edit in 4 anni – sempre nella versione inglese)… E senza possibilità di potatura, l’albero cresce incontrollato.

D’altra parte il verso della medaglia rappresenta anche una delle maggiori qualità di Wikipedia, cioè proprio la sua eccezionale copertura degli argomenti di attualità, di costume, di cultura popolare (e ci metto la musica, il cinema, la tivu, il fumetto, ecc.). Bisogna ammettere che sono il bengodi di qualsiasi studioso della società contemporanea, che consentono di avere informazioni aggiornate quasi in tempo reale (fin troppo) e una granularità ai limiti del pedante, entrambi aspetti inarrivabili per una enciclopedia tradizionale, perché i complessi meccanismi di revisione e peer reviewing dei contenuti (che garantiscono la qualità) hanno tempistiche molto più diluite, e perché i piani editoriali (che garantiscono uniformità ed equilibrio nei contenuti) offrono margini limitati nell’ampliamento delle voci. Che poi, diciamocelo, molte di quelle di Wikipedia non sono di fatto enciclopediche (piuttosto, non sarà sbagliato definirla un’enciclopedia?).

Ma veniamo a una questione che ritengo cruciale. Premetto che io sono da sempre un fautore dell’open source, della cultura libera, delle licenze aperte, della condivisione della conoscenza. Wikipedia è qualcosa di eccezionale, un vero e proprio bene comune dell’umanità. Ma Wikipedia si è anche trasformata in un mostro con un disastroso effetto collaterale: ha messo in crisi il modello tradizionale delle istituzioni enciclopediche, fondato da sempre sulla contribuzione di esperti acclarati nel proprio settore. E pagati, ça va sans dire

L’avanzata devastante, e per molti versi inaspettata, dell’enciclopedia libera (ma soprattutto gratuita) da tempo ha drenato ricavi (chi compra più un’enciclopedia cartacea? chi osa più abbonarsi a un’enciclopedia on line a pagamento?) alla vecchia guardia, costringendola ad aperture, o presunte tali, al crowdsourced che non erano nel proprio DNA (vedi la defunta Microsoft Encarta, la Britannica, la Treccani). E senza effetti concreti.

Sia ben chiaro, questo problema non è prerogativa delle sole enciclopedie, ma riguarda l’intera industria culturale dei contenuti, dai libri alla musica, dal cinema ai giornali e alle riviste.

E qui, parlando di cultura del gratis e del fai da te, e dei pericoli dei tanto osannati user generated content, ci facciamo venire in soccorso dal “maestro”, da colui che da anni e con toni cassandreschi ci ammonisce contro i pericoli del dilettantismo in rete. Andrew Keen, autore dell’imprescindibile The Cult of the Amateur (2008), in italiano tradotto con un originale quanto opinabile Dilettanti.com, di cui salviamo invece il sottotitolo:

Come la rivoluzione del Web 2.0 sta uccidendo la nostra cultura e distruggendo la nostra economia.

Keen, tanto per inquadrare il personaggio, è stato ribattezzato dal francese Liberation “L’Anticristo della Silicon Valley”, dall’inglese The Guardian “il Martin Lutero della controriforma di Internet”, e il suo libro è stato definito dall’americano CNet “l’ultimo j’accuse”.

Keen si autodefinisce uno snob. Afferma di trovare più affidabili i giornalisti con nome e cognome del New York Times piuttosto che anonimi blogger, i cronisti della National Public Radio piuttosto che sprovveduti podcaster, di preferire la musica di Bob Dylan a quella di tanti dilettanti che si trasmettono in proprio.

Detto ciò, e fatte le dovute tare, resta il grido d’allarme di Keen, che preconizza un futuro devastante per i mezzi di comunicazione user generated:

Pur riconoscendo che non tutti i contenuti amatoriali user generated sono privi di valore, di talento o di merito, pur ammettendo che i media principali sono tutt’altro che perfetti, continuo a credere che sia necessario parlare delle conseguenze dell’uso degli attuali mezzi di comunicazione user generated prima che sia troppo tardi.

Tornando a Wikipedia, ecco cosa scrive Keen nel suo libro:

A differenza dei redattori delle enciclopedie professionali come la Britannica, i collaboratori volontari di Wikipedia restano anonimi. Questi redattori improvvisati rieditano il lavoro di altri redattori improvvisati, definendo, ridefinendo e poi ridefinendo ancora la realtà, a volte anche centinaia di volte in un solo giorno.

Una descrizione spietata, che gli è valsa attacchi al vetriolo, ma che purtroppo riflette la realtà. Keen cita la Britannica. Chi non ha mai sentito parlare del fatto che l’affidabilità di Wikipedia sarebbe almeno pari, se non superiore a quella della Britannica? Tutto scaturì da uno studio della rivista Nature, citatissimo da chiunque voglia portare acqua al mulino di Wikipedia (come se ne avesse bisogno), risalente alla fine del 2005. Nature aveva rilevato la percentuale di “errori gravi” in una selezione di 42 voci identiche (si fa per dire) prese dalle due enciclopedie, e aveva sentenziato che la qualità di Wikipedia era paragonabile a quella della Britannica.

Basta consultare i documenti pubblici disponibili per rendersi conto che le cose sono un po’ diverse da quanto il passaparola mediatico e popolare ha tramandato. Magari ci ritornerò sopra. Dico solo che non ha più senso continuare a sbandierare quella vecchia ricerca (e anche l’ottimo Arturo Zampaglione è caduto in trappola nell’articolo di Repubblica cui ho fatto riferimento nel mio post sopra citato), che chissà per quale ragione è divenuta una specie di meme della nostra cultura. E chissà quanta parte della crisi della Britannica sia da ascrivere a quello studio e alla diffusione virale delle affrettate conclusioni che ne scaturirono.

L’Enciclopaedia Britannica, si sa, ha cessato le pubblicazioni a stampa nella primavera del 2012. Forse non fu colpa di Wikipedia. Di sicuro Wikipedia ha accelerato un processo già avviato ma, sia ben chiaro, il problema non è la crisi delle edizioni a stampa. Il futuro va in direzione dell’online, e non ha senso opporvisi ma piuttosto bisogna forgiarlo a nostro vantaggio cercando di renderlo più affidabile. Chiediamoci dunque per quanto tempo ancora gli istituti o le aziende che realizzano le enciclopedie potranno continuare a farlo.

Il punto è proprio questo. Mi chiedo: la cultura dei dilettanti, degli enciclopedisti a tempo perso, dei cultori del copia e incolla, dei riscrittori indefessi sta sottraendo risorse a un settore importante per la nostra civiltà? Da quali fonti attingeranno quegli stessi quando i veri esperti, non più pagati per il loro lavoro di sintesi della conoscenza, avranno appeso la penna al chiodo?

Oppure tutto ciò è solo un falso problema, e il crowdsourcing, in qualche modo, sopperirà a ogni mancanza sostituendo la passione, la buona volontà (e il tempo libero) alla vera competenza e specializzazione?

Ogni volta che Wikipedia viene attaccata sotto il profilo della sua attendibilità (a dire il vero la cosa ormai non fa più notizia, la ricerca di Nature ha sdoganato l’enciclopedia libera, e come se non bastasse gli esempi di accreditamento da parte di terzi, come abbiamo già visto, sono innumerevoli), i wikipediani fanno appello a una sorta di principio di autocorrezione.

Significa che se qualcuno edita una voce e scrive una sciocchezza c’è subito qualcun altro che la corregge in tempi ultrarapidi. E’ vero, il principio funziona, in molti hanno fatto esperimenti in questo senso. Ma a guardar meglio, vale solo per le voci più importanti e trafficate, che possono vantare proprietà di self healing dell’ordine dei minuti. E le altre? Che succede per tutte quelle voci minori, che sono una moltitudine? Quegli stessi sperimentatori hanno scoperto che possono anche trascorrere molti mesi prima che qualcuno corregga la voce incriminata. Certo, negli anni sono stati messi in opera tanti strumenti automatici che facilitano il monitoraggio degli articoli, ma quattro milioni di voci (inglese) o un milione (italiano) sono davvero una quantità sterminata, soprattutto alla luce della forte flessione nel numero dei redattori attivi.

Giusto qualche giorno fa (guarda caso nel giorno del tredicesimo compleanno di Wikipedia, andata on line il 15 gennaio 2001) Daniele Virgillito, collaboratore di Wired, ha svelato in un post dal titolo irriverente, Come ho fregato tg, politici e giornali con qualche riga su Wikipedia, un suo “innocente esperimento sul giornalismo in Italia” nel quale aveva contraffatto alcune voci di Wikipedia relative a noti personaggi defunti da poche ore. Per vedere l’effetto che faceva sui giornalisti che andavano ad attingere a piene mani dall’enciclopedia per i propri “coccodrilli”. Per la cronaca, Virgillito è stato fatto nero nei commenti al post…

Il fatto è che per Wikipedia il problema dell’attendibilità delle proprie voci non è affatto all’ordine del giorno. Così come le eventuali conseguenze del suo stesso esistere a danno delle enciclopedie tradizionali.

Come ho scritto nell’altro post, la preoccupazione vera è quella di invertire la tendenza negativa nel numero dei nuovi redattori, che sono la linfa vitale del progetto. E di riuscire a coinvolgere nuove fascie di potenziali contributori, modificando in modo radicale la composizione demografica dei wikipediani.

Un’impresa non impossibile, ma molto, molto difficile.

Previous articleDRM e diritti dei lettori, la follia del vendor lock-in nel mercato degli ebook
Next articleAmarcord: come il Mac conquistò una redazione