Un percorso possibile dentro le Stelline

Qualche breve appunto dal convegno delle Stelline 2014, a cui ho partecipato nella sola giornata di venerdì. Tutte le relazioni degli interventi presentati sono però disponibili sul sito dell’Editrice Bibliografica in PDF, con social DRM, a 3,99 euro. E’ un peccato non approfittarne e alcuni degli appunti che leggete qui sotto derivano da questa lettura, dalla quale spero di ricavare un ragionamento abbastanza coerente sulla base di cose che hanno colpito la mia attenzione.

La New York Public Library apre meritatamente il convegno con una relazione (felicemente pragmatica) di Johannes Neuer sull’utilizzo fatto dei social media per il marketing delle collezioni e dei servizi della biblioteca. Ne esce un quadro sintetico di cose che nessuno in Italia fa in modo compiuto. Le riporto come puro elenco di controllo, per così dire:

  • Adottare un approccio strategico ai social media (significa scegliere una strategia, non improvvisare)
  • Basarsi sulla collaborazione fra molti diversi dipartimenti/uffici
  • Misurare e ottimizzare in modo costante i risultati
  • Utilizzare i social media in modo coerente alla propria funzione, definita come impulso all’apprendimento continuo (lifelong learning), all’avanzamento della conoscenza e al rafforzamento della comunità
  • Comprendere nella strategia l’online customer service (i social media non sono solo bollettini, ma strumenti per erogare servizi)
  • Curarsi della formazione specifica dello staff
  • Pubblicare contenuti rilevanti (compelling)
  • Fare dei blog (per la NYPL, questi) il nucleo fondante del proprio calendario editoriale (sul tema dei blog si può leggere anche la relazione di Juliana Mazzocchi Blog e social network in biblioteca: strumenti complementari o antagonisti?)
  • Ottimizzare i contenuti in forme diverse per le diverse piattaforme
  • Condividere contenuti di terzi
  • Riciclare (ripubblicare) i contenuti che producono i risultati migliori
  • Non trascurare l’email marketing
  • Investire in social media avertising (riporto questo punto per ultimo perché mi dà modo di formarmi un’opinione su un interrogativo accennato nel mio post precedente: dovremmo acquistare la visibilità dei post sulle pagine Facebook? Ora, la mia risposta è: non prima di avere imparato a fare tutte le cose segnate in questa lista).

Riccardo Ridi, in un intervento complesso sulla responsabilità sociale delle biblioteche (che non tento di riportare qui esaustivamente nei suoi contenuti), distingue invece fra due concezioni principali della Library 2.0:

La prima:

Le “biblioteche 2.0″, intese in senso tecnico e “debole” sono quelle biblioteche che, per perseguire i propri classici obbiettivi informativi, documentari e bibliografici e per promuovere la conoscenza e l’uso dei relativi servizi da parte dei potenziali utenti, utilizzano sempre più spesso, oltre ai metodi abituali (inclusi quelli digitali), anche una serie di recenti strumenti tecnologici di varia natura riconducibili più o meno direttamente al concetto (anch’esso peraltro notevolmente ambiguo e controverso) del “web 2.0″.

La seconda:

Davvero rivoluzionarie sono invece le “biblioteche 2.0″ intese in senso ideologico e “forte”, che si prefiggono di recuperare e ampliare il numero degli utenti, l’entità dei finanziamenti pubblici ricevuti e la consistenza dell’apprezzamento sociale (tutti indicatori purtroppo in brusca caduta recentemente) rinunciando alla tradizionale centralità, per i servizi bibliotecari, dell’intermediazione documentaria e creando o incrementando, invece, servizi rivolti prevalentemente allo sviluppo dell’apprendimento e della socializzazione o addirittura, nei casi più estremi, alla fornitura di qualunque cosa possa risultare a qualsiasi titolo interessante per la comunità di riferimento.

Mi pare che la presentazione di Neuer (così come diverse esperienze riportate durante il congresso) rientrino nella prima concezione, mentre Ridi porta come esempi della seconda fenomeni di diversa natura come:

  • L’uso approssimativo dei social network (come dargli torto?)
  • Superficiali manovre di restyling “2.0″ dei cataloghi (per fortuna, un’ampia sezione di questo convegno è dedicata ai dati bibliografici nell’ottica dei Linked Data, che ci portano finalmente un passo oltre a pratiche effettivamente poco più che decorative di questo genere)
  • Idee indeterminate di biblioteca come area socio-culturale non meglio identificata (è quella che io personalmente chiamo “la biblioteca parrocchia” o “la biblioteca circo”. Ne esistono anche curiose combinazioni)
  • L’attenzione di David Lankes per la crezione di conoscenza tramite la conversazione (ci torniamo)
  • Il parlare da bibliotecari di com’è fatta Wikipedia invece che di come educare gli utenti a darne una valutazione in quanto strumento informativo (torniamo anche qui).

La conclusione dell’intervento (banalizzando molto ma ripeto, questi sono solo appunti) sta nella proposta di “svolgere nel modo migliore il proprio lavoro e non quello altrui”, formula che è difficile non accogliere come espressione di un felice e salutare buon senso in questo momento di grande confusione sulla definizione degli scopi presenti e futuri delle biblioteche.

Laura Testoni, come accade spesso, si occupa di information literacy. Qui le slide del suo intervento, che fanno il punto sulle diverse e complementari concezioni di literacy e avanzano alcune proposte.

Sulla base dell’assunto che “l’informazione è cambiata: non è infatti solo una entità che ‘si recupera’, ‘si conserva’ e ‘si utilizza’ ma è piuttosto un flusso continuo, permanente e ubiquo che ci attraversa, che permea qualunque attività privata e pubblica, il nostro stile di vita e le nostre interazioni con gli altri” ci possiamo chiedere quali siano le “abilità necessarie che affiancano e completano le differenti literacy e costituiscono oggi un curriculum implicito per ‘abitare’ la rete in modo consapevole, responsabile e informato”. Ecco una risposta in sintesi:

  • Essere in grado di comprendere e produrre testi (siamo molto vicini alla tradizionale concezione di literacy, alfabetizzazione)
  • Essere in grado di “fare rete” lavorando con gli altri in modo costruttivo e produttivo (citati l’Henry Jenkins di Culture partecipative e competenze digitali: media education per il 21. secolo e il concetto di “stanza intelligente” di Weinberger)
  • Essere in grado di operare delle sintesi da informazioni provenienti da fonti diverse
  • Usare la rete come infrastruttura e non solo come fonte documentale (internet come ipertesto e internet come sfera pubblica, come ambiente).

Alcune proposte immediate:

  • Smettere di chiedersi se la rete ci rende più stupidi o più intelligenti (amen!)
  • Abbandonare il mito dell’information overload (che esiste da alcuni secoli)
  • Allenare l’attention literacy e “offrire ganci all’intelligenza” (imparare attivamente a concentrarsi su ciò che interessa senza il luddismo dello spegnere il cellulare per vivere sereni, e saper filtrare e applicare metadati appropriati alla massa dei contenuti con cui veniamo a contatto. Qui il riferimento è a Perché la rete ci rende intelligenti, di Howard Rheingold, che vorrei leggere presto).

C’è un aspetto che accomuna tutte le literacy sia formali (IL, digital literacy, MIL [Media Information Literacy], transliteracy) che implicite descritte in queste note. Esse hanno l’obiettivo di conferire potere alle persone: capacità, abilità, sensibilità e skill necessari per padroneggiare i flussi informativi e per partecipare in modo consapevole e informato (quindi non da “tifosi” o spettatori subalterni) allo spazio pubblico strutturato nelle reti sociali. Su questo punto David Lankes nel suo Atlas è molto esplicito e radicale: il potere è il centro dell’information literacy… perché senza di esso non si prendono decisioni e le cose avvengono sulla testa delle persone.

Sembra tirare le fila di questo filone del convegno Pierfranco Minsenti col suo intervento su Wikipedia come ambiente di lavoro collaborativo (qui le slide). Minsenti risponde a Ridi, accettandone gli interrogativi ma proponendo una via alternativa a quella che sembra una risposta tutto sommato troppo tradizionalista. Sostiene l’utilità dell’abbandono dell’espressione Web 2.0 e di tutto l’indeterminato circostante. Controbatte David Lankes tacciando la sua visione di scarso radicamento teorico e di vaghezza. Rilancia con Henry Jenkins e la sua idea di cultura partecipativa. Infine, porta Wikipedia come esempio principe di luogo della rete in cui fare information literacy.

A me quest’ultimo punto sembra ovvio, ma probabilmente non lo è e quindi proviamo a raccontare perché mai fare editing su Wikipedia è paradigmaticamente un esercizio di information literacy (ho sempre pensato che Jenkins abbia persino modellato la sua definizione di cultura partecipativa su Wikipedia, ma non so se lo abbia mai detto esplicitamente):

  • Su Wikipedia si legge e si trovano delle informazioni (accesso + alfabetizzazione, parte prima)
  • Su Wikipedia si scrive, se non si sa scrivere si è subito fuori (partecipazione + alfabetizzazione, parte seconda)
  • Su Wikipedia si sintetizzano fonti già esistenti (imparando a cercarle e a valutarle) e le si ricompongono (imparando a organizzare logicamente gli argomenti)
  • Su Wikipedia si organizza la conoscenza (si creano ipertesti, si collegano voci per prossimità semantica, si inseriscono in categorie comuni, si metadatano) come parte normale e quotidiana del lavoro
  • Su Wikipedia si discute, cioè si impara che la conoscenza non è un dato acquisito, bensì una costruzione sociale
  • Su Wikipedia si impara a valutare la qualità delle singole voci come conseguenza diretta della partecipazione, e non perché un maestro/insegnante/bibliotecario ci abbia insegnato a farlo
  • Su Wikipedia si è incoraggiati a raccontare quello che si sa, e a nessuno importa quello che si è
  • Wikipedia è l’unico luogo della rete in cui il copyright sia rispettato alla lettera
  • Wikipedia è il luogo in cui sistematicamente si adottano forme di regolazione della proprietà intellettuale adeguati allo scopo
    (Mi fermo).

Questi interventi, che ho selezionato fra molti, mi pare esprimano un filo logico di questo tipo: il web 2.0 o, più precisamente, la comunicazione via social media, è un potente strumento di marketing per le biblioteche. In quanto tale va utilizzato in maniera professionale e non approssimativa. Il fine non è però il 2.0 in sé ma la diffusione di una cultura della partecipazione attiva, e non solo perché ciò sembra buono, ma perché è anche coerente con gli obiettivi specifici della nostra professione (non si dà partecipazione attiva senza information literacy). In questo si può trovare un punto d’equilibrio felice tra una visione della professione troppo ancorata alla tradizione (agli artefatti di Lankes, se volete) e la visione confusa e insoddisfacente della biblioteca come indeterminato spazio di socialità. A me pare che abbia un senso.

Pubblicato in Uncategorized | Contrassegnato , , , , , , , , | 1 commento

Che succede alle pagine Facebook?

Per alcuni anni ho tenuto corsi sulla comunicazione per le biblioteche. Ho sempre cercato di trattare il tema da diversi punti di vista e di portare ad esempio strumenti diversi come i blog, Facebook e Twitter. Col tempo mi sono resa conto che tutti si interessavano di Facebook più che di ogni altra cosa, scelta d’altra parte corretta per il mondo delle biblioteche pubbliche, per il quale la somma ottenuta dagli elementi (mezzo ad amplissima diffusione + generalista + gratuito) dava un risultato del tutto favorevole.

Nell’ultimo anno mi sono occupata sostanzialmente d’altro, continuando però a gestire la pagina Facebook della biblioteca in cui lavoro e osservando attorno a me un livello di attenzione crescente al tema della comunicazione. Anche altri hanno cominciato a occuparsene. Forse ora non sono la persona più aggiornata sul tema, ma ho cercato di seguire a grandi linee l’evoluzione della piattaforma fino a quando, alcuni mesi fa, è accaduta una cosa che mi ha fatto sbattere il naso in un’evidenza: il deciso calo della portata dei post.

La “portata”, nei termini di Facebook, è il numero di persone che visualizzano un singolo aggiornamento. C’è una cosa non sempre nota ai non addetti ai lavori: ciò che ognuno di noi visualizza nel proprio feed di notizie non è la somma di ciò che pubblicano i suoi contatti, e giustamente, perché se così fosse l’effetto sarebbe puro rumore di fondo. Facebook utilizza un algoritmo per decidere che cosa presumibilmente ci interessa di più e solo quello ci fa vedere. Il resto, se non andiamo a cercarlo sui profili dei nostri amici o sulle pagine che seguiamo, non lo vediamo proprio.

Nel 2013 l’algoritmo è cambiato e, dal punto di vista dell’azienda Facebook, per ottimi motivi (come sempre lo spiega bene Vincenzo Cosenza qui).

Mettendosi dal punto di vista delle pagine, però, o almeno dal punto di vista delle pagine piccole o medio-piccole, l’effetto è stato radicalmente negativo. Di recente ho scaricato gli Insight (i dati statistici forniti da Facebook agli amministratori di pagina) per la pagina della mia biblioteca. Ho scoperto che, nel 2013, a fronte di una crescita dei liker del 24%, si è assistito a un calo di visualizzazioni del 35%. La linea editoriale è rimasta costante, non sono intervenuti altri fattori particolari, e dunque questo può solo essere l’effetto di un cambiamento strutturale nel modo in cui la piattaforma funziona.

L’andamento temporale della portata dei post nel 2013 lo conferma, dato che il crollo si concentra tutto sugli ultimi mesi dell’anno, in perfetta coincidenza con l’annuncio della modifica dell’algoritmo di visualizzazione:

portata2013

Perché dico che il problema si pone per pagine relativamente piccole? Il motivo si legge in questa immagine:

facebookDiciamo, semplificando, che a Facebook interessano due cose: i dati degli utenti e il giro di affari generato dalle pagine. In questo giro di affari rientra anche la recente possibilità di acquistare la visibilità dei post, ovvero di pagare per forzare l’algoritmo e “imporre” che i post vengano visualizzati sui feed di più persone. Se gestisco la pagina della Nike probabilmente ci posso investire sopra parecchi soldi, il gioco vale la pena. Se gestisco la pagina di una biblioteca, i termini della questione sono totalmente diversi. Tanto per dire, 12 post a settimana (quelli che effettivamente pubblico) richiederebbero quasi 2.500 euro l’anno se volessi investirci anche il minimo previsto per ognuno (4 euro), anche ammettendo per assurdo che io potessi fare acquisti online (il che non è). 2.500 euro all’anno sono più del budget dedicato agli acquisti di libri per moltissime biblioteche e la conclusione del ragionamento è quindi ovvia.

(Oltre al fatto che probabilmente sarei io la prima a ribellarmi all’idea che una pubblica amministrazione spendesse i soldi dei cittadini in questo modo, ma questo è un discorso più complesso).

Mi pare fra l’altro che il disinteresse di Facebook nei confronti delle pagine di piccole dimensioni sia confermato anche da un’altra caratteristica degli Insight e della forma in cui vengono presentati: quella massa di dati è leggibile nella sua interezza e nella sua complessità solo da un ufficio marketing, non da un comune amministratore di pagina che a fatica si arrabatta fra decine di fogli di calcolo dal significato ampiamente oscuro e che resta facilmente disorientato dai frequenti cambiamenti nelle metriche considerate.

Insomma, proprio ora che avevamo appena imparato a usarlo discretamente, forse è Facebook ad abbandonarci, dal momento che non rivestiamo alcun interesse economico. O almeno così pare in questo momento: Facebook ci ha già abituato a repentini cambiamenti nel layout, nella visualizzazione dei contenuti e così via.

Considerato tutto, l’idea di impostare i miei corsi su diversi strumenti mi pare oggi ancora più corretta. La scelta di privilegiare Facebook è stata strumentale e, in quanto tale, può benissimo essere messa in discussione. Può essere messa in discussione – a mio parere – persino l’idea divenuta nel frattempo divenuta dominante che uno degli obiettivi della comunicazione via social media sia l’engagement (ma questo sì che è un discorso complesso e lo lasciamo per un’altra volta). Quello che si può fare ora, invece, è sapere che è il momento di ricominciare a esplorare strade nuove, o di percorrere le vecchie con uno sguardo più attento.

Ad esempio.

Monitorare i dati di utilizzo generale: Facebook cresce ancora, ma lo fa fra tutte le classi di età? Calibrare gli sforzi: 12 post alla settimana valgono davvero la pena se Facebook non li mostra al mio pubblico? Continuare comunque a pubblicare contenuti di qualità: tutto sommato, mi pare che questo piccolo decalogo abbia ancora senso. Esplorare strumenti social alternativi: fino a pochi mesi avrei dissuaso la maggioranza dei bibliotecari a utilizzare Twitter per le loro biblioteche, ora sarei disposta a ripensarci (il profilo su Twitter della biblioteca ha, nell’ultimo anno, raggiunto un numero di follower piuttosto vicino a quello dei liker della pagina Facebook). Ricordare che non ci sono regole fisse: la comunicazione funziona bene con strumenti diversi, per persone diverse, in contesti diversi. Ricordare che il web non è il solo social, e che esistono strumenti come i siti (che forse abbiamo trascurato) e i blog (che non abbiamo mai seriamente iniziato a usare) che hanno un potere intrinseco di durata sul web e sui quali restiamo molto più indipendenti nelle nostre scelte rispetto a piattaforme destinate inevitabimente a sorgere e a tramontare.

Certo un sito, o un blog, comportano maggiore lavoro e maggiore consapevolezza di come funzioni la rete. Questo, a partire dallo sforzo cooperativo su cui si basa, a me sembra un bel tentativo. (Facendo parte della redazione non dovrei dirlo io, quindi, nel caso, obiettate).

Pubblicato in Uncategorized | Contrassegnato , , , , , | 13 commenti

N = tutti, o del non perdersi fra i dati

A completamento del post precedente sul libro di Viktor Mayer-Schönberger e Kenneth Cukier Big Data, ecco che cosa gli autori aggiungono a proposito dei rischi insiti nell’uso dei big data e dei possibili rimedi.

“Il pericolo di non governare i big data nel rispetto della privacy, o di farsi ingannare dal significato dei dati, va molto al di là di bazzecole come la pubblicità mirata su Internet. La storia del XX secolo è fin troppo ricca di situazioni in cui i dati hanno prodotto risultati sanguinosi. Nel 1943 lo U.S. Census Bureau cedette in blocco alle autorità militari gli elenchi nominativi (ma senza l’indirizzo e il numero civico, in modo da salvare le apparenze) dei nippo-americani per facilitarne l’internamento. I registri anagrafici proverbialmente super aggiornati dell’Olanda vennero usati dagli invasori nazisti per rastrellare gli ebrei. I numeri a cinque cifre tatuati sull’avambraccio degli internati nei campi di concentramento nazisti corrispondevano inizialmente ai numeri registrati con la scheda perforata di Hollerith che fece la fortuna dell’IBM; la processazione dei dati agevolò la carneficina organizzata.” (p. 205)

In sostanza, gli autori individuano tre aree di rischio piuttosto importanti:

“Anche qui, il punto essenziale sui big data è che un cambiamento nella dimensione porta a un cambiamento della situazione. Come vedremo, questa trasformazione, oltre a rendere molto più problematica la tutela della privacy, porta con sé una minaccia totalmente nuova: le penalizzazioni basate sulle propensioni. Ovvero della possibilità di usare le previsioni che emergono dai big data sulle persone per giudicarle e punirle ancor prima che agiscano. Ed è la negazione dei concetti di equità, giustizia e libero arbitrio.
Esiste poi un terzo pericolo, oltre a quelli che si profilano per la privacy e per le propensioni. Rischiamo di cadere vittime di una dittatura dei dati, in base alla quale eleviamo a feticcio le informazioni, l’output delle nostre analisi, e finiamo per farne un cattivo uso. Se gestiti razionalmente, i big data sono un utile strumento per la razionalizzazione del processo decisionale. Se gestiti impropriamente, rischiano di diventare uno strumento al servizio dei potenti, che potrebbero farne un mezzo di repressione, limitandosi a creare frustrazione nei clienti e nei dipendenti o, peggio, danneggiando i cittadini.” (p. 204)

La prima area di rischio è dunque costituita dalla privacy. Dallo scandalo NSA in poi (credevamo che Assange fosse un paranoico, adesso sembra un’anima candida), questo è l’elemento che più intuitivamente si impone all’attenzione. La verità, purtroppo, è che coi big data la privacy – per come la concepiamo oggi – semplicemente non esiste più.

La normativa attuale che si occupa della protezione dei dati si basa sull’idea del consenso concesso dall’interessato volta per volta, rispetto al singolo contesto in cui avverrà il trattamento dei suoi dati, pratica che lo dovrebbe garantire da abusi e dovrebbe riservargli un’area di libero arbitrio considerata fino a oggi sufficiente. Quando poi si intende utilizzare i dati per macro analisi, aggregandone grandi quantità, interviene la procedura dell’anonimizzazione: la malattia che avete avuto nell’ultimo anno verrà conteggiata insieme a quelle di tutti gli altri cittadini, ma senza che ci resti attaccata un’etichetta col vostro nome.
Ma sorgono almeno due problemi: l’autorizzazione al trattamento dei dati è prevalentemente concessa per forza (pena l’esclusione da un servizio, ad esempio), con uno scarso livello di comprensione del suo significato e sempre più spesso come formalità senza importanza (giusto una casella da spuntare che si frappone tra noi e l’obiettivo). Ma soprattutto, la pratica di rendere anonimi i dati viene vanificata dal fatto di disporre di set di dati enormi:

“In presenza di un quantitativo sufficiente di dati, la totale anonimizzazione è assolutamente impossibile. Come se non bastasse, i ricercatori hanno dimostrato che non solo i dati convenzionali, ma anche il grafico sociale – le interconnessioni tra le persone – sono vulnerabili alla de-anonimizzazione.” (p. 210)

Per la seconda area di rischio, quella delle penalizzazioni basate sulle propensioni, sono gli autori stessi a citare l’esempio di Minority Report, il film basato sull’ipotesi di una polizia futuribile che tenta di impedire gli omicidi prima che vengano commessi.
Fantascienza a parte, si può pensare al settore assicurativo per capire che cosa questo punto significhi: immaginate di appartenere per caso a una classe demografica o sociologica che presenta una correlazione statistica importante con un comportamento a rischio, o ancora con una malattia. Come reagireste se vi venisse negata un’assicurazione sulla base di questo e non del vostro comportamento o del vostro stato di salute reali?

La terza area di rischio, quella che gli autori chiamano della possibile dittatura dei dati fa l’ipotesi del caso in cui i dati siano di cattiva qualità, vengano analizzati impropriamente o misurino l’indicatore sbagliato. Ci sono esempi storici di tutto ciò, come ad esempio il famigerato uso del body count (la contabilità dei nemici uccisi) che Robert McNamara fece durante la guerra del Vietnam per misurare il grado di avvicinamento alla vittoria militare, e che con gli anni fu riconosciuto – cinismo del metodo a parte – come dato falsato in primo luogo dai generali statunitensi per motivi di carriera.

“… i big data consentono una maggiore sorveglianza sulla nostra vita, e rendono praticamente obsoleti alcuni degli strumenti giuridici finalizzati alla tutela della privacy. Mandano in soffitta anche il metodo tecnico principale per la protezione dell’anonimato. E, cosa non meno inquietante, le previsioni sugli individui ricavate dai big data si potrebbero usare, di fatto, per punire le loro propensioni, anziché le loro azioni. Questo meccanismo perverso nega il libero arbitrio e intacca la dignità umana.
Nello stesso tempo, c’è il rischio reale che i benefici offerti dai big data spingano le persone ad applicare le tecniche dove non si addicono perfettamente alla situazione specifica, o a fidarsi un po’ troppo dei risultati delle analisi. Man mano che miglioreranno le previsioni estrapolate dai big data, la prospettiva di utilizzarle diverrà sempre più irresistibile, alimentando un’autentica ossessione per i dati, apparentemente giustificata dalla loro ‘onnipotenza’. Ecco di nuovo la maledizione di McNamara e la lezione che ci viene dalla sua storia.” (p. 228)

Di fronte a un quadro così complesso, gli autori sostengono la necessità di nuove forme di regolazione.

Rispetto alla privacy, un quadro normativo e delle sanzioni che spostino la responsabilità reale del trattamento dei dati dagli individui alle organizzazioni, “meno focalizzato sul consenso individuale al momento della raccolta e più incentrato sulla responsabilizzazione degli utilizzatori per quello che fanno.“ (p. 233)

Quanto al rischio della penalizzazione dei singoli sulla base delle loro propensioni, si sostiene che, nell’era dei big data, “dovremo espandere il nostro concetto di giustizia, e pretendere che includa salvaguardie per il libero agire umano così come oggi esigiamo il pieno rispetto delle procedure.” Dunque maggiore trasparenza (“mettere a disposizione i dati e l’algoritmo sottostanti alla previsione che coinvolge l’individuo”, p. 238), un sistema di certificazione degli algoritmi e procedimenti formalmente riconosciuti per la loro confutabilità.

L’unica strada da non prendere? Quella della limitazione a priori dello sfruttamento delle potenzialità dei big data:

“Con il passare dei secoli, abbiamo optato per il sempre maggiore ampliamento dei flussi informativi, e ci siamo abituati a prevenirne gli eccessi non più attraverso la censura, ma tramite regole che limitassero l’uso improprio delle informazioni.” (p. 232)

Pubblicato in Uncategorized | Contrassegnato | Lascia un commento