Ho scritto questo libro pensando alle generazioni che verranno. L’ho scritto pensando non ai padri, ma ai figli. Una generazione che non può scegliere se cedere o meno i propri dati a una o più piattaforme, che non può ricordare com’era la vita quando non era completamente tracciata al fine di estrarre valore da essa. Il libro è principalmente per loro. Perché decidano liberamente che cosa fare delle loro tracce digitali; perché governino il modo in cui sono usate; perché si rendano conto che la sorveglianza non è un destino.

Astrarre dai dati per definire un concetto è il prodotto di scelte, di interpretazioni. Le interpretazioni sono frutto dei processi di generalizzazione e hanno bisogno di un pregiudizio di apprendimento per essere efficienti. I pregiudizi che usiamo per giudicare sono sempre situati e il loro valore dipende dalla prospettiva adottata. Se nascondiamo i soggetti o i punti di vista dai quali si esercitano le astrazioni, non rendiamo le interpretazioni più oggettive o più neutrali, oscuriamo solo l’orientamento che le determina.

Il futuro non si può prevedere, a meno di rendere le persone simili a macchine programmate che faranno quello che gli stiamo predicendo. La libertà è una condizione complessa, è un processo più che un possesso, un lavoro costantemente in corso. Se ritenessimo che gli algoritmi fossero in grado di leggere la vera fonte del nostro desiderio, non avremmo nessun motivo per prendere decisioni né per cambiare, non potremmo realizzare la variabilità e molteplicità che ci caratterizza come specie e che ci ha garantito la sopravvivenza, pur essendo tanto fragili a fronte di altri esseri viventi e delle catastrofi naturali.

La rappresentazione del mondo attraverso i dati e la necessità di governare con algoritmi la mole dei dati e le loro correlazioni implica che questi facciano il lavoro per categorizzare e definire pattern informativi sulla probabilità che un individuo agisca nel modo prescritto dalla sua appartenenza a un gruppo, a una categoria. Una volta inserito l’esemplare dentro la categoria prestabilita, è necessario immobilizzarlo lì per poterlo controllare e regolare e per essere certi della correttezza della categorizzazione eseguita.

Chi detiene la possibilità di categorizzare, di interpretare i dati, di costruire correlazioni tra le loro serie? Le aziende Internet come Google, Amazon, Facebook, Apple, Microsoft (le cosiddette gafam), e altre dai nomi meno riconoscibili ma altrettanto influenti, hanno il potere di normalizzare i dati e costruirne il senso, privi di ogni regolamentazione o controllo esterno. Gli utenti dei servizi digitali, produttori dei dati, sono in una posizione di completa asimmetria, sia perché non hanno il quadro d’insieme sia per l’opacità del servizio che ricevono. A fronte della visibilità e facilità di accesso, le piattaforme Internet mantengono il segreto e l’invisibilità completa sulle loro pratiche e si propongono sempre più spesso anche come fornitori di servizi pubblici in veste di infrastrutture di raccolta e organizzazione di informazioni utili per la sanità, la mobilità, la formazione ecc. Tutto questo dovrebbe essere oggetto di regolazione da parte della collettività. Non tutto quello che si può fare è lecito.

Si chiede a chi è interessato a partecipare di segnalarlo tempestivamente all’indirizzo scuolacriticadigitale@gmail.com indicando se intende partecipare in presenza o se preferisce collegarsi da remoto. In questo caso riceverà in tempo utile un invito a collegarsi mediante la piattaforma Zoom.

Un commento a “Big data e algoritmi: prospettive critiche”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *