di Armando Mirabella

Ma in fondo cosa sono gli ingranaggi, un trasformatore o un transistor? Se ci pensate non sono altro che dei dispositivi capaci di convertire una grandezza fisica in un’altra. Alterandone alcune delle caratteristiche che la identificano. Nel trasformatore, per esempio, il campo magnetico variabile induce una tensione: caratteristica che lo fa appartenere alla categoria dei “trasduttori”.

Questo concetto dalla meccanica, dall’elettricità, dall’elettronica e non solo, ha una analogia nella società. Le Information and Communication Technologies hanno “inventato” dei trasduttori sociali. Come riportato in un acutissimo articolo su “Agenda Digitale” di Antonio Vetrò, Mattia Plazio e Francesco Ruggiero del Centro Nexa del Politecnico di Torino, viviamo tempi, senza regole, di “datificazione” delle nostre vite. Tempi in cui i nostri spostamenti, le nostre preferenze negli acquisti o nelle visite, gli argomenti che ci interessano e ovviamente ciò che scriviamo sui social network è tracciato e trasformato. Convertito in dati: quello che molti studiosi chiamano “Io quantificato” (“quantified self”).

IL QUARTETTO DEL GAFA

Nell’articolo si evidenzia “che, allo stato attuale, la raccolta di informazioni tratte dai nostri comportamenti è pressoché vincolata alle finalità: oggi subordinate al perseguimento del profitto (cosiddetto surveillance capitalism), ieri rivolte a obiettivi di progresso socio-economico, come il miglioramento del welfare o una più equilibrata redistribuzione della ricchezza”. Una realtà possibile perché agilità, grandi risorse economiche, know how portano ad essere detentori delle tecnologie di raccolta e analisi dati. Sostanzialmente il quartetto del GAFA: Google, Apple, Facebook, and Amazon. La realtà di questo primo XXI secolo è che per la prima volta nella storia degli stati moderni, chi ha le informazioni sui cittadini non è più lo Stato ma aziende multinazionali private che per loro natura sono orientate al profitto.

Già il secondo dopoguerra ci ha insegnato il valore delle informazioni. In qualsiasi rivoluzione uno dei primi obbiettivi erano le torri della radio e successivamente quelle delle televisioni. La datificazione ha ancora più accentuato l’identificazione tra potere e possesso dei dati rendendo evidente la minaccia per una democrazia da parte di chi ha come obiettivo il profitto.

LO SCANDALO CAMBRIDGE ANALYTICA

Gli elementi inquietati, emersi anche col recente scandalo di Cambridge Analytica sono diversi: di tante persone e soprattutto quali? E di questi, quali si scambiano le aziende? E con quali obiettivi? Tuttavia, un ulteriore elemento, al momento sottovalutato, è quello delle discriminazioni.

Minority Report” c’è già ed è sia negli Usa che in Europa. La Michigan State University e il Human Rights Data Analysis Group hanno analizzato gli algoritmi che prevedono reati utilizzati dalle polizie statunitensi ed europee e hanno scoperto uno squilibrio sui dati che li alimentavano. Uno di questi era rappresentato dalla sottostima dei consumatori bianchi di droghe. E così le indicazioni generate dall’algoritmo portavano ad agire nei quartieri abitati da non bianchi. Ovviamente gli arresti venivano condotti principalmente in quelle aree. E di conseguenza, col passare del tempo, i dati statistici rafforzavano quella indicazione iniziale figlia di una sottostima.

IL CASO MCDANIEL

Si è così rivelato un caso non isolato quello di Robert McDaniel, un nero di 22 anni abitante nel South Side di Chicago, che nel 2013 ha ricevuto una visita senza preavviso da parte di un dipartimento di Polizia di quella città per intimargli di evitare condotte criminali. La visita sorprese McDaniel che non aveva mai commesso un crimine e non aveva avuto contatti recenti con le forze dell’ordine.

Si è così scoperto che McDaniel era uno dei circa 400 individui collocati nel Dipartimento di Polizia di Chicago nella “Heat List“. Un elenco in cui si prevedeva ci fossero gli individui potenzialmente coinvolti in reati violenti in base ad un’analisi di posizione geografica e dati di arresti. La “Heat List” è un esempio della crescente suite di sistemi predittivi basati su “Big Data“. Usati nella polizia in tutti gli Stati Uniti e in Europa.

Episodi come questo hanno alimentato diverse preoccupazioni. Il concetto di ragionevole sospetto in primis. Poi la mancanza di trasparenza. Infine le perplessità su come i modelli di polizia predittiva sono costruiti, se i programmi non sono mirati su gruppi specifici più di altri. Ma soprattutto se una errata impostazione iniziale dei dati, con l’uso, può amplificare quegli stessi pregiudizi.

ALTRI ESEMPI DI DISCRIMINAZIONE

Altri esempi di discriminazione vengono dal libro di “The Black Box Society” sottotitolo “The Secret Algorithms That Control Money and Information” di Frank Pasquale. Una indagine informativa a 360 gradi che dimostra che un approccio che lascia fare al processo decisionale algoritmico ci porta in luoghi dove la maggior parte di noi non vorrebbe andare. Eloquente l’analisi del caso USA in cui per curare il 5% del totale dei pazienti si spende la metà di tutta la spesa sanitaria nazionale. Basti pensare che già solo l’1% dei malati costano un quinto del budget nazionale. Grazie a dati e algoritmi in possesso delle compagnie assicurative, queste, per massimizzare i profitti, possono scegliere di offrire polizze alla conveniente “persona sana” e rifiutarla alla non conveniente “persona malata” o al limite imporre a quest’ultimi tariffe più elevate.

Dove va a parare una società in cui esiste questa fortissima asimmetria tra aziende private che, attraverso tecniche di data analytics, machine learning e intelligenza artificiale, sanno tutto dei cittadini e cittadini e stati che di queste companies non sanno nulla? Di quale film di fantascienza stiamo lentamente e inconsapevolmente diventando le comparse?

Exit mobile version