stefanostaccone

(e la centralizzazione non è neutrale)

Spesso si parla delle IA come se fossero entità astratte. Alcuni utilizzatori invece le umanizzano, chiamando il proprio assistente con nomi divertenti. Spesso in definitiva l'utilizzatore scrive il prompt, preme invio e ottiene quello che vuole, fine.

Quello che i più ignorano è che quella risposta è il risultato di una catena fisica: server, rete, alimentazione, raffreddamento, sistemi ridondanti. Un elemento aggiunto alla catena, ancora più ignorato, ma il cui uso è estremamente impattante e l'uso delle acque dolci. Se guardiamo la realtà per quella che è, emerge la verità nuda e cruda: l'IA non è una semplice tecnologia informatica ma una catena industriale che ha un impatto materiale devastante incorporato nella sua architettura.

Nel mio percorso lavorativo passato e attuale (non per flexare, ma per dare contesto, ho un dottorato in ingegneria meccanica, specializzazione energia e ambiente), è capitato di ricevere richieste di progettazione di componenti meccanici per sistemi di raffreddamento di datacenter dedicati a carichi IA. Quello che già è noto dall'esterno diventa ancora più chiaro quando si è un addetto ai lavori. Nel corso del tempo gli impianti sono diventati sempre più grandi, con richieste energetiche da gestire sempre maggiori. La crescita dell'IA si traduce in maniera diretta e concreta in diversi punti tutti con comune denominatore: i componenti aumentano di taglia, le portate crescono, i sistemi aumentano di ridondanza, la manutenzione più critica. Questo perché la crescente densità di potenza da gestire e la richiesta di uptime (tempo in cui l'apparato resta ininterrottamente acceso) non lasciano alternative.

La crescita infrastrutturale con cui ho introdotto l'argomento non è un semplice dettaglio da addetti ai lavori, ma è esattamente il cuore della questione etica. Mentre si discute di bias (pregiudizi generati lato dati e addestramento) e allucinazioni (risposte dell'IA che sembrano plausibili ma sono del tutto errate), si sta ignorando quello che a mio avviso è il nodo cruciale del sistema che lega ogni problema accennato: centralizzazione dei dati e del calcolo.

La conseguenza diretta è che come effetti collaterali, oltre alle problematiche energetiche strutturali, si è normalizzata la cessione di dati e know how (tecnico, artistico) come se fosse il prezzo inevitabile da pagare, con la promessa del miglioramento della nostra vita.

C'è da dire che sono stati bravi a farci ingoiare la pillola, e noi l'abbiamo mandata giù troppo facilmente. Generalizzando, abbiamo accettato che per usare l'IA dobbiamo consegnare contenuti, processi, documenti, conversazioni, competenze, foto, immagini, arte, a piattaforme terze senza alcun consenso informato reale, e senza controllo effettivo su conservazione dei nostri dati e riuso. E se ci opponiamo, alla fine con il web scraping ottengono comunque dati senza consenso.

Se vogliamo (e mi chiedo, la vogliamo?) un'IA che sia compatibile con una società libera, con privacy e limiti fisici, dobbiamo parlare di infrastrutture alternative. Anche qui, la parola chiave è sempre la stessa: decentralizzazione.

Questo è il primo articolo dove scrivo quello che so sul tema, andando a analizzare il costo energetico dell'IA, il costo dell'infrastruttura (il cui impatto sul mercato dei componenti per pc non è trascurabile), il ruolo del raffreddamento e il tema dell'acqua, il movimento dei dati come costo energetico e rischio per la privacy.

Primo costo: il calcolo

Questo è il costo che probabilmente tutti riescono facilmente a immaginare. Usando però terminologie più specifiche, il training delle IA (addestramento con dati, anche i nostri) e l'inference (utilizzo dei dati attraverso un modello che trae conclusioni) richiedono una potenza sempre maggiore. Il training non si ripete tutti i giorni, quindi si sostiene un costo una tantum, un evento in sostanza. Il suo costo però è enorme. L'inference ha un costo per singola richiesta. E' definibile basso, ma continuo, cumulativo e scalabile. Si hanno miliardi di richieste giornaliere.

Questi concetti ci sembrano estremamente nuovi, in realtà la teoria è ben conosciuta da molti anni. Quello che è necessario sottolineare è che l'informazione digitale non è astratta quando la manipoli nel mondo reale. R. Landauer (1) mette un punto fondamentale: il calcolo non è gratis dal punto di vista fisico. In sintesi, Landauer mostra che: – finché un’operazione logica è reversibile (in principio), può essere eseguita senza un minimo obbligatorio di dissipazione; – quando invece un’operazione è logicamene irreversibile (tipicamente: cancellare o “resettare” un bit, cioè comprimere molti stati possibili in uno solo), allora si perde informazione sullo stato precedente; – questa perdita di informazione implica, per i principi della termodinamica/statistica, una dissipazione minima di calore nell’ambiente: almeno Q≥k B T ln2 per ogni bit cancellato.

Semplificando il discorso, in pratica: il limite non dice quanta energia consumano i computer di oggi (che stanno molto sopra), ma stabilisce un limite fisico inferiore e collega in modo rigoroso informazione ↔ entropia ↔ calore. È uno dei pilastri concettuali di tutta la “termodinamica dell’informazione”.

Secondo costo: il raffreddamento (e l'acqua dolce)

Abbiamo appena collegato il calcolo con la produzione di calore. Questo significa che dal punto di vista impiantistico è necessario raffreddare i sistemi. Se i sistemi crescono, gli impianti aumentano e più calore significa più gestione termica. Il raffreddamento è la parte meno interessante per i non addetti ai lavori, ma è quella che decide la scalabilità. Per dare dei numeri, è sufficiente pensare che attualmente se una GPU consuma 500 watt, è necessario smaltire per effetto joule la stessa quantità di calore. A questo va aggiunto il consumo di CPU, RAM, storage, alimentatori, ventole, pompe. Il risultato pratico per chi progetta è spesso una direzione univoca: impianti più grandi e robusti, componentistica dimensionata per portate e condizioni più spinte.

Il costo mascherato di tutto questo, oltre al conto energetico, è proprio legato al fatto che il raffreddamento implica il consumo di acqua dolce, direttamente o indirettamente. Non tutti i datacenter sono uguali, quindi i consumi di acqua possono variare, ma basta esaminare dove i più grandi sono costruiti e subito si capisce che l'acqua dolce è fondamentale e che le condizioni climatiche migliorano le performance dei sistemi di raffreddamento.

Per chi fosse interessato anche ai numeri, uno studio molto citato che ricostruisce in modo critico le stime globali dei consumi energetici dei data center è quello di Masanet et al. (2). Sul tema specifico dell’IA e acqua, negli ultimi anni ha fatto discutere Ren et al. (3), che prova a rendere visibile un costo che spesso non compare nel “conto economico” dell’utente finale. Gli studi sono di qualche anno fa e la situazione ad oggi è senz'altro peggiorata.

Non voglio però spaventare, ma responsabilizzare. Quando una tecnologia cresce e richiede più energia e più raffreddamento, non si può nascondere la cosa come se fosse un semplice dettaglio tecnico. E' un vincolo fisico che influenza i costi, localizzazione degli impianti e impatti ambientali decisamente non trascurabili.

Terzo costo: movimento dei dati

L'attuale modello dominante di oggi è semplice. Che sia da pc o da applicazioni, si raccolgono i dati/richieste, vengono mandati a un cloud, si ottiene un output. Per l'utilizzatore è apparentemente molto comodo e dal punto di vista per economia di scala è potente. Questo però ha due conseguenze inevitabili. Prima conseguenza: lo spostamento dei dati consuma energia e richiede una specifica infrastruttura. Non è il semplice viaggio di un pacchetto, ma usando termini tecnici e semplificandone in maniera estrema il significato, abbiamo: – ingest (processo che l'ia usa per analizzare e capire i nostri dati); – storage (non semplici hdd, ma sistemi complessi per immagazzinare l'immensa mole di dati gestiti in maniera estremamente veloce); – replicazione (copia degli stessi dati in più posti per sicurezza o velocità); – caching (memorizzazione temporanea in aree di memoria per accesso più rapido); – logging (registrazione di attività, eventi e accessi) – retrieval (recupero dei dati quando servono). Il movimento dei dati è energia travestita da software. Più l'IA è centralizzata, più quel movimento diventa parte strutturale del sistema. Seconda conseguenza: se i dati escono dai nostri sistemi, la privacy non è una proprietà ma solo una promessa (non mantenuta). Abbiamo normalizzato la cessione dei dati. Che siano documenti, codice, progetti, processi aziendali, know how, conversazioni personali, immagini, disegni, musica, arte in generale. Spesso li abbiamo caricati per comodità, divertimento, o necessità lavorative perché “altrimenti non funziona”. L'abbiamo fatto senza consapevolezza di cosa viene registrato, per quanto tempo, chi lo vede, come viene utilizzato, se viene riutilizzato per scopi terzi, se diventa training data, se diventa metadato. L'architettura centralizzata crea un incentivo per il sistema, quindi i dati diventano il suo carburante. Il carburante è prezioso, quindi qualcuno lo accumula. Se qualcuno lo accumula, qualcuno accumula potere. Per questo motivo la decentralizzazione non è un capriccio ma è una risposta razionale se vogliamo ridurre l'impatto energetico, proteggere la nostra privacy e know how, e evitare di restare intrappolati e dipendenti da questi sistemi.

Quarto costo: infrastruttura e componenti (e il mercato retail che resta a secco)

L’IA centralizzata non richiede solo energia e acqua: richiede hardware, in grandi quantità e con cicli rapidi. Si pensa che la vita utile di un datacenter sia inferiore a 5 anni, e che il loro costo in funzione della vita utile non permetterà mai di rientrare nell'investimento (questo apre il discorso della “bolla” ma non ne parlerò qui). Quando una parte crescente della produzione di componenti ad alte prestazioni viene assorbita dai data center, succedono tre cose: – Se la domanda industriale cresce più velocemente della capacità produttiva, qualcuno resta senza componenti. Chi ci rimette quindi è il mercato retail che ha meno potere contrattuale rispetto ai grandi acquirenti. – Ammesso che la catena di fornitura regga, la pressione sulla domanda sposta prezzi e disponibilità/priorità. L'utente consumer se ne accorge subito: componenti più costosi, hw di qualità destinato altrove. Pensiamo a Crucial che proprio in questi giorni ha deciso di non vendere più RAM al mercato consumer per girare tutto verso l'uso sulle IA. – Se l'accesso al computer diventa un problema di capitale e di contratti, allora stiamo pagando non solo maggiori costi sui componenti, ma stiamo delegando la capacità di sperimentare e innovare a una minoranza di attori. Questo è un problema sia di concorrenza che di libertà tecnologica.

La centralizzazione non prende solo i dati, prende anche una parte crescente del diritto di calcolare.

Decentralizzare è un obiettivo tecnico e morale

Si parla spesso di IA come fosse un oggetto immateriale e neutrale. Non lo è e qui ho voluto mostrare che ha un corpo composto da energia, raffreddamento, acqua, infrastruttura. Ha una direzione politica incorporata: centralizzare dati e calcolo. Questo impatta negativamente sull'ambiente, sulla nostra privacy, sul nostro potere tecnologico. Se vogliamo un'IA compatibile con la privacy e con i limiti fisici del mondo reale dobbiamo smettere di pensare all'IA come fossimo destinati inevitabilmente a subirla, ma trattarla come un'opzione. Se e dove ne abbiamo bisogno, dobbiamo progettare un futuro dove l'IA è più distribuita, locale e misurabile.

1 – Landauer, R. (1961). Irreversibility and Heat Generation in the Computing Process. IBM Journal of Research and Development. 2 – Masanet, E., et al. (2020). Recalibrating global data center energy-use estimates. Science. DOI: https://doi.org/10.1126/science.aba3758 3 – Ren, S., et al. (2023). Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models. arXiv. Link: https://arxiv.org/abs/2304.03271 4 – Shehabi, A., et al. (2016). United States Data Center Energy Usage Report. LBNL. PDF: https://eta.lbl.gov/publications/united-states-data-center-energy 5 – Parrondo, J. M. R., Horowitz, J. M., Sagawa, T. (2015). Thermodynamics of information. Nature Physics. DOI: https://doi.org/10.1038/nphys3230

Da tempo rifletto su un problema che osservo su più livelli della nostra società: la disumanizzazione.
Non come evento improvviso, ma come processo lento, normalizzato, che attraversa le grandi multinazionali, le istituzioni, e finisce per infiltrarsi anche nei contesti più piccoli, fino al quotidiano. Prendiamo un esempio semplice e familiare: l’acquisto online.
Clicchiamo, paghiamo, e nel giro di poche ore o giorni l’oggetto è davanti alla nostra porta. Tutto è veloce, efficiente, apparentemente automatico. La sensazione è che dietro ci siano solo macchine, algoritmi, sistemi perfetti. Le persone scompaiono. Questa percezione non resta confinata all’e-commerce.
La portiamo con noi nel lavoro, nei rapporti professionali, nel modo in cui valutiamo il tempo, la presenza e persino la salute degli altri.

L’algoritmo come semplificazione estrema dell’umano

Recentemente ho scritto una riflessione in cui criticavo la trasformazione dell’individuo, con la sua singolarità, complessità e fragilità, in un algoritmo. Un modello semplificato, ottimizzato, misurabile. Le grandi aziende (ma non solo) hanno un bisogno strutturale di semplificare problemi complessi.
È comprensibile: gestire sistemi grandi richiede modelli, metriche, KPI, performance. Il problema nasce quando questa logica viene applicata senza filtro all’essere umano. Sono un ingegnere meccanico, con un dottorato di ricerca.
Nel mio lavoro sono abituato ad affrontare problemi complessi scomponendoli in parti più semplici, isolando cause ed effetti, analizzando fenomeni sovrapposti. È un metodo necessario in ambito ingegneristico.

Ma ciò che funziona per una macchina non funziona automaticamente per una persona.

Eppure oggi vedo questo approccio applicato ovunque: le persone diventano risorse, funzioni, colli di bottiglia, problemi da risolvere o strumenti da ottimizzare e sotto continuo giudizio attraverso indicatori che ne misurano le prestazioni.

Quando smetti di funzionare, diventi un problema

Questa riflessione si è fatta più concreta durante le ultime settimane.
Sono stato operato e, per diversi giorni, costretto a letto, con movimenti limitati e l’obbligo di evitare stress e sforzi. Questa immobilità forzata mi ha rallentato fisicamente, ma ha accelerato il pensiero.
Ho avuto tempo per riflettere su ciò che ho fatto, su ciò che sto facendo e su ciò che potrei fare. Ho letto, osservato, pensato. E soprattutto ho osservato le reazioni del mondo del lavoro intorno a me.

Dal giorno dell’operazione non c’è stato un solo giorno senza messaggi di lavoro.
Il pretesto era spesso umano: “come stai?”. Immediatamente dopo (o prima) arrivava la richiesta: problemi, urgenze, decisioni.

Tutti sapevano che ero immobilizzato a letto.
Tutti erano stati avvisati con largo anticipo della mia assenza.
Avevo anticipato lavoro, organizzato consegne, preparato il terreno. Eppure, per molti, questo non è stato sufficiente.

Il caso che mi ha fatto scattare qualcosa

L’episodio più emblematico è avvenuto pochi giorni fa.
Un collaboratore, non informato della mia malattia, mi ha chiesto una modifica a un disegno tecnico. Gli ho spiegato la situazione: ero stato operato, immobilizzato a letto, impossibilitato a lavorare.
La risposta è stata:

“Ok, spero ti riprenda presto. Ma riesci per questo fine settimana?”

In quel momento è stato chiaro.
Non ero una persona che stava male.
Ero una funzione temporaneamente guasta. Se funziono, risolvo problemi.
Se non funziono, divento io il problema.

Un’osservazione (non statistica, ma significativa)

Ho notato un dettaglio interessante, senza pretendere che abbia valore scientifico.
Le persone che hanno mostrato maggiore attenzione, empatia e reale preoccupazione per la mia salute avevano mediamente meno di 30 anni.
Quelle più distaccate, insistenti, focalizzate solo sul lavoro avevano spesso più di 30 anni.

Non è un giudizio generazionale. È una sensazione, una traccia che mi fa riflettere su cosa ci stiamo portando dietro come modello culturale. La cosa positiva è che forse le nuove generazioni stanno guardando al mondo del lavoro con occhi diversi e, spero, sviluppino anticorpi appropriati per conservare l'empatia verso il prossimo.

Un sistema che non dialoga

Viviamo immersi in sistemi che ci osservano, ci misurano, ci classificano.
Dai social ai dati fiscali, dai censimenti alle abitudini di consumo, tutto confluisce in algoritmi che decidono, o influenzano, come veniamo trattati. La cosa più inquietante non è l’algoritmo in sé.
È il fatto che non possiamo parlarci.

Non possiamo spiegare il contesto.
Non possiamo raccontare una fragilità temporanea.
Non possiamo contrattare il giudizio. E, lentamente, iniziamo a comportarci allo stesso modo anche tra di noi.

Quando la disumanizzazione diventa sistemica

Sarebbe però miope fermarsi al mondo del lavoro.
La disumanizzazione che osservo nelle dinamiche professionali è solo una versione attenuata di qualcosa di molto più grave, che sta avvenendo sotto gli occhi di tutti a livello globale.

I conflitti armati attualmente in corso nel mondo mostrano la stessa logica portata all’estremo: persone ridotte a numeri, vittime trasformate in statistiche, vite umane raccontate come effetti collaterali. In contesti come quello palestinese, ciò che colpisce non è solo la violenza in sé, ma la sua progressiva normalizzazione. La morte viene raccontata in modo asettico, minimizzata, resa astratta. Come se alcune vite valessero meno di altre.

Anche qui il meccanismo è lo stesso: quando un gruppo umano viene percepito come un ostacolo, come un problema da rimuovere, la sua disumanizzazione diventa funzionale. Non si parla più di persone, ma di territori, equilibri geopolitici, interessi strategici. L’individuo scompare, proprio come accade, in forma infinitamente meno drammatica, nei contesti lavorativi quando una persona smette di “funzionare”.

Questo non rende meno legittime le riflessioni sul lavoro, ma le ridimensiona. Ci ricorda che ciò che viviamo ogni giorno è parte di una cultura più ampia, che accetta sempre più facilmente la perdita dell’umanità quando questa intralcia l’efficienza, il controllo o il potere.

Non arrendersi alla disumanizzazione

Quello che voglio ricordare, a chi legge e soprattutto a me stesso, è questo:
non dobbiamo normalizzare tutto questo.

Non dobbiamo accettare che l’essere umano venga ridotto in maniera assoluta e irreversibile a un numero. Non dobbiamo smettere di difendere la singolarità, la lentezza, la vulnerabilità. Combattere la disumanizzazione non è un gesto eroico.
È fatto di piccoli atti quotidiani:

  • rispettare un limite
  • accettare un’assenza
  • riconoscere che una persona non è una funzione

Arrendersi a questo processo significa perdere qualcosa che non possiamo recuperare.
E nessun algoritmo potrà mai restituircelo.

La malattia come atto sovversivo

In un sistema che pretende disponibilità continua, prestazione costante e presenza totale, la malattia diventa qualcosa di più di una semplice condizione fisica: diventa una sorta di atto sovversivo. Essere malati significa interrompere il flusso, spezzare la catena dell’efficienza, sottrarsi, anche solo temporaneamente, alla logica della performance. Non perché lo si voglia, ma perché il corpo lo impone. E questo, oggi, è quasi inaccettabile.

Nel momento in cui non sei operativo, non sei performante, non sei “al 100%”, smetti di essere una risorsa e inizi a essere percepito come un problema.
La fragilità, invece di essere accolta, viene tollerata a fatica, come un errore di sistema. Eppure è proprio lì che si misura l’umanità di un ambiente di lavoro: nella capacità di riconoscere che fermarsi non è una colpa, che ammalarsi non è una scelta, e che il valore di una persona non può coincidere con la sua produttività.

Resistere a questa narrazione, anche solo rifiutandosi di colpevolizzarsi quando ci si ferma, è forse uno dei pochi gesti realmente rivoluzionari che ci restano.

Il Censimento permanente della popolazione e delle abitazioni, promosso annualmente dall’ISTAT, nasce con un obiettivo apparentemente semplice: conoscere quante persone vivono in Italia, in quali tipi di abitazione risiedono e come sono strutturati i nuclei familiari. Quest'anno ho ricevuto la lettera dall'ISTAT che mi ha obbligato a partecipare al censimento. Si è obbligati a rispondere e a farlo in maniera corretta, pena una multa che va dai 250 a 2500 euro. Questa formula mi è sembrata subito anomala, ho deciso quindi di partecipare al questionario in maniera attiva, prendendo appunti e riflessioni su tutte le domande alle quali rispondevo. A valle delle risposte, ho analizzato in maniera dettagliata il questionario. A mio avviso si evince un livello di profondità informativa che va ben oltre la necessità di “contare” individui e case. Le domande, prese singolarmente, sembrano innocue; ciò che suscita interesse – e personalmente preoccupazione – è l'effetto cumulativo: un sistema di rilevazione che, pur rispettando la legge, è in grado di produrre un ritratto estremamente completo della vita delle persone.

Oltre l’anagrafe: le informazioni trasversali

La prima cosa evidente, immediatamente dopo aver iniziato a rispondere, è che il censimento contiene domande che non sono strettamente necessarie al solo scopo dichiarato, ma che contengono tanti piccoli elementi trasversali.

Indicatori indiretti della condizione economica

L’ampiezza dell’abitazione, il numero di stanze, la disponibilità di automobili, di box auto, la presenza di un ascensore nello stabile e persino l’anno di costruzione dell’edificio non servono a stabilire “chi vive dove”, ma a stimare il livello di benessere del nucleo familiare. Se l'intento fosse quello di giudicare sulla sola abitazione dal punto di vista energetico per esempio, sarebbe sufficiente attingere alle informazioni già esistenti e presenti in catasto, chiedere conferma dei metri quadri e della classe energetica dell'edificio. Il reddito in questa fase non viene mai citato. Tuttavia si tratta di elementi che, accumulati e incrociati tra loro, restituiscono informazioni socioeconomiche molto precise.

Routine quotidiane e mobilità individuale

La parte dedicata all'acquisizione di informazioni relative agli spostamenti per studio o lavoro sono estremamente dettagliate. Vengono richiesti orari di uscita da casa, mezzi di trasporto utilizzati, durata del tragitto, luogo di lavoro o studio, frequenza settimanale degli spostamenti. Il livello di dettaglio è tale per cui, ad esempio, laddove ci spostiamo in treno come pendolari per andare a lavoro, bisogna inserire tutti i mezzi che si usano (auto privata + treno + metropolitana). Non è sufficiente inserire il solo mezzo preponderante ma tutti quelli necessari da inizio a fine tragitto. Questi dati a mio avviso permettono di ricostruire vere e proprie abitudini quotidiane, mappandole in maniera precisa. Mi chiedo se queste richieste passino la linea oltre il perimetro legittimo del censimento.

Reti sociali e benessere personale

Si indaga anche sul benessere e in particolare sul livello di soddisfazione della vita, la percezione di sicurezza notturna e la presenza o assenza di amici, parenti o vicini che possano aiutarci qualora ne avessimo bisogno. Questi elementi innegabilmente costruiscono un quadro del supporto emotivo e sociale di chi compila il questionario. Sembra più un'indagine sociologica, ma non ho conoscenze o strumenti per poter giudicare sull'impatto che le risposte possono avere.

Storia migratoria personale e familiare

Vengono chiesti naturalmente i dati relativi alla propria cittadinanza, ai quali vengono aggiunti eventuali passaggi (migrazioni ad esempio), luogo di nascita dei genitori, trasferimenti all'estero. Queste informazioni potrebbero essere anch'esse dedotte dall'ufficio anagrafe; inserirle all'interno di questo contesto rafforza la capacità di tracciamento e individuazione del soggetto. Di anonimo a questo punto è rimasto ben poco.

Competenze digitali

Vengono fatte domande apparentemente innocue sull'uso di internet, sulla frequenza di utilizzo, sulla necessità di assistenza nella compilazione dello stesso questionario. Questo restituisce indubbiamente informazioni sulle * abilità digitali *, e quindi su quanto si potrebbe essere vulnerabili sotto questo profilo. Domande interessanti, ma non posso fare a meno di chiedermi quanto attinenti allo scopo del questionario.

A valle di queste domande per me il quadro è chiaro: la struttura complessiva del questionario mira non solo a conseguire gli scopi dichiarati, ma anche a capire e tracciare come viviamo, come ci muoviamo, come stiamo e quale è il nostro livello di integrazione nel tessuto sociale.

Analisi sui rischi per la privacy: quando i dati diventano profili.

Dopo aver compreso la portata e ampiezza delle informazioni, ora è necessario capire quali sono i rischi connessi. L'ISTAT naturalmente opera in maniera legittima e secondo normativa, ma questo non annulla i rischi strutturali generati dalla raccolta granulare e quantitativa dei dati raccolti.

Profilazione involontaria dettagliata

Immaginate di chiacchierare con un amico, in un piccolo paese.

Conosci quella ragazza...quella che lavora all'università come ricercatrice. La mamma fa la maestra, il papà pensionato, hanno una villetta su in paese.

In un piccolo paese, l'amico potrebbe rispondere con altissima probabilità beccando il nome al primo o secondo tentativo. Combinando informazioni su lavoro, abitudini di vita e condizioni abitative, rapporti familiari, salute percepita e benessere psicologico, il questionario produce un profilo estremamente completo di noi. Ci descrive in maniera multidimensionale e completa all'interno del nostro contesto di vita.

Combinando i dati di età, professione, residenza, struttura familiare e livello di istruzione, in particolare all'interno di comuni di piccole dimensioni è possibile essere identificati anche senza l'ausilio del nome e cognome. Più dettagli ci sono, meno siamo anonimi.

Function Creep

Non ricordavo questo inglesismo specifico, l'ho trovato durante una ricerca online mentre approfondivo il discorso sulla privacy. Questo termine indica quando l'uso di una tecnologia (in questo caso l'uso di dati) inizialmente definito per scopi specifici dichiarati, viene riutilizzata per finalità seppur legittime ma non previste originariamente. L'insieme dei dati potrebbe essere impiegato per altri fini o altre analisi, come politiche territoriali, indagini sulla qualità della vita, studi sulle vulnerabilità. Il punto critico per me non è l'uso in sé dei dati, quanto la consapevolezza di chi compila il questionario. Difficilmente un cittadino medio se ne rende conto, e comunque non può fare nulla perché obbligato dalla legge.

Collegamento potenziale con altri database pubblici

Anche se per definizione il censimento è isolato da altre basi dati, l'Italia dispone di achivi centralizzati. L'esistenza di molti punti di contatto rende teoricamente possibile correlare le informazioni provenienti da fonti diverse, aumentando il livello di dettaglio del profilo personale.

Conseguenze in caso di data breach

Data breach della pubblica amministrazione italiana ahimè sono abbastanza comuni. Un attacco in questo contesto implicherebbe non solo la grave diffusione di dati anagrafici, ma anche di routine quotidiane, condizioni abitative, economiche e sociali, vulnerabilità sociali e psicologiche. Si tratterebbe di materiale estremamente sensibile e sfruttabile per frodi o manipolazioni sociali malevole.

Conclusioni: La quantità che diventa qualità

Il censimento ISTAT dal punto di vista legislativo non è illegittimo. Il problema non sono le domande in se, ma la cumulata delle domande. Ogni domanda è un pezzo del puzzle. Una volta completato, viene fuori un'immagine nitida di te, una radiografia completa della tua vita. Questo pone a mio avviso due questioni principali: Quanto le persone comuni sono consapevoli del livello di dettaglio dei dati che si stanno fornendo? E' “proporzionato” l'obbligo, in termini di poteri dello stato, di raccolta di un tale quantitativo di dati vista la finalità dichiarata? Lo studio della società in profondità è legittimo, ma questo richiede trasparenza. In un mondo dove i propri dati digitalizzati rappresentano ricchezze per aziende a discapito di ignari cittadini, diventa fondamentale dibattere pubblicamente sul rapporto che c'è tra conoscenza statistica e diritti individuali.