Strategie d’infiltrazione della sorveglianza biometrica nelle nostre città e nostre vite
Dal 2019, Technopolice documenta e analizza il dispiegamento illegale di tecnologie di intelligenza artificiale che cercano di aumentare il potere repressivo della polizia nello spazio pubblico.
In quattro anni queste tecnologie sono state perfezionate e i loro promotori – aziende e rappresentanti delle politiche di sicurezza – stanno cercando di uscire da questa scomoda posizione illegale. Mentre il dispiegamento di queste tecnologie di IA (Intelligenza Artificiale) poliziesche è avvenuto nella più totale illegalità, la legge francese sui Giochi Olimpici e Paralimpici del 2024 ha proprio lo scopo di avviare questa legalizzazione della sorveglianza biometrica, a partire dalla VSA: la videosorveglianza algoritmica. Ma per arrivare qui, l’industria ha implementato un’intera gamma di strategie per rendere accettabili queste tecnologie. Analizziamoli.
di La Quadrature Du Net
Panoramica delle principali tecnologie di sorveglianza biometrica
Prima di tutto, ricordiamo la vera natura delle tre tecnologie di punta delle aziende nel mercato della sorveglianza biometrica, che combinano a) la cattura dei nostri attributi (colore di vestiti, borse, copricapo, ecc.), b) delle nostre caratteristiche fisiche (forme del nostro corpo, andatura…) e c) intelligenza artificiale.
VSA
La videosorveglianza algoritmica consiste nell’automatizzare il lavoro di analisi delle immagini di videosorveglianza tramite software, basato su algoritmi di “computer vision” (il campo dell’intelligenza artificiale specializzato nell’elaborazione delle immagini), che è responsabile di produrre notifiche quando rileva un evento per cui è addestrato a riconoscere, generalmente in vista di un intervento della polizia. Questa tecnologia viene utilizzata anche per scopi privati, ad esempio per rilevare intrusioni nella proprietà privata o per monitorare i clienti dei supermercati. Gli algoritmi volti a riconoscere le informazioni su un’immagine sono generalmente basati sull’apprendimento automatico, detto anche “machine learning”. Per poter effettuare il riconoscimento su questi flussi video, è necessario tradurre le informazioni (numero di pixel, posizione, colore e loro evoluzione nel tempo) in informazioni statistiche più comprensibili e manipolabili chiamate caratteristiche. Abbiamo elencato in modo non esaustivo l’implementazione di questa tecnologia in più di 200 città francesi. Ad esempio, il VSA può rilevare “eventi anomali” che sono in realtà comportamenti innocui come assembramenti o essere statici, ma anche seguire il percorso di una persona o leggere targhe.
ASA
Il monitoraggio Audio Algoritmico funziona allo stesso modo di VSA ma utilizza segnali audio anziché flussi video. A differenza della VSA, che si basa sul parco esistente di videosorveglianza, questa tecnologia richiede l’installazione di microfoni nelle strade. La prima città francese nel mirino dei collettivi che si battevano contro la tecnopolizia era Saint-Étienne, dove, con il pretesto della sperimentazione, il comune aveva progettato di installare diverse decine di sensori sonori in un quartiere della città per rintracciare i rumori” “sospetti” (clacson, vetri rotti, bombolette spray)… Già nel 2019 abbiamo potuto analizzare la gravità del progetto, che è stato infine annullato a seguito di una grande mobilitazione degli abitanti e di un avvertimento della CNIL (garante privacy).
Ciò non ha impedito alla città di Orléans di lanciare un progetto simile nel 2021, contro il quale La Quadrature ha presentato ricorso, ancora al vaglio del tribunale.
Riconoscimento facciale
Il riconoscimento facciale funziona grazie agli stessi algoritmi di “computer vision” di VSA, ovvero apprendimento statistico che mira ad analizzare e determinare le correlazioni e i parametri identici tra le immagini. In questa applicazione, gli algoritmi sono limitati alle caratteristiche facciali, quindi possiamo considerare il riconoscimento facciale come una sottocategoria di VSA.
In Francia, il riconoscimento facciale è già ampiamente utilizzato dalla polizia attraverso il fascicolo di polizia per l’elaborazione della storia giudiziaria (TAJ/ casellario giudiziario). In questo contesto, il riconoscimento facciale viene utilizzato per creare un collegamento diretto tra il volto di una persona e la sua identità civile registrata nel TAJ. Questo utilizzo consente agli agenti di confrontare, a posteriori, le immagini della videosorveglianza o dei social network con oltre otto milioni di foto di persone contenute in questo file.
Inoltre, abbiamo potuto osservare diversi tentativi di installare il riconoscimento facciale negli spazi pubblici in Francia. Ad esempio, la regione PACA (Sud Francia) ha voluto istituire varchi di riconoscimento facciale in due scuole superiori, a Nizza e a Marsiglia nel 2018. Abbiamo presentato ricorso e il dispositivo è stato ritenuto illegale nel 2020 da parte della Segreteria del Tribunale di Marsiglia e dal CNIL perché totalmente sproporzionato.
Le aziende che offrono soluzioni VSA sono altrettanto in grado di eseguire il riconoscimento facciale. Ufficialmente, la maggior parte di loro afferma di non utilizzare le caratteristiche biometriche facciali perché subirebbe troppa cattiva pubblicità, a causa del massiccio rifiuto del riconoscimento facciale nella società. Tuttavia, utilizzano molte altre caratteristiche biometriche (analisi dei corpi e dei loro movimenti) che consentono loro di vendere i loro strumenti VSA ai comuni. Inoltre, molte di queste società offrono congiuntamente VSA e riconoscimento facciale nei loro servizi, è il caso ad esempio di Atos, Idemia, Thales, Axis, Avigilon o Two-I.
Da tempo denunciamo lo stretto legame tra tutte le tecnologie di sorveglianza biometrica. Se il VSA dovesse essere legalizzato, ai promotori del riconoscimento facciale basterebbe spiegare che si tratta solo di una particolare applicazione del VSA per farlo accettare a sua volta, come estensione naturale o logica. Consentirne uno significa accettarli tutti, quindi è estremamente importante non lasciare che nessuna di queste tecnologie prenda piede.
Strategie per accettare e legalizzare la sorveglianza biometrica
La normativa vigente prevede un’ampia tutela dei dati personali e in particolare dei dati biometrici. Abbiamo spiegato in questo articolo[1], con il GDPR e la Direttiva Polizia-Giustizia, la sorveglianza biometrica è attualmente rigorosamente illegale. I fautori della sorveglianza biometrica sono consapevoli di questa illegalità. Per aggirare questo ostacolo legale, usano diverse strategie per far esistere queste tecnologie, renderle accettabili e, in ultima analisi, legalizzarle.
Poiché queste tecnologie sono utilizzate in totale opacità, ottenere informazioni su queste strategie ha richiesto l’utilizzo di vari mezzi: richieste di accesso ai documenti amministrativi (ad esempio per i bandi di gara e i verbali dei consigli comunali), analisi della comunicazione aziendale o ricezione di informazioni da parte di informatori (in particolare dalla nostra piattaforma sicura per le fughe di notizie). Di recente, abbiamo anche ottenuto dalla CNIL le risposte delle aziende alla consultazione che aveva avviato un anno fa sull’argomento, che riportiamo e pubblichiamo qui, in quanto sono la chiara illustrazione di queste tecniche di accettabilità[2].
La sperimentazione: far credere alla sorveglianza effimera
La sperimentazione è stata una delle prime strategie messe in atto per confrontare il pubblico con la sorveglianza biometrica e abituarlo così a questa tecnologia. Il termine “sperimentazione” permette di dare una sensazione di effimera e reversibilità della loro realizzazione.
Già nel 2018 abbiamo assistito a un tentativo di installare cancelli di riconoscimento facciale all’ingresso di due scuole superiori di Nizza e Marsiglia, con il pretesto della sperimentazione. Allo stesso modo, la città di Nizza ha sperimentato nel 2019 un sistema di riconoscimento facciale durante il suo carnevale, esperimento i cui risultati non sono mai stati oggettivamente comunicati.
Per giustificare la violazione del GDPR e della Direttiva Polizia-Giustizia, le argomentazioni consistevano nel dire che l’esperimento di riconoscimento facciale era “limitato nel tempo” e basato sull’esplicito consenso dei volontari. Questa strategia si riduce a far esistere progetti di sorveglianza biometrica “ammorbidendoli” con l’immagine sperimentale e consente ai promotori della sorveglianza biometrica di ancorare queste tecnologie nel territorio, per renderle normali nei nostri ambienti. Una volta che queste tecnologie hanno un’esistenza fisica, è molto più facile perpetuarle e quindi giustificare la loro legalizzazione.
Un gran numero di aziende promuove questa strategia nelle risposte alla consultazione del CNIL. Ad esempio, la lobby della videosorveglianza AN2V (Associazione Nazionale per la “Videoprotezione”) invoca un “diritto alla sperimentazione” quando l’azienda Deveryware giudica che “i test a grandezza naturale sono anche una necessità per verificare la robustezza del prodotto, la sua efficacia e efficienza”.
Ritroviamo esattamente lo stesso processo di accoglimento nel disegno di legge sui Giochi Olimpici, che prevede la “sperimentazione” in eventi ricreativi, sportivi e culturali. Il governo fatica a nascondere il desiderio di installare la VSA nella vita di tutti i giorni visto che questo “esperimento” durerebbe quasi due anni!
La dialettica del progressismo contro i reazionari
Le tecnologie di sorveglianza biometrica si basano su algoritmi di “apprendimento automatico”, che sono relativamente nuovi e molto popolari, anche al di fuori del settore della sorveglianza. Incarnano quindi la novità, il “progresso” e un futuro cosiddetto “ineluttabile” (si pensi all’enfasi sulle città smart o le abitazioni smart). Molte città, anche molto piccole – come Moirans nell’Isère – vogliono adottarlo per darsi un’immagine di progresso e modernità. Insieme alla strategia della sperimentazione, è abbastanza facile per i suoi promotori presentare gli attivisti contrari alla sorveglianza biometrica come reazionari desiderosi di “tornare indietro nel tempo”, anche se chiedono solo la sospensione di progetti illegali e inizialmente presentati come effimeri.
Per evidenziare questi benefici, le aziende si stanno armando di un discorso pubblicitario sempre più gratificante nei confronti dei propri prodotti presentandoli come efficacissimi, anche “tecnomagici”, nel risolvere qualsiasi tipo di problema. Pertanto, nelle risposte alla CNIL, un gran numero di attori presenta la VSA come avente vantaggi “ovvi” per la sicurezza e sostiene che rifiutarli sarebbe dannoso per la società. Tuttavia, l’evidenza di questi benefici non è mai stata dimostrata.
Per l’Union des Transports publics et Ferroviaires (che vede la VSA come un “bene comune”, l’addetto alle relazioni pubbliche era chiaramente molto ispirato), “l’implementazione di nuovi sistemi video aumentati è importante: offre una nuova capacità di anticipazione e reazione di operatori del servizio pubblico non solo in linea con le realtà dell’operatività quotidiana in termini di trasporto di massa, ma anche, in linea con i rischi del nostro tempo e le aspettative di una “convivenza migliore” del cittadino-viaggiatore.
Per la società Idemia (leader di mercato nel riconoscimento facciale), l’interesse della videosorveglianza è “indiscutibile” perché la VSA “consentirebbe di ridurre il numero di agenti responsabili dello sfruttamento dei flussi di telecamere (…) a vantaggio degli agenti sul campo, più rapidamente (strategia degli incendi emergenti) e quindi più direttamente al servizio dei cittadini”. La società afferma persino che i pregiudizi algoritmici – per la loro natura presumibilmente quantificabile e controllabile – sarebbero inferiori ai pregiudizi umani. Questo lo porta a sognare “sale video con schermi spenti, e quindi riconquistata la libertà di andare e venire” perché “ogni telecamera avrà poi l’efficienza di una ronda esperta, senza avere le potenziali derive [del pregiudizio umano]”.
Questo discorso perentorio e fuorviante del settore – la VSA avrebbe un “interesse indiscutibile”, sarebbe del “bene comune”, permetterebbe di “vivere meglio insieme” ecc.
Il riconoscimento facciale è poi uno strumento strategico molto utile, noto e da tempo perché molto rappresentato nella narrativa distopica, evoca istantaneamente la sorveglianza di massa: è nell’immaginario collettivo la “linea rossa” da non oltrepassare. Riconoscendo questo, le aziende stanno cercando di creare una differenziazione tra riconoscimento facciale pericoloso e altre tecnologie di sorveglianza biometrica – ASA e VSA – che sarebbero molto meno severe in confronto, e quindi accettabili.
La scelta delle parole utilizzate per denominare e descrivere queste tecnologie rappresenta una questione strategica importante per la loro accettabilità da parte della popolazione. Ogni azienda sviluppa quindi un intero discorso di marketing migliorativo e sdrammatizzante volto a eclissare la natura biometrica della loro sorveglianza e presentarla come minore rispetto ad altre tecnologie più serie. Nelle risposte inviate dalle aziende alla CNIL durante la sua consultazione sulla VSA, troviamo molti di questi elementi di linguaggio. Ad esempio, la società dell’Ile-de-France Alyce afferma che “non può esserci alcuna premessa di pericolosità” riguardo alla VSA, negando così tutti i pericoli dell’utilizzo di dati biometrici per la sorveglianza. Riconosce che molti dei sistemi VSA presentano “un alto rischio di intrusione” ma cerca di dare loro priorità specificando che “non tutti presenteranno un alto livello di rischio, in particolare in base alla natura identificativa delle immagini acquisite, al livello di identificazione consentita dalla cattura”, e cita come esempio i dispositivi differiti o quelli sulle strade “perché in particolare non suscettibili di rivelare dati sensibili”. Va ricordato, però, che il monitoraggio delle strade e in particolare l’ANPR (la tipologia di VSA che consente la lettura automatizzata delle targhe) fornisce un identificatore univoco collegabile all’identità civile del conducente del veicolo.
Allo stesso modo, la società Veesion (che si occupa di rilevamento dei furti) minimizza la sua tecnologia confrontandola con altre nella sua presentazione: “La tecnologia di Veesion si basa esclusivamente su un’elaborazione algoritmica di gesti e atteggiamenti. L’azienda quindi non utilizza il riconoscimento facciale, il tracciamento dei clienti o la registrazione dell’identità.
Queste strategie spesso si rivelano piuttosto efficaci. La scelta di fare del riconoscimento facciale uno spaventapasseri che attira tutta la luce, quando è soprattutto la VSA ad essere al centro del testo della legge olimpica, cancellata fino al governo, che ha precisato al comma III dell’articolo 7 che l’esperimento non includeva il riconoscimento facciale. Anche il presidente della CNIL è caduto nella trappola sostenendo che l’esclusione del riconoscimento facciale fosse una garanzia.
L’urgenza per il momento non è parlare di riconoscimento facciale ma rendere visibili le conseguenze del VSA, al centro dell’articolo 7 della legge: il riconoscimento facciale è massicciamente rifiutato dalla popolazione perché i suoi pericoli sono noti, questo è tanto meno il caso con VSA, che tuttavia comporta pericoli simili. È fondamentale far conoscere questa tecnologia e dimostrare la nostra opposizione. Non esitate a chiamare i deputati (qui vi spieghiamo come fare) per metterli al corrente della gravità del testo che stanno votando.
Opportunismo: cogliere ogni evento o notizia per promuovere la sorveglianza biometrica
Consapevoli che con uno spazio di dibattito aperto a lungo termine, le misure per aumentare la sorveglianza sarebbero fortemente respinte dalla popolazione, i promotori della sorveglianza biometrica sfruttano ogni occasione possibile per affrettarne la legalizzazione. Si tratta di una strategia con cui ci confrontiamo frequentemente: l’epidemia di covid-19 è stata, ad esempio, un pretesto per l’utilizzo dei droni, l’implementazione del monitoraggio dei nostri spostamenti e un’accelerazione della raccolta dei dati sanitari.
L’evento qui sfruttato, i Giochi Olimpici, è già stato utilizzato in passato per estendere la sorveglianza. Ad esempio, per le Olimpiadi di Tokyo, il governo giapponese ha varato una tanto attesa legge “anti-cospirazione” per sopprimere i gruppi militanti e sindacali, e fortemente criticata in particolare dalle Nazioni Unite per quanto riguarda le violazioni delle libertà che ha creato e i poteri di controllo conferiti allo Stato. Più recentemente, il Qatar ha implementato un ampio sistema di sorveglianza per le persone che partecipano alla Coppa del Mondo FIFA nel 2022.
Il vantaggio, in termini di accettabilità, di utilizzare un evento eccezionale come le Olimpiadi è quello di rafforzare la sensazione di effimero e sperimentazione. Nelle risposte alla CNIL troviamo sulla bocca di quasi tutti la scadenza per i Mondiali di rugby 2023 e i Giochi di Parigi 2024
Eufemizzazione: evidenziare gli usi meno preoccupanti
Gli algoritmi utilizzati nella sorveglianza biometrica hanno applicazioni molto più ampie rispetto alla sola analisi dei corpi umani. Se prendiamo l’esempio di VSA, gli algoritmi di visione artificiale possono benissimo essere utilizzati su immagini che non contengono attività umana, e quindi non utilizzano dati biometrici, ad esempio per rilevare prodotti difettosi alla fine di una linea di produzione.
Una strategia particolarmente avanzata dai promotori della sorveglianza biometrica è quella di avvicinarla ad altri usi che sembrano molto meno problematici. Generalmente evidenziano situazioni in cui l’attività umana è meno percepibile: ad esempio, individuare rifiuti abbandonati sui marciapiedi o bagagli abbandonati. Poiché l’oggetto del rilevamento non è umano, è facile fingere che si tratti di un rilevamento simile al rilevamento di un’anomalia in una linea di produzione e ignorare il fatto che, per ottenere questo rilevamento, l’algoritmo sonda continuamente i flussi video di della strada, o dello spazio pubblico dove si trova l’oggetto. Con questa tecnica le aziende si guardano bene dal chiarire che, anche per localizzare un oggetto, gli esseri umani vengono costantemente analizzati.
Pertanto, per giustificare l’uso corretto del VSA, l’AN2V cita operazioni di elaborazione che “non hanno algoritmo per il rilevamento delle persone: rilevamento di animali vaganti, misurazione degli attraversamenti di animali, apertura automatica di un terminale su una strada pedonale al rilevamento di un veicolo di emergenza , visualizzazione di un messaggio o comando di un dispositivo (semaforo rosso, dissuasore) basato sulla misura della velocità, ecc. “. Per la RATP, “migliorare il potere di analisi di un sistema di protezione video non distorce né modifica la portata del video [utilizzato] per molti anni” perché in ogni caso, “che il rilevamento sia di ‘origine umana o algoritmica’, l’azione della polizia o della RATP, sarebbero “identici”.
Un altro esempio è quando il sindaco di Nizza ha portato la gente a credere l’anno scorso che il sistema VSA che voleva mettere in atto elaborasse solo dati “generali” e non dati biometrici (il che è falso), al fine di minimizzare ciò che l’algoritmo stava effettivamente facendo.
Le aziende ricorrono anche a giochi retorici e circonlocuzioni
La città di Orléans, per esempio, ha tentato di spacciare l’audiosorveglianza algoritmica impiantata nelle sue strade dalla società Sensivic per un semplice “rilevatore di vibrazioni dell’aria”. Questa tecnologia, in realtà basata sul posizionamento di microfoni nelle strade accoppiata a software di analisi algoritmica, funziona come VSA e riconoscimento facciale sull’analisi dell’attività umana per identificare grida o rumori vari. La città di Orléans, con questa piroetta, cercava di far dimenticare che questa sorveglianza si basava sull’analisi dei dati personali e quindi mirava a sfuggire al GDPR. Allo stesso modo, l’AN2V menziona “rilevamento di anomalie sonore” o “firme sonore”, tanti termini tecnici destinati a camuffare che si parla di intercettazioni di persone.
Neutralizzazione della tecnologia
Un’altra retorica che abbiamo incontrato molto a La Quadrature è, quando si denuncia l’uso di una tecnologia che rafforza la sorveglianza, sentirsi dire che questo strumento avrebbe un carattere cosiddetto neutrale e imparziale. Le tecnologie vengono quindi presentate come semplici ausili tecnici, software senza conseguenze.
Per quanto riguarda il VSA, la strategia consiste quindi nell’evidenziare la decisione finale dell’umano e presentare il software come un semplice “ausilio decisionale” con una funzionalità di “rimozione del dubbio”. Le aziende poi insistono sul fatto che la vera decisione verrebbe presa dall’uomo alla fine della catena, e che la tecnologia sarebbe solo uno strumento neutrale che non influenzerebbe in alcun modo l’esito del monitoraggio.
Ad esempio, per l’ACN, “questa tecnologia può aiutare a rilevare situazioni che potrebbero portare a una violazione, ma, ad oggi, non prende una decisione finale automatizzata. Si tratta di un semplice ausilio decisionale che lascia all’uomo la libertà di controllare/confermare/smentire. “. Stessa cosa all’Agorà (un club di direttori della sicurezza), “questi rapporti vengono poi convalidati o meno dall’azione umana. La tecnologia utilizzata in questo contesto interviene quindi a monte, come supporto all’agire umano” o l’AN2V: “Solo lo sguardo e l’interpretazione umana considera o meno un’azione o un procedimento. Siamo qui in un caso di supporto alle decisioni”.
In realtà, questo lavoro di “rilevamento di situazioni” svolto dal software presuppone di aver scelto a monte, da un lato, gli eventi rilevanti da annotare e, dall’altro, i criteri rilevanti per rilevare e trovare tali eventi su una foto . Pertanto, durante il processo di costruzione di questi algoritmi sorgono molte decisioni di grande impatto che rivelano scelte politiche e morali. Infatti, in modo identico a quanto denunciamo per i CAF, gli algoritmi lavorano traducendo e imitando decisioni e soggettività umane, contenute anche all’interno dei data set che vengono forniti agli algoritmi per l’apprendimento. Niente è neutrale nel VSA.
Conclusioni
Alla fine, tutte queste strategie hanno una conseguenza: depoliticizzare la sorveglianza, farne un oggetto banale e inevitabile, mascherarne la vera natura. Vorremmo riderci sopra, ma cosa dire quando vediamo che alcune aziende come Veesion o ACN rimpiangono la natura “ansiogena” dell’analisi del CNIL quando evoca la versatilità delle tecnologie o il “cambio di natura e portata” delle telecamere? O quando la SNCF richiede a questa stessa CNIL di fornire prove e studi quando sottolinea solo “la pericolosità delle tecnologie [VSA]” ed evoca la “sensazione di sorveglianza generalizzata”? Questa negazione di ciò che rappresenta la sorveglianza, di ciò che ha provocato nella storia, dei motivi per cui cinquant’anni fa si è cercato di limitarla, è vertiginosa. La sorveglianza è stata e sarà sempre uno strumento di potere degli Stati. Negare che la raccolta, l’organizzazione e la razionalizzazione delle informazioni su una popolazione sia una fonte di controllo per chi le detiene è una manovra non solo cinica ma anche pericolosa e rivela la perdita di orientamento politico di un gran numero di attori. Perché non ci si può meravigliare che queste pratiche sfacciate provengano da società capitaliste che non hanno altro obiettivo se non quello di fare profitto (e non solo). Ma cosa dire quando troviamo tutte queste strategie e discorsi di industriali in bocca a ministri e funzionari eletti, sapendo che in uno stato di diritto che si rispetti, tutto il potere statale deve essere controllato e limitato? Combattiamo da anni contro la sorveglianza abusiva e il dispiegamento del controllo di massa nello spazio pubblico. Oggi osserviamo in modo inedito da un lato il significato di un mercato della sicurezza tentacolare, che vede in ogni offerta commerciale una buona opportunità da cogliere, e dall’altro i governi che rispondono senza battere ciglio anche se la domanda non esiste e i pericoli sono reali. Queste manovre devono essere denunciate. Perché quando diventano evidenti, cancellano dalla nostra memoria collettiva tutti gli esempi passati e presenti di abusi del potere statale, sorveglianza e repressione delle popolazioni. Partecipano allo minare l’eredità delle lotte democratiche che ci permettono di lottare contro l’abuso di potere e l’autoritarismo.
Lottiamo contro questo mondo di tecnopolizia, combattiamo contro l’articolo 7!
NB: Osservatorio Repressione ha già pubblicato tre articoli di questa importante associazione francese: 1) https://www.osservatoriorepressione.info/cosa-la-videosorveglianza-algoritmica-illegale/; 2) https://www.osservatoriorepressione.info/rilancio-del-business-della-videosorveglianza-automatizzata/; 3) https://www.osservatoriorepressione.info/denuncia-collettiva-la-tecnopolizia/
Che tutti i militanti conoscano questi aspetti della tecnopolizia e che gli avvocati democratici riescano a creare anche in Italia la capacità di resistenza a questa deriva sicuritaria e di vile business delle tecnologie per la repressione
[1] https://www.osservatoriorepressione.info/cosa-la-videosorveglianza-algoritmica-illegale/;
[2] Le altre risposte pervenute e non citate nell’articolo sono disponibili qui: quelle dell’associazione 810, la lobby AFEP, la città di Cagnes-sur-mer, Cerema (Centro studi e competenze sui rischi, l’ambiente, la mobilità e lo sviluppo ), il CNPEN (Comitato Nazionale Pilota di Etica Digitale), Décathlon, il Difensore dei Diritti Difensore dei diritti, l’impresa delegata alla protezione dei dati presso il Ministero dell’Interno, la Delegazione alla protezione dei dati (DPD) della Città ed Eurometropoli di Strasburgo, il GPMSE (Gruppo professionale delle professioni di sicurezza elettronica), Île-de-France Mobilités, la città di Le Havre, la città di Neuilly -Plaisance, PERIFEM (un gruppo che riunisce le principali catene di vendita al dettaglio, l’impresa Pizzorno, l’impresa Quantaflow, la Renaissance Il thinktank Renaissance Numérique, l’impresa Samsara, il gruppo Transdev, la città di Nice e l’impresa Wintics.
da mediapart.fr
traduzione e note a cura di Turi Palidda
Ti è piaciuto questo articolo? Infoaut è un network indipendente che si basa sul lavoro volontario e militante di molte persone. Puoi darci una mano diffondendo i nostri articoli, approfondimenti e reportage ad un pubblico il più vasto possibile e supportarci iscrivendoti al nostro canale telegram, o seguendo le nostre pagine social di facebook, instagram e youtube.
ABUSI IN DIVISACAPITALISMO DELLA SORVEGLIANZAintelligenza artificiale