(Ep-) IDEMIA e la realtà aumentata

(ep-)idemia

IDEMIA è una società tecnologica multinazionale con sede a Courbevoie, Francia. Fornisce servizi di sicurezza relativi all’identità e vende riconoscimento facciale e altri prodotti e software per l’identificazione biometrica a società private e governi. [1]

iscriviti anche al canale Youtube, per seguire tutte le anteprime.

Video e articoli correlati che aggiungono altri tasselli al puzzle:

L’AVVENTO DELL’ HOMO TECHNOLOGICUS: PAN-DEMOS PROJECT 

 

IDEMIA è una società tecnologica multinazionale con sede a Courbevoie, Francia. Fornisce servizi di sicurezza relativi all’identità e vende riconoscimento facciale e altri prodotti e software di identificazione biometrica ad aziende private e governi. 

Storia aziendale

Morpho

Morpho Systèmes è stata creata nel 1982, poi assorbita da Sagem nel 1993. Nel 2005, quando è stata creata Safran , Sagem è diventata Sagem Défense Sécurité e nel 2007 è stata creata una società separata, Sagem Sécurité. È stato ribattezzato Morpho nel 2010 (il nome deriva da Morpho Systems SA, una società di identificazione delle impronte digitali degli anni ’80 [2] ), poi Safran Identity & Security nel 2016.

Le farfalle morfo comprendono molte specie di farfalle neotropicali sotto il genere Morpho . Questo genere comprende oltre 29 specie accettate e 147 sottospecie accettate , che si trovano principalmente in Sud America, Messico e America centrale . il nome morpho , che significa “cambiato” o “modificato”, è un epiteto .

Fonti recuperate

ESTRATTO:

L’FBI ha registrato più di 390.000 ricerche di riconoscimento facciale di documenti di patenti di guida statali e altri database federali e locali dal 2011, mostrano i registri federali. Ma i membri del Congresso quest’anno hanno espresso rabbia per la mancanza di regolamentazione della tecnologia e il suo potenziale di discriminazione e abuso. Il rapporto federale conferma i risultati precedenti di studi che mostrano tassi di errore altrettanto sbalorditivi. Aziende come Amazon avevano criticato quegli studi, affermando di aver esaminato algoritmi obsoleti o di aver utilizzato i sistemi in modo improprio. Uno di quei ricercatori, Joy Buolamwini, ha detto che lo studio è stato una “confutazione globale” per gli scettici di ciò che i ricercatori chiamano “pregiudizio algoritmico”. “Prestazioni differenziali con un fattore fino a 100 ?!” ha detto al Washington Post in una e-mail giovedì. Lo studio, ha aggiunto, è “un promemoria che fa riflettere che la tecnologia di riconoscimento facciale ha conseguenti limitazioni tecniche oltre a rappresentare una minaccia per i diritti civili e le libertà”. Gli investigatori hanno affermato di non sapere cosa abbia causato il divario, ma speravano che i risultati, come ha affermato in un comunicato l’informatico del NIST Patrick Grother, si sarebbero dimostrati “preziosi per i responsabili politici, gli sviluppatori e gli utenti finali nel pensare ai limiti e all’uso appropriato di questi algoritmi”.

E PROSEGUE:

Gli algoritmi provenivano da una serie di importanti aziende tecnologiche e appaltatori di sorveglianza, tra cui Idemia, Intel, Microsoft, Panasonic, SenseTime e Vigilant Solutions. In particolare assente dalla lista era Amazon, che sviluppa il proprio software, Rekognition, in vendita alla polizia locale e agli investigatori federali per aiutare a rintracciare i sospetti. en Grother, il ricercatore capo del NIST, ha detto che altre società con sistemi basati su cloud erano state in grado di inviare i loro algoritmi, inclusa Microsoft, che ha detto “ci ha inviato un software molto capace e molto affidabile”. Di Amazon, ha aggiunto: “La nostra prova resta aperta se decidono di partecipare”. Il team del NIST ha testato i sistemi con circa 18 milioni di foto di oltre 8 milioni di persone, tutte provenienti da database gestiti dal Dipartimento di Stato, dal Dipartimento per la sicurezza interna e dall’FBI. Nessuna foto è stata scattata dai social media, dalla videosorveglianza o da Internet aperto, hanno detto. Il test ha studiato sia il funzionamento degli algoritmi sulla corrispondenza “uno a uno”, utilizzata per sbloccare un telefono o la verifica di un passaporto, e la corrispondenza “uno-a-molti”, utilizzata dalla polizia per cercare il volto di un sospetto su un vasto set di foto della patente di guida. Gli investigatori hanno testato sia i falsi negativi, in cui il sistema non riesce a rendersi conto che due facce identiche sono le stesse, sia i falsi positivi, in cui il sistema identifica due volti diversi come uguali: un pericoloso fallimento per la polizia, che potrebbe finire per arrestare una persona innocente.

VICTORIA ha ricevuto finanziamenti dal programma di ricerca e innovazione Horizon 2020 dell’Unione Europea nell’ambito della convenzione di sovvenzione n. 740754.
L’unica responsabilità di questa pubblicazione è dell’autore. L’Unione europea e l’Agenzia esecutiva per la ricerca non sono responsabili dell’uso che potrebbe essere fatto delle informazioni in essa contenute.
 
 

 

Proseguirà con il secondo articolo.

 

quello che da una buona speranza è la denuncia di Amnesty :

 

Supporta Indipendence Tube con una piccola donazione

7% raccolto
Seleziona il metodo di pagamento
Informazioni personali

Termini

Totale donazione: €1.00

Iscriviti a Indipendence tube tramite email

Inserisci il tuo indirizzo e-mail per iscriverti, e ricevere via e-mail le notifiche di nuovi post.

Unisciti a 297 altri iscritti