Articoli

Quali sono i segreti del riconoscimento facciale? Come si usa?

Che la sicurezza informatica dei nostri dispositivi, e dei dati contenuti al loro interno, passi dalla biometria non è una novità. E proprio nella biometria risiedono i segreti del riconoscimento facciale. Da anni i produttori di smartphone – Apple prima degli altri – realizzano dispositivi dotati di sensore per impronte digitali.

Si sfiora il pulsante con un dito per sbloccare il telefono oppure autorizzare pagamenti dallo smartphone grazie ad app come Apple Pay o Android Pay. Ma oltre a presentare dei limiti applicativi, questa tecnologia ha mostrato delle falle non del tutto secondarie. Al momento, la tecnologia più quotata è quella del riconoscimento facciale.

Bisogna riconoscere che il riconoscimento facciale non è esattamente una tecnologia così nuova e innovativa. Le prime sperimentazioni possono essere datate ai primi Anni Sessanta del secolo scorso, ma rispetto ad allora sono stati fatti notevoli passi in avanti. Oggi i software per il riconoscimento facciale basano il loro funzionamento su algoritmi di intelligenza artificiale che hanno reso l’intero processo di riconoscimento automatico e quasi istantaneo.

Un dispositivo di riconoscimento facciale nasce dalla specifica combinazione di componenti hardware ad elevate prestazioni con software altamente efficienti, al fine di identificare gli individui a partire da una loro immagine digitale, come tipico in diverse installazioni di sicurezza e sorveglianza. Ma non solo. Il processo di identificazione si basa sul confronto di un’immagine con quelle memorizzate in precedenza in un database.

Le applicazioni comprendono il controllo accessi in zone sensibili, in aree residenziali, in edifici pubblici e privati e, in generale, in ogni altro contesto in cui sia necessaria l’associazione intelligente di identità personale e permesso di transito. Questi dispositivi possono essere configurati ed istallati con estrema facilità, sono in grado di operare over-IP e risultano particolarmente adatti ad essere integrati in soluzioni basate sul cloud.

Questa tecnica del face recognition viene spesso impiegata in real-time, quando ad esempio si ha un sensore con videocamera o fotocamera digitale o webcam, e si vuole riconoscere la persona che viene ripresa in modo immediato e facile, ci sono però molti altri usi del riconoscimento facciale e ogni giorno ne spuntano altri. È certamente una opportunità per molti, porta benefici e comodità ma dall’altro lato può impaurire o preoccupare. Anzi, deve preoccupare, come tutte le cose che hanno un enorme potenziale e non sono ben regolamentate.

Il software della polizia per il riconoscimento facciale

Ad esempio, l’American Civil Liberties Union of Northen California ha pubblicato una serie di documenti che evidenziano come Amazon.com, multinazionale specializzata in ecommerce, stia vendendo il suo software per il riconoscimento facciale alla polizia.

Si chiama Amazon Rekognition e l’idea sarebbe proprio quella di utilizzarlo sulle telecamere indossate dagli agenti. La tecnologia è stata lanciata a fine 2016. E i primi “clienti” sono stati i Dipartimenti della Polizia di Orlando, in Florida, e quello della Contea di Washington, nell’Oregon.

Basti pensare che questa tecnologia nel solo 2017 ha generato ricavi per oltre diciassette miliardi di dollari. Al momento, il riconoscimento facciale utilizzato negli ambiti più vari, dalla sicurezza stradale allo sblocco dei dispositivi elettronici, è riconducibile a due grandi macro-strategie corrispondenti, a grandi linee, a due differenti generazioni tecnologiche.

A sua volta, la prima può essere divisa in due strategie: il riconoscimento facciale può avvenire tramite il confronto delle distanze tra le pupille, la grandezza del naso, delle labbra e altre misure “facciali”, oppure attraverso lo “studio” di come i pixel si raggruppano per formare i vari elementi del viso e confrontarli con altre immagini presenti in un database condiviso.

La seconda generazione di software per il riconoscimento facciale, invece, utilizza tecniche e tecnologie decisamente più avanzate. Utilizzato dai vari Facebook, Google e Windows nei loro progetti in via di perfezionamento, si basa sul machine learning e “insegna” ai computer a riconoscere i volti dando loro “in pasto” decine di migliaia di immagini differenti. In questo modo sono i sistemi informatici stessi a riconoscere quali siano gli elementi distintivi di un viso e basarsi su queste “scoperte” per svolgere i loro compiti.

PROMEMORIA > Hai trovato interessante questo racconto? Sfoglia le altre storie

Le tecniche di riconoscimento facciale possono essere usate per tanti scopi
Le tecniche di riconoscimento facciale possono essere usate per tanti scopi

Riconoscimento facciale sugli smartphone

Anche gli smartphone stanno diventando grandi alleati di questa tecnologia che, come visto, può essere usata in tantissimi modi diversi. Tanto per fare un altro esempio, nell’ultimo iPhone X è stato inserito il riconoscimento facciale con la nuova funzionalità Face Id che permette di bloccare lo smartphone. C’è quindi una fotocamera installata nella parte frontale del telefono, integrata con il nuovo sistema TrueDepth formato da diversi sensori che realizzano una scansione tridimensionale del viso di una persona in modo molto accurato.

Ci sono numerose tecniche per effettuare il riconoscimento facciale, la maggior parte delle volte si tratta di tecniche di elaborazione digitale delle immagini che sono in grado di estrapolare ciò che è faccia ignorando il resto di ciò che è stato inquadrato. È una particolare tipologia di riconoscimento di pattern, in fondo, focalizzato sui visi umani composti di occhi, naso e bocca. Ma esistono anche software più avanzati che riescono a capire che un viso è un viso anche se è ruotato. In alcuni casi la faccia individuata viene interpretata in due dimensioni, altre volte in tre, sempre dipende dalla tecnica con cui si basa il riconoscimento facciale.

Il tutto si fonda su degli algoritmi, di cui esiste una vasta scelta. Ad esempio, La Principal Component Analysis si distingue perché richiede risorse computazionali relativamente ridotte ma non regge bene rotazioni e traslazioni e può essere disturbata da variazioni di illuminazione e sfondo. Mentre la Linear Discriminant Analysis applica una suddivisione in classi all’interno delle quali la varianza è minima. Senza dimenticare i metodi Kernel, Gabor, Markov nascosto e la Active Appearance Models. La maggior parte delle volte, più che scegliere l’uno o l’altro algoritmo, li si combina in modo da sfruttare al meglio le potenzialità di ciascuno.

Il robot sommelier creato all’alberghiero Gae Aulenti

Segnatevi questa data: 27 maggio 2018. Cade di domenica e debutta a Biella, in un noto centro commerciale, il robot sommelier creato all’alberghiero dagli studenti del Gae Aulenti, già visto in occasione di Vinitaly. Che a pensarci su una frazione di secondo, dopo l’euforia del momento, sembra anche un ottimo modo per far sostituire il sommelier da una macchina e mettere definitivamente in ginocchio anche questa professione. Ma si sa, l’evoluzione tecnologica non si ferma e l’uomo non si sostituisce, così dicono…

Domenica, tutti i visitatori possono osservare il robot all’opera, mentre effettua l’analisi di alcuni vini, sia tramite un “assaggio” sia attraverso la lettura e l’elaborazione delle loro etichette. Beppe, questo il nome dell’automa, è in grado di individuare la provenienza del vino, di elencarne le caratteristiche e di suggerire i piatti da abbinare, proprio come un essere umano. A guidare il gruppo di studenti che ha progettato e poi concretamente realizzato il robottino sono stati i professori Giuseppe Aleci e Roberto Donini.

“Sfruttando appositi sensori può analizzare il ph e dare informazioni sul livello di acidità, la presenza di solfiti, il grado alcolico, persino il colore del vino. Questi parametri gli consentono di specificare la temperatura a cui dovrebbe essere servito e i piatti migliori a cui accompagnarlo”, ha detto il professor Giuseppe Aleci. Beppe, che quando era ancora un prototipo si chiamava “Sommelierobot”, impiega i servizi Microsoft cognitive per il riconoscimento visivo, ottenendo così una descrizione precisa di ciò che inquadra, bottiglia, calice di vino…

Sfruttando una tecnologia object tracking è in grado di memorizzare ogni etichetta, creando una sorta di piccolo catalogo di vini. Procede poi all’assaggio vero e proprio, attraverso sensori digitali e manuali. I giudizi che fornisce sono molto simili a quelli di un intenditore.

PROMEMORIA > Hai trovato interessante questo racconto? Sfoglia le altre storie

Il robot è anche in grado di colloquiare con chi gli sta davanti grazie a un chatbot realizzato dai nostri ragazzi e simile ai più famosi assistenti virtuali come Siri e Cortana.  L’idea nasce dallo sviluppo di un progetto già avviato dalla stessa scuola lo scorso anno per le Olimpiadi di robotica e il Maker Faire di Roma, la fiera europea sull’innovazione.

In presenza di una connessione wifi, il robot sommelier è in grado di collegarsi a internet per attingere a nuove informazioni. Altrimenti il codice per continuare a interagire con l’uomo si scrive automaticamente, così da essere sempre in grado di fornire risposte precise alle sollecitazioni esterne. “Non potrà mai sostituire l’uomo per la varietà infinita di sensazioni che il nostro palato è in grado di provare. Può rivelarsi però un valido strumento per un controllo generale all’interno della cantina. Per valutare i parametri più importanti e dirci se sta procedendo tutto bene”, ha affermato Aleci.

Hannes, il braccio bionico che si comanda col pensiero

Nel 2019 arriva Hannes, la mano bionica italiana che si muove col pensiero. Ha capito bene: Hannes si comanda col pensiero. Il nome lo riprende dal professor Hannes Schmidl, direttore tecnico del Centro Protesi Inail di Vigorso di Budrio, in provincia di Bologna. È a lui che si deve l’avvio dell’attività di ricerca protesica e la prima protesi mioelettrica Inail-Ceca del 1965. Disponibile a partire dal 2019, consentirà ai pazienti di recuperare quasi tutte le funzionalità. Tra le caratteristiche principali ci sono una maggiore durata della batteria, una migliore capacità e performance di presa, il costo ridotto di circa il 30% rispetto ai dispositivi attualmente in commercio.

Sono tanti i suoi punti di forza. Innanzitutto non richiede un intervento chirurgico, poi ha una migliore capacità di afferrare gli oggetti, prestazioni più precise e un costo inferiore di circa un terzo rispetto alle mani bioniche disponibili finora. “Si adatta perfettamente all’oggetto che io cerco di afferrare, è questa la principale differenza rispetto a tutte le altre protesi”, ha raccontato Marco Zambelli, il paziente del Centro Protesi che ha testato per primo la nuova mano robotica. Zambelli, di sessantaquattro anni, di Sant’Agata Bolognese, era un metalmeccanico ed è stato costretto ad amputare la mano destra all’età di 16 anni a causa di un incidente sul lavoro.

“Sono stato inserito – ha continuato Zambelli – nel progetto di ricerca nel 2014 ed è stato molto bello assistere a gran parte del processo di realizzazione. Prima utilizzavo una protesi solo per funzioni estetiche, invece oggi sto riprovando la sensazione di utilizzare di nuovo entrambe le mani”. La mano bionica, permette alle dita di piegarsi consentendogli di afferrare piccoli oggetti, ma anche di sollevare pesi di 15 chilogrammi.

Prima di Hannes si arriva a 2015

La storia degli arti robotici mossi col pensiero ci racconta che, nel 2015, tre uomini austriaci reduci da incidenti hanno iniziato ad usare il primo arto bionico che si comandava col pensiero e che, quindi, consentiva una libertà di movimento notevole nella vita di tutti i giorni. Si trattava di una protesi robotica molto sofisticata, che funzionava grazie a sensori che captano i piccoli segnali nervosi residui dopo i traumi che hanno fatto perdere l’arto.

Secondo quanto reso noto all’epoca sulla rivista Lancet, la protesi è stata “allacciata” all’avambraccio con un complesso intervento senza precedenti al mondo, mediante una nuova tecnica operatoria battezzata “ricostruzione bionica” e sviluppata dal gruppo di Oskar Aszmann dell’Università di Vienna in collaborazione con l’italiano Dario Farina, direttore del Dipartimento di ingegneria della neuroriabilitazione all’Università di Göttingen (Germania). Gli interventi sono stati svolti presso la Facoltà di Medicina dell’Università di Vienna sotto la direzione di Aszmann tra 2011 e 2014.

“Questo è per ora l’unico posto al mondo in cui si possono eseguire tali interventi”, spiegava all’epoca Farina intervistato dall’Ansa che ha collaborato al lavoro per la parte ingegneristica, relativa alle protesi e al loro controllo da parte del paziente. E la collaborazione prosegue: “Ad oggi – anticipava nel 2015 – stiamo collaborando con il gruppo di Aszmann per altri tre nuovi pazienti che hanno già seguito la procedura di ricostruzione bionica, casi clinicamente diversi da quelli riportati su Lancet”. I tre uomini di cui parla la rivista britannica erano andati incontro – a seguito di incidenti di moto e sportivi, arrampicata – a lesioni del ‘plesso brachiale’, un sistema di nervi che trasmettono dalla spina dorsale i segnali nervosi alle braccia e alle mani permettendone movimenti e sensibilità. In caso di danni al plesso l’uso della mano viene perso e attualmente non ci sono soluzioni risolutive.

PROMEMORIA > Hai trovato interessante questo racconto? Sfoglia le altre storie

Comandi a pensiero, procedura complessa per Hannes

La procedura di ricostruzione bionica eseguita sui tre era stata complessa e articolata in più fasi. Inizialmente, tramite dei sensori (elettrodi) si captavano i segnali nervosi residui presenti nei nervi del plesso rimasti sani. Si trattava di flebili segnali, troppo deboli per muovere la mano, ma che invece erano di intensità sufficiente a comandare l’arto artificiale, una volta che questo è collegato all’avambraccio. I pazienti venivano sottoposti a mesi di “allenamento mentale” (training cognitivo) allo scopo di insegnare loro a gestire e comandare quei segnali nervosi residui.

Dopo che hanno imparato a farlo la loro mano non più funzionante viene amputata e al suo posto viene collegata (non è un vero impianto perché la mano artificiale non è connessa direttamente alle strutture ossee del paziente) la protesi. Dopo si aveva la fase post-intervento, di riabilitazione in cui il paziente, forte del training mentale precedentemente svolto, imparava a usare la sua mano nuova. I tre pazienti riuscivano con la mano robotica a svolgere con precisione tutta una serie di azioni quotidiane (dall’abbottonarsi la camicia a versare dell’acqua) che per anni dopo l’incidente non avevano più potuto svolgere.

Nel mondo sono numerosi i gruppi di ricerca che portano avanti progetti di sviluppo di protesi robotiche: uno tra tutto, anch’esso in parte frutto dell’expertise tecnologica e scientifica italiana, è quello della mano bionica in grado di muoversi e “dotata di tatto”, in grado cioè di sentire gli oggetti toccati. Questa mano è stata testata con successo in Italia su un paziente danese amputato della mano sinistra, frutto di un progetto internazionale cui hanno partecipato per l’Italia la Scuola Superiore Sant’Anna di Pisa, Il Policlinico Gemelli, il Campus biomedico di Roma e l’Ircss San Raffaele di Roma.

Dal pensiero di tre pazienti si accendeva l’energia per muovere una mano bionica collegata al loro avambraccio con un intervento unico al mondo: i tre si sono precedentemente allenati mentalmente a generare e controllare piccolissimi segnali nervosi che, captati da sensori, consentono movimenti precisi della mano bionica. E’ questo il cuore hi-tech che anima la protesi robotica messa a punto anche grazie all’italiano Dario Farina, direttore del Dipartimento di ingegneria della neuroriabilitazione all’Università di Göttingen (Germania) che ha raccontato all’Ansa i delicati e lunghi passaggi dell’intervento di ricostruzione bionica e che, col suo gruppo di ricerca, ha avuto un ruolo fondamentale per quanto riguarda la parte ingegneristica relativa alla realizzazione delle protesi e al loro controllo da parte dei pazienti. Da oggi non sarà più così.