Nelle intenzioni di big G vi è senza alcun dubbio quella di fare in modo che i Google Glass, i fantomatici occhiali per la realtà aumentata oramai in procinto di fare il loro debutto sul mercato, migliorino la qualità e lo stile di vita degli utenti evitando, al contempo, situazioni di dipendenza così come, invece, accade per gli smartphone.
Proprio per questo proseguono quindi le sperimentazioni per tutti i possibili utilizzi che gli occhiali potrebbero avere e, a tal proposito, la notizia dello studio di un’app specifica per i Google Glass grazie alla quale sarà possibile identificare le persone circostanti in base ai loro vestiti è sicuramente molto interessante.
L’applicazione si chiama inSight, è stata sviluppata da Srihari Nelakuditi , professore di informatica e di ingegneria presso l’Università della Carolina del Sud, insieme a tre colleghi della Duke University, ed analizzando i colori e la disposizione degli abiti, previa immissione di alcune fotografie, è in grado di creare quella che i developers definiscono “un’impronta digitale del soggetto”.
L’app, nello specifico, è in grado di individuare texture, colori e modelli degli abiti che verranno miscelati in un file speciale chiamato spatiogram permettendo dunque, mediante i Google Glass, di identificare i soggetti ricercati tra la folla, il tutto in maniera semplice e, sopratutto, immediata.
Per rispettare la privacy delle persone InSight cancellerà le foto ogni 24 ore e quindi sarà necessario riscattarne di nuove per poter usufruire del supporto dell’app.
L’app, oltre a scopi prettamente personali, potrebbe rivelarsi particolarmente utile anche in ambito lavorativo.
L’applicazione, poi, potrebbe essere sfruttata anche per aiutare le persone con una condizione di cecità o con disturbi alla vista andando a riprodurre i nomi degli amici presenti nelle vicinanze.
Dai test effettuati l’applicazione si è rivelata abbastanza valida ed affidabile.
I test, infatti, sono stati condotti su 15 volontari e l’app è stata in grado di identificare le persone per il 93% del tempo.
Via | CNET