Dal prossimo anno nelle città di tutto il mondo, il nostro viso potrebbe essere scannerizzato e decodificare il vostro potenziale tasso di aggressività. Esattamente come in un avveneristico film di fantascienza! La tecnologia per la rilevazione dell’aggressività è progettata da NtechLab, società russa specializzata nel riconoscimento facciale e conosciuta nel settore grazie a FindFace. App che ha fatto molto discutere e etichettata come minaccia definitiva per la privacy online.
Lo sviluppo della tecnologia è stato possibile grazie ai 15 milioni di dollari che NtechLab ha raccolto da due fondi, il Russian Direct Investment Fund (Rdif), e il secondo un misterioso partner del Medio Oriente che non viene nominato.
NtechLab non è la prima ad avventurarsi in questo campo. Uno dei founder Alexander Kabakov, dichiara: “Il vantaggio principale è che la nostra soluzione è veramente scalabile per città di tutte le dimensioni”, precisa che può funzionare con le centinaia di migliaia di telecamere che si trovano nelle città.
Il riconoscimento facciale è stato considerato a più riprese una tecnologia controversa, etichettata non soltanto come lesiva nei confronti della privacy ma persino potenzialmente razzista, poiché alcuni algoritmi tendono a connotare come sospetti un maggior numero di individui di colore rispetto ai bianchi. Anche il rilevamento in sé dell’aggressività e delle emozioni, peraltro, è discutibile dal punto di vista sia etico sia tecnico. Uno studio condotto da Lauren Rhue dell’Università del Maryland ha testato gli strumenti di Microsoft e della tech company cinese Face++ sui volti dei giocatori dell’Nba. L’intelligenza artificiale di Face++, è emerso, ha ripetutamente interpretato come potenzialmente più rabbiosi i giocatori di colore rispetto alle loro controparti bianche quando guardava come sorridevano. L’intelligenza artificiale di Microsoft ha ritenuto infatti che i giocatori di colore fossero più “sprezzanti” quando le espressioni facciali erano ambigue. Meredith Whittaker, cofondatrice dell’istituto di ricerca AI Now e fondatrice dell’Open Research Group di Google, in precedenza aveva dichiarato a Forbes: “L’idea che le caratteristiche e i sentimenti interiori di qualcuno possano essere mappati in modo regolare e universale sulla base della fisicità o delle azioni delle persone non è mai stata dimostrata, per non dire altro, e le affermazioni fatte da questi sistemi non sono ancora state convalidate””.
Il “tracciamento della silhouette” di NtechLab è già in uso e cerca di cogliere i modelli di silhouette unici creati dal viso di una persona. Ciò è utile quando il viso del bersaglio è oscurato in qualche modo. Poi c’è la possibilità di attivare il “rilevamento della violenza” in cui i filmati di sorveglianza possono segnalare le persone che agiscono violentemente. Insieme al riconoscimento dei veicoli, questi consentono alle unità di sicurezza e di polizia di rintracciare un individuo che si comporta violentemente in una città, anche se la sua faccia è nascosta, ha assicurato Kabakov