Intelligenza artificiale e riconoscimento facciale, miracolo o pericolo?

Taylor Swift Intelligenza artificiale riconoscimento facciale

In giro si sente parlare spesso di intelligenza artificiale come se fosse polvere magica che risolve qualunque problema. Non c’è azienda innovativa che non spruzzi la propria descrizione con una manciata di IA per attirare l’attenzione del pubblico. Il riconoscimento facciale, poi, è un altro di quei temi che vanno alla grande: ma la Cina la usa per controllare i cittadini per le strade e questo basta a demonizzare una tecnologia che invece altro non è che una “tecnologia” e che non ha un valore positivo o negativo intrinseco.

Bruciamo i battipanni!

Uno strumento assume connotazioni soprattutto in base all’uso che se ne fa. In che modo usi l’intelligenza artificiale o il riconoscimento facciale nella tua tecnologia? Il resto, sono chiacchiere. Da piccolo detestavo il battipanni perché lo vedevo come una letale arma d’offesa, anche se la sua funzione era ben altra. In questi giorni, la pericolosità del riconoscimento facciale è balzata alle cronache grazie a Taylor Swift, che durante un suo concerto ha impiegato questa tecnologia per individuare eventuali stalker all’interno del pubblico. C’è qualcuno contrario a una tecnologia che può riconoscere i volti di malviventi e criminali per le strade?  Il problema grave è che la cantante (o chi per essa) non ha chiesto il permesso alle persone e non le ha avvisate. Ciò ha fatto scattare un allarme globale sui media riguardo alla tutela della privacy.

Privacy e sicurezza

Diciamo subito che non è giusto essere inquadrati, ripresi, schedati ed elaborati da un immenso database a nostra insaputa. Ma ce ne accorgiamo adesso? Quando entriamo in banca, in un centro commerciale o per le strade siamo coscienti che qualche occhio digitale ci stia spiando? I cartelli che ci avvisano ci sono, ma quanti li leggono? Fino a dove si può spingere la tutela della sicurezza a scapito della privacy? Sono argomenti che meritano riflessioni profonde, ma non preclusioni o aperture indiscriminate. Tuttavia, ritornando al caso di Taylor Swift, qualcuno che di AI  e riconoscimento facciale ne sa parecchio ha colto l’occasione per dire la sua a riguardo. (Potete leggere la storia qui https://bit.ly/2GgJ1I1)

La tecnologia e le sue applicazioni

Stiamo parlando di MorphCast azienda italiana che ha sviluppato un sistema di riconoscimento emotivo che fa della tutela della privacy il proprio cavallo di battaglia. La loro tecnologia usa una webcam per riconoscere lo stato d’animo, il sesso e l’età di una persona, ma senza trattenere nessun dato sensibile e senza condividerlo con nessuno. Non viene tracciato il comportamento e tantomeno la persona inquadrata. Quindi esiste anche un riconoscimento “buono” che non distribuisce ai quattro venti i nostri dati e un’intelligenza artificiale che impara a riconoscere le espressioni e non a schedare le persone. Insomma, se pensiamo che sia una tecnologia a essere brutta e cattiva e non chi la usa con finalità tali, allora dovremmo fare subito una campagna per dichiarare illegali anche i battipanni, i manici di scopa e, in alcuni casi più turbolenti, perfino i piatti di ceramica.

Post correlati

Giornalista hi-tech e formatore, da oltre 20 anni si occupa di stampa specializzata, magazine digitali, startup, siti internet, Seo e web marketing. Insegna comunicazione e web writing.

    Lascia un commento

    *