Les dangers de la reconnaissance faciale

02 Juillet 2018 Par Hub Institute
Que ce soit dans nos smartphones, comme l’iPhone X, ou bien aux mains des forces de l’ordre, comme en Chine, la technologie de la reconnaissance faciale se développe de manière exponentielle, notamment grâce aux réseaux sociaux.
(Photo: Licence C.C.)

Emmanuel Vivier et le HUB Institute vous proposent chaque jour le #HUBRADAR, une sélection des tendances et des meilleures innovations technologiques en trois articles.

L’IA est-elle le nouveau Big Brother?

Les algorithmes de reconnaissance faciale se multiplient. Que ce soit dans nos smartphones, comme l’iPhone X, ou bien aux mains des forces de l’ordre, comme en Chine, cette technologie se développe de manière exponentielle, notamment grâce aux réseaux sociaux. Pourtant, certains voient dans ce type de système des défis éthiques majeurs. C’est le cas de Thomas Solignac, cofondateur de l’entreprise Golem.ai et spécialiste de l’intelligence artificielle, qui identifie trois problèmes relatifs à ces algorithmes: les moyens nécessaires à leur déploiement (notre visage est-il une data comme les autres?), le pouvoir qu’ils octroieraient à leurs possesseurs (possibilité de reconnaître n’importe quel individu et d’accéder instantanément à ses antécédents), et enfin, la possible reconduction des biais cognitifs de leurs créateurs sur les algorithmes eux-mêmes (pouvant mener à des discriminations).

Les aigles ne volent pas avec les pigeons (mais les drones, oui!)

La Chine fait un nouveau pas sur la route de la surveillance de masse. L’armée chinoise vient en effet de révéler la création d’un drone en forme de pigeon. Si l’invention peut faire sourire, ce nouvel engin embarque tout de même une caméra HD, une antenne GPS et un système de navigation et de transfert de données par satellite. Il est de surcroît invisible pour les radars et inaudible pour l’humain quand il évolue au sol. La machine, baptisée Dove, est tellement ressemblante que même les vrais pigeons s’y trompent et la rejoignent en vol, la rendant ainsi encore plus difficilement détectable.

S’il n’en est encore qu’à l’état de prototype, ce drone devrait pourtant être déployé prochainement dans la région de Xinjiang, zone frontalière avec la Russie, l’Inde et l’Afghanistan, où les 10 millions d’habitants musulmans sont soumis à une forte surveillance policière.

Smart Home: pour le meilleur et pour le pire?

Censée nous faciliter le quotidien, la domotique peut pourtant se retourner contre son propriétaire. Outre les problèmes de sécurité informatique, des associations s’élèvent pour sensibiliser l’opinion publique à l’augmentation de violences domestiques utilisant ces objets intelligents. Climatisation se mettant en marche soudainement, enceintes intelligentes diffusant de la musique à très fort volume, ou encore, serrure connectée dont le code change tous les jours, sont autant de types de violences psychologiques employées par certaines personnes contre leur conjoint(e). Les femmes semblent être majoritairement touchées par ces violences d’un nouveau genre. «Les dispositifs de maison connectés sont largement installés par les hommes, et beaucoup de femmes n’ont pas les applications permettant de contrôler la maison sur leur téléphone», expliquent Melissa Gregg, directrice de la recherche chez Intel, et Jenny Kennedy, chercheuse à la RMIT University of Melbourne.

S’abonner à la veille digitale #HUBRADAR proposée par le HUB Institute.

La rédaction a choisi pour vous

L’agence de presse chinoise Xinhua News vient de se doter d’une intelligence artificielle appelée Media Brain.

27 Juin 2018

Emmanuel Vivier et le HUB Institute vous proposent chaque jour le #HUBRADAR, une sélection des tendances et des meilleures innovations technologiques en trois articles.