đ Reader
â
đ Vous avez lâair contrariĂ©.
Non, pas vous. Votre visage. Ou plutĂŽt, les micro-expressions quâil affiche Ă votre insu. Du moins, câest ce que prĂ©tend lâIA Ă©motionnelle.
Des algorithmes sont dĂ©sormais capables dâinterprĂ©ter nos Ă©motions en temps rĂ©el, simplement en analysant notre visage, notre voix, ou encore notre rythme de frappe sur un clavier.
Souriez⊠vous ĂȘtes scannĂ©.
đ§ Des IA qui observent⊠et qui jugent
L'IA émotionnelle est déjà capable :
- Adapter un service client Ă votre humeur
- DĂ©tecter la fatigue au volant avant quâil ne soit trop tard
- Identifier lâanxiĂ©tĂ© d'un participant pendant un cours en ligne
- Analyser le stress dâun candidat en entretien
Mais derriÚre de telles promesses se cachent des algorithmes qui simplifient les réactions humaines :
- Un regard qui sâĂ©chappe = doute
- Un sourire asymétrique = hypocrisie
- Une voix trop aiguë = stress
Alors que bien évidemment nos émotions sont plus complexes que des catégories prédéfinies. Elles dépendent du contexte, de la culture, du vécu, du moment.
đ§Ș Cas rĂ©el : le RH qui scanne vos Ă©motions
En 2020, la sociĂ©tĂ© HireVue a intĂ©grĂ© lâIA Ă©motionnelle dans ses processus de recrutement : la camĂ©ra analyse le visage, le ton de voix, les pauses⊠et attribue un score dâemployabilitĂ©.
Le scandale a Ă©tĂ© immĂ©diat. Les biais algorithmiques (culturels, raciaux, neurodivergentsâŠ) ont Ă©tĂ© dĂ©noncĂ©s par des ONG, des chercheurs et des candidats. Lâentreprise a depuis fait marche arriĂšre, mais le mal est fait.
đ€ Quand la technologie va trop loin
Lâanalyse Ă©motionnelle s'invite dans les lieux publics, les salles de classes, les open-spaces !
En Chine, certaines Ă©coles testent dĂ©jĂ des casques EEG pour Ă©valuer lâattention des Ă©lĂšves
âDes casques pour surveiller la concentration des Ă©lĂšves en Chine. Source Le HuffPostâ
Dans des aéroports (comme à Tel-Aviv), des systÚmes détectent les signes de nervosité.
Meta a déposé des brevets pour lire les émotions via vos gestes dans le métavers.
â ïž Comme souvent, le problĂšme nâest pas la tech, câest son usage
LâIA Ă©motionnelle est dĂ©jĂ opĂ©rationnelle dans de nombreux secteurs et a pour ambition de fluidifier les interactions... humaines.
Pourtant, lire une Ă©motion ce nâest pas la comprendre.
Et encore moins savoir la décoder et y répondre de maniÚre humaine.
Mal utilisée, l'IA émotionnelle devient un outil de surveillance comportementale.
Surtout lorsquâelle est intĂ©grĂ©e dans le monde physique : camĂ©ras dans les magasins, outils RH, logiciels Ă©ducatifs, services publicsâŠ