L'outil d'IA « d’analyse de politesse » de Burger King : des inquiétudes quant à la protection de la vie privée dans le cadre de l’évaluation des employés

L'adoption rapide de l'intelligence artificielle sur le lieu de travail ouvre de nouvelles perspectives et pose de nouveaux défis aux entreprises. Un exemple notable est le projet pilote de Burger King portant sur des casques équipés d'IA, conçus pour aider le personnel et rationaliser les opérations. Ces casques, dotés d'un assistant IA connu en interne sous le nom de « BK Assistant », peuvent répondre aux questions des employés concernant la préparation des menus, alerter le personnel lorsque les stocks sont bas, et même analyser les interactions avec les clients afin de fournir des informations sur la « politesse » et la qualité du service.

Si l'objectif avancé par ces systèmes est de soutenir les employés et d'améliorer l'efficacité opérationnelle, cette technologie soulève également d'importantes questions en matière de confidentialité et de conformité pour les employeurs. Les entreprises qui envisagent de mettre en place des outils d’évaluation similaires basés sur l'IA doivent examiner attentivement ces préoccupations afin de trouver un équilibre entre les avantages opérationnels, les droits des employés et les obligations réglementaires.

Comment l'IA est utilisée dans l’évaluation des employés

D'une part, l'IA aide les employés en fournissant des réponses instantanées à des questions de procédure, en gérant les tâches opérationnelles courantes et en facilitant les flux de travail. D'autre part, l'IA collecte et analyse les données issues des interactions avec les employés, y compris les enregistrements audio réalisés au service drive, afin de générer des indicateurs agrégés tels que les « scores de politesse ».

Bien que Burger King affirme que les employés ne sont pas évalués individuellement et que l'IA s'appuie sur des mots-clés et une analyse au niveau de l'équipe, la collecte de données audio et comportementales comporte des risques. Ceux-ci incluent notamment une interprétation erronée potentielle du ton ou du contexte, des inexactitudes dans la notation et le sentiment d'être constamment surveillé, éléments susceptibles d'affecter la confiance, le moral et l'engagement des employés.

Considérations juridiques et relatives à la protection de la vie privée

D'un point de vue juridique, l’analyse des performances des employés à l'aide d'outils d'IA soulève plusieurs questions d'ordre réglementaire et éthique. Les principales préoccupations sont les suivantes :

1. Transparence et consentement

Les employeurs doivent clairement communiquer aux employés l'objectif, la portée et les méthodes d’évaluation. La transparence est essentielle, non seulement pour instaurer la confiance, mais aussi pour se conformer aux lois qui exigent une notification de la collecte de données, telles que les réglementations en matière de confidentialité prévues par le Règlement général sur la protection des données (RGPD) de l'UE ou certaines lois étatiques américaines sur la confidentialité. Les employés doivent comprendre quelles données sont collectées, comment elles seront utilisées et qui y aura accès.

2. Minimisation des données et limitation de la finalité

Les systèmes d'IA ne devraient collecter que les données nécessaires à la réalisation de l'objectif commercial déclaré. Dans le contexte de l’évaluation des employés, cela signifie éviter la collecte de données à caractère personnel non pertinentes ou de données comportementales excessives. L'analyse des tendances agrégées et des indicateurs au niveau de l'équipe, plutôt que des performances individuelles, peut contribuer à atténuer les risques liés à la vie privée.

3. Exactitude et équité

Les erreurs de reconnaissance vocale, les malentendus contextuels et les biais dans la notation basée sur des mots-clés peuvent entraîner des évaluations injustes ou une mauvaise interprétation du comportement des employés. Les employeurs ont besoin de mécanismes solides pour valider les résultats de l'IA et garantir que les employés aient la possibilité de contester ou de corriger les évaluations inexactes.

4. Sécurité des données

Les enregistrements audio et les données comportementales doivent être stockés et traités de manière sécurisée. Les employeurs doivent mettre en place des contrôles d'accès, un cryptage et des politiques de conservation appropriés afin d'empêcher tout accès non autorisé ou toute violation de données.

5. Droits des employés et culture d'entreprise

Au-delà de la conformité légale, une évaluation constante, même si elle est conçue pour être d'un soutien, peut créer un sentiment de contrôle qui affecte négativement la culture d'entreprise. Les entreprises doivent trouver un équilibre entre l'efficacité opérationnelle et le respect de l'autonomie, de la dignité et du bien-être des employés.

Bonnes pratiques pour les entreprises envisageant le recours à l’évaluation par IA

Pour les entreprises qui s'intéressent aux outils d’évaluation par IA, y compris les systèmes d'IA autonomes capables de raisonnement en plusieurs étapes et d'exécution de tâches, les pratiques suivantes peuvent aider à gérer les risques juridiques et liés à la protection de la vie privée :

Réaliser une analyse d'impact sur la vie privée : Évaluer comment la surveillance par IA pourrait affecter les employés, identifier les risques potentiels et déterminer les mesures d'atténuation.

Limiter la portée et la granularité des données : Dans la mesure du possible, privilégiez les informations au niveau de l'équipe plutôt que les évaluations individuelles, et limitez la surveillance aux interactions et tâches pertinentes.

Intégrer un contrôle humain : Les décisions qui affectent les conditions d'emploi des employés ne doivent pas reposer uniquement sur les résultats de l'IA. L'examen humain et la responsabilité sont essentiels.

Assurer la formation et la communication : Les employés doivent être informés du rôle, des limites et des mesures de protection de l'IA. Une communication continue peut réduire la méfiance et favoriser l'adoption.

Mettre en œuvre des politiques de sécurité et de conservation : Protéger les données collectées à l'aide de mesures techniques et organisationnelles appropriées, et supprimer les informations dès qu'elles ne sont plus nécessaires aux fins définies.

L'exemple de Burger King illustre l'intersection croissante entre l'IA, la productivité des employés et la surveillance sur le lieu de travail. Si les assistants IA offrent des avantages opérationnels et peuvent aider le personnel à se concentrer sur le service client, ils posent également des défis en matière de confidentialité que les entreprises ne peuvent ignorer. Du point de vue d'un cabinet d'avocats, les entreprises doivent aborder le déploiement de l'IA avec une planification minutieuse, des politiques transparentes et des mesures de protection solides afin de garantir le respect des lois sur la protection des données et de maintenir une culture d'entreprise positive.

Comment Gerrish Legal peut vous aider? 

Gerrish Legal est un cabinet juridique numérique et dynamique. Nous sommes fiers de prodiguer des conseils juridiques experts et de haute qualité à nos précieux clients. Nous sommes spécialisés dans de nombreux aspects du droit numérique tels que le RGPD, la confidentialité des données, le droit numérique et technologique, le droit commercial et la propriété intellectuelle. 

Nous offrons aux entreprises le soutien dont elles ont besoin pour gérer leurs activités avec succès et en toute confiance tout en se conformant aux réglementations légales, sans avoir à se plier aux exigences numériques en constante évolution. 

Nous sommes là pour vous aider, contactez-nous dès aujourd’hui pour plus d’informations. 

Article de Nathalie Pouderoux, Consultante pour Gerrish Legal

Next
Next

Cartographie des données : pourquoi c'est essentiel pour la conformité et la protection de la vie privée