La crise sanitaire a constitué une période de forte stimulation en terme d’innovation dans le domaine de l’intelligence artificielle (IA). Ainsi, un certain nombre de technologies visant à prévenir les risques de contamination, dans le cadre public comme professionnel, ont vu le jour : application mobile de traçage des cas COVID, bracelet de distanciation sociale, caméra thermique, application détectant à près de 98,5% une toux propre au COVID 19.
Caméras intelligentes et reconnaissance faciale à la volée
Les premières inquiétudes concernent l’usage de caméras intelligentes et de la reconnaissance faciale à la volée en milieu professionnel. Amazon a ainsi équipé ses camions de livraison de caméras, soumettant les chauffeurs à une surveillance vidéos enregistrant tout évènement inhabituel : distraction, somnolence, freinage sec. Si le groupe affirme utiliser cette technologie à des fins de sécurité les défenseurs de la vie privée y voit une forme de surveillance intrusive. Autre exemple en Chine où Canon utilise désormais un système de reconnaissance faciale pour autoriser l’accès de ses salariés dans ses établissements. L’utilisation de cette nouvelle technologie n’a pas tant fait de bruit que l’obligation pour le salarié d’afficher un sourire pour obtenir l’accès à l’entreprise, forme d’injonction au bonheur au travail. Plus récemment c’est l’autorité des transports londonien (TFL) qui se retrouve sous le feu des critiques pour s’être appuyée sur des informations parfois erronées issues du système de reconnaissance faciale d’Uber pour décider de la révocation de certains permis. (1)
La reconnaissance faciale à la volée suscite tout particulièrement l’appréhension. En France, le défenseur des droits a publié un rapport le 20 juillet s’alarmant du risque d’amplification et d’automatisation des discriminations sous-tendu par cette technologie et propose que soit imposée aux concepteurs une analyse d’impact incluant les questions de discrimination. La CNIL, pour sa part, appelle à bannir la technologie au nom du droit à la vie privée, et du risque de voir se renforcer une société de la surveillance.
Usage des données personnelles et transparence des algorithmes
L’autre sujet de préoccupation, concerne l’usage des données et la transparence des algorithmes qui constituent les deux enjeux principaux de l’intelligence artificielle. Plusieurs plaintes ont d’ores et déjà été déposées contre les plateformes de VTC (véhicule de tourisme avec chauffeur) et de livraison. En juillet 2020, des chauffeurs Uber ont amorcé une démarche juridique auprès du tribunal d’Amsterdam, afin d’obtenir l’accès aux données personnelles sur lesquelles reposent les algorithmes de planification des courses de l’entreprise (2). Le RGPD (Règlement général sur la protection des données) permet en effet un accès aux données personnelles, qui dans le cas spécifique d’Uber sont utilisées pour le profilage des chauffeurs afin d’évaluer leur fiabilité et définir la répartition du travail qui leur est alloué. L’objectif de cette démarche était de vérifier l’absence de discrimination entre chauffeurs mais également de renforcer leur pouvoir de négociations collectives. Si la cour ne s’est finalement pas positionnée en faveur des chauffeurs, elle a à plusieurs reprises condamné Uber à réactiver des comptes désactivés sans justification recevable.
Depuis, les cas similaires se multiplient : en Italie, c’est la plateforme de livraison à vélo Foodinho qui s’est vu condamnée en juin à 2,6 millions d’euros pour n’avoir pas expliqué à ses livreurs le fonctionnement des algorithmes d’évaluation de leur performance (3). Au même moment en France, des chauffeurs Uber ont mandaté la Ligue des droits de l’Homme pour déposer plainte auprès de la CNIL après des suppressions de comptes injustifiées. Ces suppressions interviennent sans aucune explication sur les critères qui déterminent cette décision et ne permettent que très peu de moyens de contestation. De la même façon, des livreurs de la société de livraison d’Amazon, Amazon Flex, se sont vus congédiés par le simple envoi d’un mail automatique généré par une IA mesurant leur productivité sur la base d’algorithmes utilisant leurs données.
Face à ces cas répétés, l’Organisation internationale du travail (OIT) rappelle, dans un rapport paru le 15 juillet au sujet des plateformes numériques, que la définition d’un travail décent repose notamment sur le droit à une procédure de rupture de contrat transparente et juste (4).
Les entreprises de l’économie traditionnelle ne sont pas en reste comme en témoignent les procès récents menés contre H&M en Allemagne et Ikea en France concernant des affaires de collectes illégales de données personnelles (5) (6). Ceci laisse aussi craindre que les technologies d’IA en développement facilitent dans les années à venir ce type de procédés en les rendant à la fois plus discrets et plus efficaces.
Au-delà des risques possibles dans le domaine professionnel, la nécessité d’encadrer les usages de ces nouvelles technologies pour préserver la souveraineté des Etats s’est faite de plus en plus pressante. C’est dans ce contexte que la Commission Européenne a publié, le 21 avril dernier, une proposition de règlement visant à encadrer les usages à risque de l’intelligence artificielle.
Artificial intelligence act : Proposition de régulation européenne (7)
L’Artificial intelligence act est une première mondiale en cela qu’aucune autre institution politique n’a encore tenté d’encadrer l’intelligence artificielle. Il se fixe pour objectif de fournir un cadre juridique dans le but de favoriser le développement d’une IA de confiance. Pour ce faire, la commission européenne a choisi une approche par risque centrée sur les usages plutôt qu’une approche technologique, sectorielle ou juridique. Trois niveaux de risque sont ainsi distingués : le risque inacceptable, le haut niveau de risque et le risque faible (8). Sont considérés comme inacceptables, les technologies d’IA utilisées à des fins de surveillance de masse, celles qui visent à manipuler les comportements, les opinions ou les décisions ou encore celles qui permettent la notation sociale par les Etats (la sécurité publique et la menace terroriste constituent cependant des exceptions).
Les IA à haut risque (énumérés dans l’annexe II), doivent répondre à un certain nombre d’exigences de conformité (spécifications des données, documentation, traçabilité, transparence, surveillance humaine, exactitude et robustesse) qui peuvent faire l’objet d’une certification par l’entreprise elle-même (comme c’est le cas pour les machines dangereuses – cf. directive machines (9). Le non-respect de ces exigences de même que l’infraction aux pratiques interdites pourra donner lieu à des amendes pouvant aller jusqu’à 30 millions d’euros ou 6% du chiffre d’affaires du fournisseur de la solution.
Les usages à faible risque font pour leur part l’objet de simples obligations de transparence. Le projet prévoit parallèlement la création d’un conseil européen de l’IA amené à émettre des recommandations concernant les usages à interdire et ceux à considérer comme à haut risque.
Quel cadre pour les risques professionnels ?
Les systèmes d’IA utilisés dans le cadre de relations professionnelles contractuelles (emploi, gestion de la main d’œuvre, accès à l’emploi indépendant, recrutement et sélection de personnes, prise de décisions de promotion et de licenciement, attribution des tâches et suivi ou évaluation des personnes) sontenvisagés dans l’article 36 de la proposition et estimés potentiellement à haut risque.
Article 36 : « Les systèmes d’IA utilisés pour des questions liées à l’emploi, à la gestion de la main d’œuvre et à l’accès à l’emploi indépendant, notamment pour le recrutement et la sélection de personnes, pour la prise de décisions de promotion et de licenciement, pour l’attribution des tâches et pour le suivi ou l’évaluation des personnes dans le cadre de relations professionnelles contractuelles, devraient également être classés comme étant à haut risque, car ces systèmes peuvent avoir une incidence considérable sur les perspectives de carrière et les moyens de subsistance de ces personnes. Les relations professionnelles contractuelles en question devraient concerner également celles qui lient les employés et les personnes qui fournissent des services sur des plateformes telles que celles visées dans le programme de travail de la Commission pour 2021. Ces personnes ne devraient en principe pas être considérées comme des utilisateurs au sens du présent règlement. Tout au long du processus de recrutement et lors de l’évaluation, de la promotion ou du maintien des personnes dans des relations professionnelles contractuelles, les systèmes d’IA peuvent perpétuer des schémas historiques de discrimination, par exemple à l’égard des femmes, de certains groupes d’âge et des personnes handicapées, ou de certaines personnes en raison de leur origine raciale ou ethnique ou de leur orientation sexuelle. Les systèmes d’IA utilisés pour surveiller les performances et le comportement de ces personnes peuvent aussi avoir une incidence sur leurs droits à la protection des données et à la vie privée. »
Si l’on peut se réjouir que ces risques soient bien pris en considération dans la proposition de règlement de la commission et classés comme potentiellement à haut risque, on peut craindre, comme l’ETUI (European Trade Union Institute) dans une note parue en juin dernier (10), que les mesures envisagées soient trop peu contraignantes pour assurer une protection suffisante des salariés.
L’institut syndical européen s’inquiète en particulier du fait que la proposition adopte une position plutôt favorable aux concepteurs puisque seules les IA dont les usages sont considérés à haut risque sont soumises à une obligation de mise en conformité sur la base d’un contrôle pouvant être réalisé en interne. Les IA représentant un risque modéré ne seront pour leur part soumises qu’à une obligation de transparence. L’ETUI souligne l’insuffisance des prérequis, rappelant que l’évaluation de tout nouveau système intégré à l’organisation du travail doit être soumise à la consultation des partenaires sociaux. Du fait du risque d’abus de pouvoir managérial sous-tendu par ce type de technologie, l’ETUI souhaite que les risques professionnels liés aux usages de l’IA fassent l’objet d’une directive à part entière qui devrait porter sur les points suivants :
- La responsabilité de l’employeur en matière de risques liés à l’usage de l’IA.
- Les règles de protection des données
- L’explicabilité des algorithmiques utilisés dans le cadre professionnel
- Le rôle des syndicats
- La surveillance algorithmique des travailleurs
En définitive si cette tentative de régulation paraît louable, elle risque de se trouver confrontée à plusieurs difficultés. La réglementation sera sans doute considérée comme un frein au développement d’acteurs régionaux ainsi qu’au développement de l’innovation européenne dans un contexte international fortement concurrentiel. A l’inverse, elle pourrait ne pas susciter la confiance escomptée des citoyens ou des syndicats, la protection censée être apportée étant jugée trop limitée.
(9) https://www.inrs.fr/risques/machines/ce-qu-il-faut-retenir.html
(8) https://www.etui.org/publications/ai-regulation-entering-ai-regulatory-winter
Image Gerd Altmann / Pixabay.
Vous devez être connecté pour publier un commentaire. Login