Il ne fait aucun doute que l'intelligence artificielle (IA) a trouvé sa place dans la relation de travail et peut aider tant l'employeur que le travailleur dans leur recherche d'efficacité. Elle soulève néanmoins des questions juridiques et une série de règles s'appliquent à son utilisation. C'est d'autant plus vrai aujourd'hui avec l'entrée en application de l'AI Act, le règlement européen sur l'intelligence artificielle.
Au travers du règlement sur l'intelligence artificielle (appelé en anglais AI Act), l'Europe créée un cadre juridique pour le développement, la mise sur le marché et l'utilisation de l'IA au sein des pays membres de l'Union européenne (UE).
Concrètement, les employeurs qui utilisent l'IA dans leur entreprise devront entreprendre certaines actions pour respecter cette nouvelle règlementation.
L'AI Act a adopté une approche basée sur les risques où plus le risque est grand, plus les règles sont strictes. Les systèmes d'IA ont ensuite été classés de la manière suivante :
Les systèmes d'IA présentant un risque inacceptable, ceux qui sont contraires aux normes et valeurs de l'UE ou qui conduisent à des violations flagrantes des droits fondamentaux et sont donc interdit
Les systèmes à hauts risques, listés dans les annexes I et III du règlement, qui concernent 8 domaines dans lesquels l'utilisation de l'IA peut être particulièrement sensible
Les systèmes d'IA présentant un risque limité, qui ont des besoins de transparence spécifiques
- Les systèmes d'IA présentant un risque minimal n'entraînant pas d'obligation particulière.
Si la majorité des dispositions de ce règlement entreront pleinement en vigueur le 02/08/2026, certaines d'entre elles prennent déjà effet en 2025.
Il en va ainsi de l'obligation pour les fournisseurs et les utilisateurs de systèmes d'IA de prendre des mesures afin de garantir un niveau suffisant de compréhension de l'IA par les personnes qui interagissent avec ces systèmes. Celles-ci doivent être en mesure de comprendre leur impact, d'identifier les risques et de prendre des décisions éclairées. L'employeur détermine lui-même quelles connaissances sont requises et, si nécessaire, comment elles s'acquièrent (formations...).
L'employeur doit donc établir des directives en ce qui concerne l'utilisation de l'IA au sein de son organisation.
2025 voit également l'interdiction de certains systèmes présentant des risques inacceptables, à savoir tous les systèmes d'IA considérés comme une menace évidente pour la sécurité, la subsistance et les droits des personnes. Il en va ainsi par exemple des systèmes de notations sociales (évaluation des personnes sur base de leur comportement social ou de caractéristiques personnelles, pouvant donner lieu à des discriminations).
L'employeur doit donc vérifier de quelle catégorie de risque relève ce système et veiller à ce qu'aucun système d'IA inacceptable ne soit utilisé au sein de l'entreprise.
Des astreintes en cas de non-respect
Des amendes très élevées seront appliquées à partir du 02/08/2025 aux entreprises qui développent ou utilisent des systèmes d'IA interdits, allant jusqu'à 35 millions d'€ ou, si le contrevenant est une entreprise, 7% de son chiffre d'affaires annuel mondial total, suivant le montant le plus élevé.
L'entrée en vigueur de cette nouvelle mesure amène son lot de questions. Plus d'infos suivront : restez connecté à UCM.be !