L’IA dans les entreprises en Suisse : « une régulation à la carte »
Comme le relève un compte rendu du SECO fin 2024, l’économie suisse est ouverte au potentiel de l’intelligence artificielle. Plus de la moitié des entreprises a commencé à introduire cette technologie dans ses activités, notamment pour effectuer des traductions, rédiger des courriers et des e-mails ou encore procéder à l’analyse de données. Alors que l’Europe a adopté « l’IA Act », la régulation de l’IA dans les relations de travail en Suisse reste parfois floue. Etat des lieux de la situation actuelle.
L’IA intéresse. Ou questionne, pour le moins. C’est le constat établi à l’issue de l’événement IA, coorganisé par l’UPCF et la FPE. Face à un parterre de près de 200 personnes, Christian Schafer, directeur adjoint de l’UPCF, a donné le coup d’envoi de la rencontre : « Cette participation représente la manifestation de la curiosité et de l’importance accordée à l’IA. » Grâce à quatre ateliers pratiques et une table ronde finale, les organisateurs ont su répondre à une attente claire : comprendre les impacts concrets de l’IA sur les entreprises fribourgeoises et en saisir les opportunités, sans occulter les enjeux juridiques, éthiques ou humains. Un rendez-vous qui confirme l’intérêt stratégique croissant pour cette technologie dans le tissu économique régional.

« 50 fois moins intelligents qu’un enfant de 4 ans », voilà l’affirmation de Yann Le Cun, pionnier français de l'intelligence artificielle (IA) et directeur scientifique de l’IA chez Meta au sujet des systèmes actuels d’IA. Selon lui, ces derniers sont encore loin d’être intelligents. En effet, ils “ne savent ni raisonner, ni planifier”. Les grands modèles de langage (LLM), par exemple, se limitent à manipuler le langage sans comprendre les réalités ou les concepts qui sont traités. Aussi l’IA générative, bien qu’impressionnante, ne peut pas s’adapter spontanément à des situations totalement nouvelles et n’est pas capable de planification.
Pourtant, selon Yann Le Cun, nous ne pourrons bientôt plus rivaliser avec les machines en termes de capacités intellectuelles. Cela étant, « même si l’IA sera plus intelligente que nous, elle travaillera pour nous » ! C’est pour cette raison qu’il est essentiel que l’IA ne soit pas limitée aux systèmes de valeurs et de connaissances de quelques entreprises, mais qu’elle soit « open source ». Il faut des systèmes entrainés à toutes les langues, toutes les cultures et tous les systèmes de valeur du monde entier.
Les défis de l’IA
Pour fonctionner, l’IA a besoin d’énormes quantités de données, ce qui soulève des questions sur les droits fondamentaux tels que le respect de la vie privée et la protection de la personnalité. Ce faisant, l'IA s’appuie sur des bases de données qui intègrent les préjugés et les biais des personnes qui l'ont créée. Elle perpétue donc les stéréotypes et accentue les discriminations déjà existantes. En Autriche par exemple, des algorithmes utilisés dans des outils d'accès à l'emploi ont écarté les femmes des secteurs informatiques. Selon le Forum économique mondial, les chances de trouver un travail diminueraient de 8% pour les femmes en raison de certains outils technologiques.
En outre, l’utilisation de l’IA dans les entreprises instaure une logique de performance fondée sur des données chiffrées qui ne tiennent pas compte d’éléments importants, mais non chiffrables, comme les qualités personnelles et les compétences sociales. Les discussions entre collègues, leur qualité et leur apport positif sont par exemple difficiles à saisir au moyen d’instruments intégrant l’IA. Pour y remédier, il y a tout d’abord lieu de privilégier l’autonomie décisionnelle de l’humain par rapport à l’output de la machine. Ensuite, il est essentiel de garantir le droit à l’explication des décisions émanant d’un système d’IA ou fondées sur ses appréciations, de même que leur contrôle et leur révision par un humain. Ainsi pour toute décision prise par un système d’IA ou fondée sur un tel système, les personnes concernées doivent être informées, non seulement de la base sur laquelle la décision a été prise, mais aussi de la manière dont les systèmes d’IA sont programmés.
L’utilisation de l’IA en entreprise comporte également des risques psychosociaux pour les employé·e·s. Ces derniers pourraient percevoir l’IA comme une perte d’autonomie. Or l’autonomie et l’autodétermination sont deux facteurs favorisant la motivation et donc la santé mentale des employé·e·s. Il est donc primordial d’implémenter l’IA avec la participation et l'implication directe du personnel. En effet, ce sont eux qui connaissent le mieux les processus internes à leur entreprise. En outre, les systèmes IA pourraient être utilisés à des fins de surveillance sur le lieu du travail, allant à l’encontre de la réglementation suisse en matière de protection de la personnalité des travailleurs (voir ci-dessous).
Concernant le marché du travail, l’IA pourrait remplacer certains métiers manuels et répétitifs, entre autres dans les secteurs des transports, de la logistique, de la fabrication, et des services administratifs. Selon le rapport de mars 2024 de la Commission de l’intelligence artificielle, en France, ce sont 15 % des heures de travail mondiales qui pourraient être automatisées d’ici 2030. Cela étant, l’IA est aussi un moyen puissant de faire évoluer le marché du travail grâce à son potentiel de rentabilité et d’attractivité. Cette transformation pourrait non seulement compenser les pertes d’emplois dans certains secteurs, mais aussi ouvrir la voie à de nouvelles carrières dans des secteurs en pleine évolution.
Quoi qu’il en soit, de nouvelles formes de collaboration entre l’homme et l’IA devront voir le jour. Cette collaboration doit résulter d’un encadrement juridique adéquat, afin que l’IA soit au service de l’humain et non un danger pour lui.
La régulation de l’IA dans les relations de travail
En Europe
Le 1er août 2024, le Parlement européen (UE) a adopté « l’IA Act », une loi visant à réglementer l’IA à l’échelle de l’UE. Elle procède à une classification d’applications, dont certaines sont destinées au monde du travail, en fonction des risques définis. Elle interdit notamment le recours aux applications qui permettent des pratiques interdites, comme la notation sociale ou l’analyse des émotions.
De plus, l’UE est en passe d’adopter une directive permettant d’améliorer les conditions de travail et la protection des données personnelles des employés exécutant un travail via une plateforme d’algorithmes. Elle contient notamment des règles sur l’utilisation des algorithmes, pour promouvoir la transparence, l’équité, le contrôle humain et la responsabilité de ses utilisateurs. Ces règles auraient un caractère impératif.
Au niveau du Conseil de l’Europe, la « Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit » est le premier instrument international juridiquement contraignant dans ce domaine. Ouverte à la signature le 5 septembre 2024, elle vise à garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont pleinement compatibles avec les droits humains, la démocratie et l’État de droit, tout en étant propice au progrès et aux innovations technologiques.
En Suisse
Pour l’heure, la Suisse a fait le choix de ne pas réglementer l’IA de manière spécifique. Cela signifie-t-il qu’il y a un vide juridique autour de l’IA en Suisse ? Non, les normes juridiques suisses sont conçues de manière à s’appliquer indépendamment de la technologie utilisée (« neutralité technologique »). Ainsi ce sont des thèmes transversaux, comme le droit de la protection des données, qui sont applicables pour les logiciels d’IA.
De plus, le 27 mars 2025, la Suisse a signé la Convention-cadre du Conseil de l'Europe (cf. ci-dessus), à Strasbourg. Ce faisant le Conseil fédéral reconnaît que l'IA doit être réglementée afin de protéger les droits fondamentaux. Un projet de consultation qui met en œuvre cette Convention sera élaboré d’ici fin 2026, en déterminant les mesures juridiques nécessaires dans les domaines de la transparence, de la protection des données, de la non-discrimination et de la surveillance.
Les principales dispositions encadrant l’IA en droit du travail suisse
- La loi sur la protection des données (LPD)
Le respect du droit sur la protection des données mérite une attention particulière, car les logiciels d’IA traitent régulièrement des données personnelles. La LPD, formulée de manière neutre du point de vue technologique, est donc directement applicable à l’utilisation de traitements de données basés sur l’IA. De ce fait, le préposé fédéral à la protection des données (PFPDT) rappelle « aux fabricants, fournisseurs et exploitants d’applications de ce type l’obligation légale de s’assurer, dès le développement de nouvelles technologies et la planification de leur utilisation, que les personnes concernées disposent d’un degré d’autodétermination numérique aussi élevé que possible » – sans oublier que la violation de certaines dispositions de la loi sur la protection des données est passible de sanctions (p. ex. devoir d’information).
Ainsi la source, la finalité et le fonctionnement de données traitées par l’IA doivent être transparents. Selon la LPD, le droit à la transparence est lié au droit des personnes concernées de s’opposer à un traitement automatisé de données ou d’exiger que des décisions individuelles automatisées soient contrôlées par un être humain. P. ex. : toute personne a le droit de savoir s’il parle ou écrit à une machine et à quelles fins les données qu’il a entrées dans le système seront traitées ultérieurement. De même, l’utilisation de programmes permettant la falsification d’images ou de voix de personnes identifiables doit être clairement reconnaissable – pour autant que cette utilisation ne soit pas totalement illicite pénalement.
La LPD encadre cette matière, mais elle ne répond pas à tous les défis. En effet, les règles de la LPD permettent aux travailleurs d'être informés individuellement sur le traitement des données, mais non collectivement. Pourtant, l’instauration de systèmes d’IA concerne l’ensemble des travailleurs. Il serait donc souhaitable par la suite de renforcer les droits des travailleurs lorsque des algorithmes sont utilisés dans les processus qui les concernent, notamment en créant des droits de recours collectifs.
- Les dispositions relatives au droit du travail
Le code des obligations (CO) et la loi sur le travail (LTr) encadrent également cette matière avec leurs normes de protection de la personnalité des travailleurs (art. 328 CO et 6 LTr). Une règle particulièrement pertinente dans ce contexte est l’art. 26 OLT 3 qui interdit « des systèmes de surveillance ou de contrôle destinés à surveiller le comportement des travailleurs à leur poste de travail ». Il s’agit de tout système technique permettant d’enregistrer des données sur le comportement des travailleurs, comme des caméras, des dispositifs d’écoute ou de surveillance de l’activité sur l’ordinateur, des systèmes de localisation ou des outils informatiques utilisant l’IA. Ces systèmes de surveillance sont autorisés s’ils poursuivent d’autres buts légitimes, comme la sécurité des lieux ou le contrôle de qualité ou du rendement, pour peu qu’ils respectent le principe de proportionnalité et que les travailleurs concernés en aient été informés. De telles mesures doivent toutefois être mises en balance avec l’art. 6, al. 2, LTr indiquant que l’employeur doit protéger les travailleurs contre le surmenage et l’art. 2, al. 1, OLT 3 précisant que la protection porte sur la santé physique et psychique, comme le fait d’éviter des efforts excessifs.
Aussi, l’art. 328b CO limite la récolte des données par l’employeur à deux finalités : « déterminer l’aptitude du travailleur à exécuter la prestation de travail et servir à l’exécution du contrat de travail ». Il renvoie pour le surplus à la LPD. La question de savoir si l’employeur peut récolter des données pour d’autres finalités que celles prévues à l’art. 328b CO a été longtemps controversée, particulièrement si le travailleur y a consenti, ce qui constitue un motif justificatif selon la LPD (art. 31, al. 1). Si une bonne partie de la doctrine s’est accordée à dire que le consentement ne peut justifier un traitement de données à d’autres fins, le Tribunal fédéral a récemment admis cette possibilité. Malgré cette ouverture du Tribunal fédéral, la doctrine émet des réserves quant à la possibilité de donner un consentement libre au sens de l’art. 6, al. 6, LPD, en droit du travail, ou dans toute situation impliquant un déséquilibre structurel entre les parties. Par ailleurs, la collecte de données sensibles ainsi que les profilages à risque élevé requièrent le respect de conditions spécifiques, tel que le consentement exprès de la personne concernée (art. 6, al. 7, let. a, LPD) et l’obligation d’effectuer une analyse d’impact (art. 22, al. 1 et 2, let. a, LPD).
Finalement, les limites posées au droit de l’employeur de donner des instructions, prévu à l’art. 321d CO, sont également pertinentes. Le droit de donner des instructions doit en effet être conforme au droit impératif, notamment à la protection de la personnalité (art. 328 CO), au contrat et au principe de la bonne foi. Toute forme d’instruction générée par une IA doit donc se situer dans ce cadre et le travailleur peut refuser de l’exécuter si tel n’était pas le cas.
- La loi sur la participation (LPart)
La LPart règle l’information et la consultation des travailleurs dans les entreprises suisses. Elle énumère quatre domaines où des droits de participation sont prévus :
- Sécurité et santé au travail ;
- Transfert de l’entreprise ;
- Licenciements collectifs ;
- Affiliation à une institution de la prévoyance professionnelle et résiliation de l’affiliation.
Ainsi, selon la LPart, les droits de participation des travailleurs dépendent étroitement de ces quatre domaines. En effet, pour faire valoir leurs droits lors de la mise en place de systèmes d'IA par l'employeur, les travailleurs doivent le faire dans l’un des domaines précités.
Il n’existe donc pas de règles spéciales en Suisse en matière de gestion algorithmique du travail. C’est le constat visé par la motion 23.4492 « GYSI » déposée le 22 décembre 2023. Elle demande de renforcer les droits de participation des travailleurs lorsque des algorithmes sont utilisés dans les processus qui les concernent et de créer des droits de recours collectifs ainsi que de possibles sanctions.
Comment répondre aux enjeux
Le cadre juridique suisse, axé sur la neutralité technologique, peine à répondre à tous les enjeux. Actuellement, les lois existantes sur la protection des données, le CO, la LTr et la Ltrans offrent un certain degré de régulation, mais elles ne suffisent pas à encadrer pleinement l'usage de l'IA dans les entreprises. Par ailleurs, la question de la participation des travailleurs dans les décisions liées à l'IA reste sous-développée. Un vide juridique que certains appellent à combler afin de garantir une relation de travail plus équitable.
Face à ces défis, le Conseil fédéral s’est fixé pour objectif de renforcer la Suisse en tant que pôle d'innovation, tout en protégeant les droits fondamentaux, y compris la liberté économique, et d’améliorer la confiance de la population en l'IA. La transparence des technologies et une protection renforcée des droits des travailleurs doivent être au cœur des réformes législatives à venir, afin de s'assurer que l’IA bénéficie à la fois aux entreprises et à leurs employés. L’avenir nous dira si l’approche sectorielle adoptée par la Suisse sera complétée ou remplacée par une réglementation générale sur l’IA, à l’instar de l’IA ACT.
Les entreprises ont aussi leur rôle à jouer dans la réglementation de l’IA en leur sein. Tout en intégrant les collaboratrices et les collaborateurs dans le processus, il est important d’encadrer son utilisation. Pour ce faire, il est recommandé de rédiger une directive et de la mettre à jour régulièrement. Plusieurs directives desquelles s’inspirer existent, notamment celle de l’Etat de Fribourg.
Notre service juridique se tient à votre disposition pour plus d’informations.
Article rédigé par Nadège Morandi, juriste à la FPE-CIGA
Sur la même thématique,
retrouvez le compte rendu de notre événement sur l’IA dans les entreprises.