Une vingtaine d’adhérents se sont connectés jeudi 25 septembre pour le CS « IA, communication et création graphique : des enjeux juridiques au quotidien ». Le droit intéresse encore et toujours les communicants et les journalistes, notamment sur les sujets d’actualité.

Nadège Riederer-Lemarchand, avocate associée pour le département Propriété intellectuelle et sa consœur, Flore Gédéon, avocate pour le département Droit social, toutes deux du cabinet Fidal & Associés, ont capté l’attention des participants à la visio sur l’IA et le droit.

Après avoir introduit le sujet et rappelé que l’IA est une révolution dans le monde du travail et dans l’organisation interne, elles ont axé leurs interventions sur trois volets :

–          La propriété des prompts

–          L’IA et l’organisation au travail

–          L’IA, les obligations et responsabilités

En ce qui concerne les prompts, Nadège Riederer-Lemarchand a rappelé que savoir faire des prompts était désormais considéré comme une compétence stratégique, prolongement du savoir-faire du communicant.

Attention aux mauvais prompts qui entraînent des questions de droit d’auteur, des » bad buzz », une perte de confiance des clients envers votre entreprise, etc.

Il est possible de protéger ses prompts en déposant sa bibliothèque et d’engager des cessions de droit pour pouvoir continuer à exploiter les prompts créés par un salarié ou un prestataire.

L’IA et l’organisation du travail : entre opportunités et défis

L’analyse de l’impact de l’intelligence artificielle sur l’organisation du travail révèle des données particulièrement éclairantes. Actuellement, 58% des salariés utilisent déjà des outils d’IA, tandis que 48% des directeurs des ressources humaines envisagent d’intégrer ces technologies dans leurs processus de recrutement. Les projections indiquent que 32% des emplois subiront une transformation liée à l’IA au cours des vingt prochaines années. Malgré ces évolutions majeures, 45% des salariés interrogés déclarent ne pas être informés de l’utilisation de l’IA par leur employeur, révélant un déficit de communication interne préoccupant.

Cette situation génère des inquiétudes légitimes parmi les collaborateurs, qui redoutent notamment les licenciements automatisés, l’intensification de la surveillance, les processus de sélection entièrement automatisés et les biais dans l’évaluation des performances. Ces craintes peuvent favoriser l’émergence de risques psychosociaux qu’il convient d’anticiper et de traiter.

Le cadre réglementaire européen et ses implications

L’entrée en vigueur de l’IA Act, règlement européen publié au Journal Officiel le 12 juillet 2024, marquera une étape décisive. Dès le 2 août 2026, les obligations inscrites dans le code du travail s’appliqueront pleinement aux entreprises françaises. Ce nouveau cadre impose aux employeurs un contrôle rigoureux des données d’entrée, qui doivent être pertinentes et représentatives au regard de la finalité du système d’intelligence artificielle déployé.

Il est impératif pour les employeurs d’exercer un contrôle sur les données d’entrée qui doivent être pertinentes et représentatives au regard de la finalité du Système d’Intelligence Artificielle (SIA). L’employeur se doit d’évaluer et auditer régulièrement le SIA pour identifier et corriger les biais. A défaut, il est responsable des erreurs constatées.

Les risques à maîtriser et les bénéfices à capitaliser

L’utilisation non encadrée de l’IA expose les organisations à plusieurs types de risques. Les questions de sécurité informatique, de confidentialité des données et de conformité au Règlement Général sur la Protection des Données constituent les principales préoccupations. S’ajoute à cela l’incertitude juridique concernant la propriété des résultats générés par les systèmes d’IA.

Néanmoins, les bénéfices potentiels justifient les efforts d’adaptation nécessaires. L’IA permet d’obtenir des gains de productivité significatifs, d’améliorer la qualité de vie au travail, de stimuler la créativité des équipes et de fiabiliser les processus de prise de décision grâce à une meilleure exploitation des données.

Les préalables à l’intégration de l’IA

Avant d’intégrer l’intelligence artificielle dans leurs processus, les entreprises doivent mener une réflexion approfondie sur plusieurs aspects cruciaux : la modification des tâches existantes, la transformation des métiers, la réorganisation du travail, les enjeux de sécurité et de confidentialité, ainsi que l’impact sur la santé et la sécurité des travailleurs.

Cette analyse préalable doit déboucher sur l’établissement d’un document de référence régulant les conditions d’utilisation de l’IA. Ce document, qui peut prendre la forme d’une charte informatique, d’une charte éthique, d’un code de bonne conduite ou d’un règlement intérieur, doit définir précisément le périmètre d’application, les engagements éthiques et les règles d’usage responsable. Il convient également d’y intégrer la notion des mauvais usages et leurs conséquences.

Les obligations de conformité et de dialogue social

La conformité au RGPD nécessite la mise en place d’outils spécifiques permettant de contrôler les données personnelles, de tenir à jour un registre de traitement, de réaliser des analyses d’impact et d’organiser des points de contrôle réguliers sur les outils d’IA. La vérification de la conformité des prestataires externes constitue également une obligation incontournable.

Le dialogue social occupe une place centrale dans ce processus d’intégration. Le Comité Social et Économique doit impérativement être consulté avant le déploiement d’outils d’IA, particulièrement lorsqu’ils concernent la gestion du personnel, le contrôle de l’activité ou l’évolution des salariés. Les partenaires sociaux doivent comprendre les impacts de ces technologies et accompagner leur déploiement.

L’employeur assume par ailleurs une obligation de formation et d’adaptation à l’IA, incluant notamment la formation aux techniques de création de prompts. Le parcours d’intégration recommandé comprend successivement l’élaboration du document de réglementation, la consultation du CSE, la mise en conformité RGPD, l’intégration dans la Gestion des Emplois et des Parcours Professionnels, la formation des équipes et le maintien du dialogue social.

Les obligations de transparence et de propriété intellectuelle

La législation française sur l’influence commerciale impose des obligations spécifiques concernant les contenus générés par l’IA. Les images créées artificiellement doivent porter la mention “Image virtuelle”, particulièrement lorsqu’elles intègrent des visages ou des silhouettes humaines. Plus généralement, les entreprises doivent informer le public de l’utilisation de l’IA, mentionner clairement les contenus générés artificiellement et respecter les droits des personnes en cas de traitement automatisé.

Les conditions générales de prestation doivent être adaptées pour intégrer des clauses de responsabilité précisant que le client demeure responsable de la validation finale des contenus. En matière de propriété intellectuelle, il convient de définir clairement qui détient les droits sur les contenus générés par l’IA et d’informer les utilisateurs des conditions d’usage, notamment en termes de licences et de restrictions.

Cette visioconférence a ainsi permis aux participants d’appréhender la complexité juridique de l’intégration de l’IA dans leurs activités professionnelles, tout en identifiant les bonnes pratiques à adopter pour tirer parti de ces technologies tout en maîtrisant les risques associés.