Aller au contenu principal Skip to page footer

Figma face au contentieux : une class action qui questionne l’IA et la propriété des fichiers

Dans l’affaire Khan v. Figma, Inc. (No. 3:25-cv-10054)₁, une class action américaine met en cause l’usage par Figma des fichiers de ses utilisateurs pour entraîner des modèles d’intelligence artificielle sans consentement explicite, soulevant des enjeux majeurs de propriété intellectuelle, de secret des affaires et de gouvernance des données.

 

Du contrat de confiance au contentieux

Figma s’est imposée comme une plateforme de référence pour la création et la collaboration en design, offrant aux utilisateurs la garantie explicite qu’ils conservent la propriété de leurs œuvres.

L’introduction, en catimini selon les plaignants, d’un paramètre Content Training activé par défaut pour certains abonnements remet en cause cette promesse, en autorisant l’exploitation des fichiers clients pour entraîner des algorithmes d’IA₂.

Ce changement, dénoncé par la plainte, révèle un décalage entre la communication publique de Figma et la réalité technique : des contenus sensibles (maquettes, calques, métadonnées) seraient intégrés à des jeux d'entraînement, sans consentement clair. L’enjeu dépasse le simple contrat : il touche à la confidentialité, à la valeur économique des créations, et à l’équité dans la relation entre fournisseur SaaS et utilisateur.

Du point de vue des plaignants, l’absence d’un consentement éclairé constitue une violation contractuelle, mais également une atteinte au secret des affaires : des données que les utilisateurs pensaient privées seraient utilisées pour construire un avantage concurrentiel pour Figma.

Le risque n’est pas théorique : une fois un modèle formé, les informations extraites peuvent rester intégrées dans ses poids, rendant l’effacement complet incertain, ce qui pose un problème structurel pour les utilisateurs concernés.

La plainte forme ainsi un récit clair : un changement unilatéral de politique, une bascule technique, et un avantage injuste tiré des créations d’autrui, un modèle de gouvernance des données d’IA mis en cause au nom du respect des droits des créateurs.

 

Les voies contentieuses : class action, secret des affaires, injonctions

La stratégie judiciaire combine plusieurs fondements : violation de contrat, appropriation de secrets d’affaires, pratiques commerciales déloyales, et recherche de remèdes injonctifs. Les plaignants visent non seulement des dommages-intérêts, mais aussi des mesures d’arrêt de l’exploitation des fichiers litigieux et de suppression ou blocage des modèles formés.

Sur le versant secrets des affaires, l’argument est que les métadonnées (historique des calques, architecture des fichiers, noms internes) possèdent une valeur commerciale et un caractère confidentiel, qui ne pouvaient être exploités sans consentement explicite. Ce type de qualification ouvre la voie à des demandes d’injonction ciblées.

La preuve technique sera cruciale : les demandes de production porteront probablement sur les pipelines d’entraînement, les logs d’activation, les métadonnées associées aux comptes, et les modèles finaux afin d’établir un lien entre les fichiers clients et les performances/outputs des IA. Des expertises en machine learning de données seront nécessaires pour analyser l’empreinte des données source dans les modèles.

La nature collective de la plainte (class action) vise à représenter un ensemble d’utilisateurs affectés. Si la classe est certifiée, cela pourrait mener à des réparations pour de nombreux plaignants et à une injonction globale contre Figma. Mais le juge devra d’abord vérifier la communauté de faits et de droit, l’adéquation du représentant de la classe, et la clarté des critères d’inclusion.

Au-delà du préjudice individuel, la reconnaissance d’un tel contentieux pourrait créer un précédent jurisprudentiel pour toutes les plateformes SaaS-IA : elle imposerait des standards exigeants de transparence, de consentement, et de respect des droits des utilisateurs-créateurs.

 

Class action US vs action de groupe en France : un contraste significatif

Aux États-Unis, la class action est bien codifiée : l’article 23 des Federal Rules of Civil Procedure encadre la possibilité pour un groupe de plaignants d’agir collectivement, même si les membres résident dans plusieurs États, sous réserve de conditions comme l’homogénéité des demandes et l’adéquation du représentant.

En France, l’équivalent, l’action de groupe, qui existe depuis la loi dite « loi Hamon » de 2014, a été récemment remodelée par le décret n° 2025-734 du 30 juillet 2025 relatif à la procédure applicable aux actions de groupe et au registre des actions de groupe, pris en application de l’article 16 de la loi n° 2025-391 du 30 avril 2025 portant diverses dispositions d’adaptation au droit de l’Union européenne en matière économique, financière, environnementale, énergétique, de transport, de santé et de circulation des personnes.

Désormais, l’action de groupe en France fonctionne dans un cadre entièrement rénové. La loi n° 2025-391 du 30 avril 2025 a unifié et élargi le dispositif, supprimant les anciens régimes sectoriels (consommation, discriminations, données, santé…) pour les regrouper dans un mécanisme unique, aligné sur la directive (UE) 2020/1828. L’action de groupe peut désormais viser tout manquement légal ou contractuel, quel que soit le domaine concerné, et peut être engagée non seulement par les associations agréées mais aussi par des associations déclarées depuis deux ans ou des syndicats représentatifs selon le type de manquement.

Le régime devient ainsi plus ouvert, plus fonctionnel et adapté à des litiges variés, notamment ceux liés aux pratiques numériques, aux plateformes et aux traitements de données.

De plus, le décret n° 2025-734 du 30 juillet 2025 précise la procédure et prévoit l’instauration d’un registre public national des actions de groupe, permettant au public d’identifier les actions en cours (objet, juridiction, parties, état d’avancement). Ce registre renforce la transparence et la traçabilité du contentieux collectif.

Le décret introduit aussi des mécanismes procéduraux nouveaux : possibilité pour le juge de rejeter d’office les actions manifestement infondées, contrôle des conflits d’intérêts, harmonisation de la phase d’indemnisation, tribunaux spécialisés. Ces innovations rendent l’action de groupe plus efficace, plus lisible et plus opérationnelle, marquant un tournant vers un véritable modèle de recours collectif à la française.

 

Association Data Ring : accompagnement collectif et actions de groupe

L’association d'intérêt général Data Ring se consacre à la protection des données personnelles des utilisateurs contre les usages non consentis par les plateformes et éditeurs de services numériques.

Elle assure une veille juridique, l’information des personnes concernées et la mise en place de parcours d’accompagnement adaptés aux enjeux techniques et juridiques propres aux litiges liés à l’IA. Elle récompense notamment chaque année par Le Prix de la Donnée l’excellence de la recherche. De même, elle a mis au point le Guide « IA et enfants : 10 réflexes à avoir » pour accompagner les familles à l’ère de l’intelligence artificielle.

Pour répondre aux situations collectives, l’association se propose de piloter des actions de groupe : identification et organisation des plaignants, centralisation des éléments de preuve, coordination des expertises techniques (notamment en machine learning) et élaboration d’une stratégie commune de recours et d’indemnisation. Son rôle inclut aussi la médiation avec les acteurs concernés et la promotion de mesures préventives pour renforcer la transparence et le consentement.

Si vous estimez que vos contenus ont été exploités sans consentement ou souhaitez rejoindre une démarche collective, contactez-nous pour faire évaluer votre cas et étudier les possibilités d’action commune.

 

₁ https://fingfx.thomsonreuters.com/gfx/legaldocs/dwpkqekdepm/FIGMA%20AI%20LAWSUIT%20complaint.pdf
2 https://www.reuters.com/legal/government/figma-sued-allegedly-misusing-customer-data-ai-training-2025-11-21/?utm_source=chatgpt.com