Sept engagements concrets, contractuellement opposables. Les cas d'usage qu'on refuse, la lecture qu'on fait de l'AI Act, ce que nos clients peuvent exiger de nous. Pas un manifeste poétique, un document sanctionnable.
Parce qu'on en a marre des « principes éthiques IA » qui tiennent en cinq slogans abstraits sur une page LinkedIn.
Cette charte décrit ce que nos clients peuvent exiger de nous, contractuellement, lorsqu'on intervient chez eux sur des sujets impliquant de l'intelligence artificielle. Elle est annexée systématiquement à nos devis. Elle est opposable. Elle évolue par révisions datées et signées.
Elle est également la grille de lecture que nos experts utilisent en interne, dès le cadrage, pour décider si une mission peut être acceptée — ou si elle doit être refusée.
Si une décision automatique a un impact sur une personne (un client, un salarié, un candidat), nous garantissons que la logique sous-jacente peut être expliquée en langage naturel, avec ses limites. Pas de boîte noire opaque par défaut. Si l'explicabilité totale n'est pas possible (cas réel pour certains modèles profonds), nous le signalons en début de mission et nous proposons des alternatives.
Embauche, licenciement, octroi/refus de crédit, tarification individualisée, profilage à effet juridique : ces sujets exigent un humain dans la boucle avant la décision. Pas après, pas en théorie. Nous refusons les missions qui demanderaient l'inverse, même si le client insiste.
Les jeux d'entraînement utilisés (qu'ils viennent du Client ou de tiers) font l'objet d'un audit documenté : origine, base légale, droits d'usage, mention dans les registres RGPD. Nous refusons d'intégrer des données scrapées sans titre. Nous documentons chaque source dans un registre annexé au livrable.
Aucun de nos livrables ne crée d'enfermement (« vendor lock-in »). Le code est cédé, le modèle est exportable, les données restent la propriété du Client. Si un éditeur tiers est impliqué (API LLM commerciale par exemple), nous documentons systématiquement une voie de sortie avec son coût estimé.
Toute mission inclut un transfert de compétences. Au minimum : une session de 2 jours permettant à 2-3 collaborateurs internes de comprendre, faire évoluer et — surtout — repérer un dysfonctionnement du système livré. La capacité d'audit reste interne, pas captive.
Pour tout système d'IA susceptible de produire des biais (recommandation, scoring, filtrage), nous livrons une fiche d'évaluation des biais identifiables, un protocole de mesure dans la durée, et un seuil d'alerte au-delà duquel une intervention humaine est requise. Cette fiche est versionnée et mise à jour à chaque évolution du modèle.
Nous nous interdisons de travailler sur les cas suivants, même très bien rémunérés :
Cette liste est publique et opposable. Elle peut s'enrichir, jamais s'amenuiser.
Le règlement (UE) 2024/1689 (« AI Act ») est entré en application progressive depuis 2025. La majorité des cas d'usage que nous traitons relèvent de la catégorie « risque limité » ou « risque minimal », qui n'impose pas d'obligations lourdes — mais nous appliquons par défaut les obligations de transparence prévues pour les systèmes à risque limité (article 50) :
Pour tout système classé « haut risque » (annexe III du règlement), nous appliquons l'ensemble des obligations prévues : système de gestion des risques, gouvernance des données, journalisation, surveillance humaine, robustesse, cybersécurité. Si vous êtes dans ce cas, nous vous le signalerons explicitement en cadrage et nous chiffrerons le surcoût correspondant — typiquement 15 à 25 % du budget projet.
Nous ne sommes pas dogmatiques. Nous utilisons des modèles américains (OpenAI, Anthropic), des modèles européens (Mistral) et des modèles open-weights (Llama, Qwen) selon ce qui sert le mieux votre cas d'usage.
En revanche, nous garantissons toujours :
Une charte qu'on ne sanctionne pas n'est pas une charte. C'est un slogan.
— Mehdi Belkacem, Président de Digital Factory
Cette charte a été co-rédigée avec Maître Élise Ribeiro (cabinet Ribeiro & Associés, Paris), avocate spécialisée en droit du numérique.