Charte IA. Opposable.

Sept engagements concrets, contractuellement opposables. Les cas d'usage qu'on refuse, la lecture qu'on fait de l'AI Act, ce que nos clients peuvent exiger de nous. Pas un manifeste poétique, un document sanctionnable.

Version 2.0 — Mars 2026 Document engageant — opposable contractuellement Lecture : ≈ 6 min

Pourquoi cette charte

Parce qu'on en a marre des « principes éthiques IA » qui tiennent en cinq slogans abstraits sur une page LinkedIn.

Cette charte décrit ce que nos clients peuvent exiger de nous, contractuellement, lorsqu'on intervient chez eux sur des sujets impliquant de l'intelligence artificielle. Elle est annexée systématiquement à nos devis. Elle est opposable. Elle évolue par révisions datées et signées.

Elle est également la grille de lecture que nos experts utilisent en interne, dès le cadrage, pour décider si une mission peut être acceptée — ou si elle doit être refusée.

Nos sept engagements opposables

① Nous ne livrons jamais d'IA dont nous ne pourrions pas expliquer le fonctionnement à un dirigeant non-technique

Si une décision automatique a un impact sur une personne (un client, un salarié, un candidat), nous garantissons que la logique sous-jacente peut être expliquée en langage naturel, avec ses limites. Pas de boîte noire opaque par défaut. Si l'explicabilité totale n'est pas possible (cas réel pour certains modèles profonds), nous le signalons en début de mission et nous proposons des alternatives.

② Nous ne livrons jamais d'IA qui prend des décisions à effet juridique sur une personne sans supervision humaine

Embauche, licenciement, octroi/refus de crédit, tarification individualisée, profilage à effet juridique : ces sujets exigent un humain dans la boucle avant la décision. Pas après, pas en théorie. Nous refusons les missions qui demanderaient l'inverse, même si le client insiste.

③ Nous ne livrons jamais d'IA entraînée sur des données dont la licéité n'est pas vérifiée

Les jeux d'entraînement utilisés (qu'ils viennent du Client ou de tiers) font l'objet d'un audit documenté : origine, base légale, droits d'usage, mention dans les registres RGPD. Nous refusons d'intégrer des données scrapées sans titre. Nous documentons chaque source dans un registre annexé au livrable.

④ Nous garantissons la réversibilité de toute solution livrée

Aucun de nos livrables ne crée d'enfermement (« vendor lock-in »). Le code est cédé, le modèle est exportable, les données restent la propriété du Client. Si un éditeur tiers est impliqué (API LLM commerciale par exemple), nous documentons systématiquement une voie de sortie avec son coût estimé.

⑤ Nous formons les équipes du Client à auditer ce que nous avons livré

Toute mission inclut un transfert de compétences. Au minimum : une session de 2 jours permettant à 2-3 collaborateurs internes de comprendre, faire évoluer et — surtout — repérer un dysfonctionnement du système livré. La capacité d'audit reste interne, pas captive.

⑥ Nous documentons les biais possibles et les modalités de surveillance

Pour tout système d'IA susceptible de produire des biais (recommandation, scoring, filtrage), nous livrons une fiche d'évaluation des biais identifiables, un protocole de mesure dans la durée, et un seuil d'alerte au-delà duquel une intervention humaine est requise. Cette fiche est versionnée et mise à jour à chaque évolution du modèle.

⑦ Nous refusons certains cas d'usage. Liste publique.

Nous nous interdisons de travailler sur les cas suivants, même très bien rémunérés :

Cette liste est publique et opposable. Elle peut s'enrichir, jamais s'amenuiser.

Notre lecture de l'AI Act européen

Le règlement (UE) 2024/1689 (« AI Act ») est entré en application progressive depuis 2025. La majorité des cas d'usage que nous traitons relèvent de la catégorie « risque limité » ou « risque minimal », qui n'impose pas d'obligations lourdes — mais nous appliquons par défaut les obligations de transparence prévues pour les systèmes à risque limité (article 50) :

Pour tout système classé « haut risque » (annexe III du règlement), nous appliquons l'ensemble des obligations prévues : système de gestion des risques, gouvernance des données, journalisation, surveillance humaine, robustesse, cybersécurité. Si vous êtes dans ce cas, nous vous le signalerons explicitement en cadrage et nous chiffrerons le surcoût correspondant — typiquement 15 à 25 % du budget projet.

Notre engagement sur la souveraineté

Nous ne sommes pas dogmatiques. Nous utilisons des modèles américains (OpenAI, Anthropic), des modèles européens (Mistral) et des modèles open-weights (Llama, Qwen) selon ce qui sert le mieux votre cas d'usage.

En revanche, nous garantissons toujours :

Comment nous nous tenons à cette charte


Une charte qu'on ne sanctionne pas n'est pas une charte. C'est un slogan.
— Mehdi Belkacem, Président de Digital Factory

Cette charte a été co-rédigée avec Maître Élise Ribeiro (cabinet Ribeiro & Associés, Paris), avocate spécialisée en droit du numérique.