
Gouvernance de l’IA : on pourrait croire à une mauvaise blague. Une entreprise supprime des milliers d’emplois, puis explique qu’elle va s’organiser autour d’une technologie qui n’est même pas encore capable de faire tourner son cœur de métier. On renvoie les équipes, on nomme des responsables “IA”, et on espère que l’intelligence artificielle viendra combler le vide.
Bienvenue dans la gouvernance de l’IA version 2026. Une gouvernance où l’on restructure avant de comprendre, où l’on communique avant de produire, et où l’on détruit du capital humain au nom d’une promesse encore largement non prouvée.
Le cas Atlassian : un symbole plus qu’une exception
La décision de Atlassian est emblématique. Le 11 mars 2026, l’entreprise supprime environ 10 % de ses effectifs, soit près de 1 600 personnes. Dans le même mouvement, elle annonce une réorganisation stratégique centrée sur l’IA, avec la transformation du rôle de directeur technique en deux postes dédiés à l’intelligence artificielle.
Le message est clair. L’IA devient la priorité stratégique. Les équipes deviennent une variable d’ajustement.
Mais ce qui frappe, ce n’est pas tant la décision elle-même que son timing. L’IA n’est pas encore déployée à grande échelle dans l’organisation. Les gains de productivité ne sont pas démontrés. Les systèmes ne sont pas stabilisés. Pourtant, la transformation humaine, elle, est déjà actée.
Le problème de fond : une gouvernance inversée
Ce que révèle ce type de décision, c’est une inversion complète de la logique de transformation.
Dans un schéma rationnel, une entreprise commence par tester, déployer, mesurer, puis ajuster. Ici, le processus est inversé. On commence par restructurer, puis on espère que la technologie suivra.
Cette approche repose sur une confusion majeure entre signal stratégique et exécution réelle. Nommer des “CTO IA” envoie un message fort aux marchés et aux investisseurs. Mais cela ne produit aucune valeur tangible si les systèmes sous-jacents ne sont pas opérationnels.
La gouvernance devient alors un outil de communication, et non plus un levier d’exécution.
Une erreur critique : la destruction du capital invisible
Le point le plus sous-estimé dans ce type de décision concerne la perte de connaissance.
Supprimer 1 600 postes ne signifie pas seulement réduire des coûts. Cela signifie effacer des années d’expérience, de compréhension des produits, de relations clients, de subtilités opérationnelles.
Ce capital est rarement documenté de manière exploitable. Et c’est précisément là que le paradoxe devient critique. L’IA, censée remplacer ces équipes, a besoin de données structurées et contextualisées pour fonctionner. Sans cela, elle opère dans le vide.
Les systèmes de type RAG, capables de structurer et rendre interrogeable la connaissance interne, sont encore loin d’être généralisés. Résultat : on remplace des experts par des modèles qui n’ont plus accès à l’expertise.
Un phénomène systémique : Atlassian n’est pas seul
Le cas Atlassian n’est pas isolé. Il s’inscrit dans une tendance plus large.
IBM a annoncé vouloir remplacer plusieurs milliers de postes administratifs par de l’IA, tout en reconnaissant que ces transformations prendraient plusieurs années à produire des effets concrets.
Google a procédé à des restructurations importantes tout en accélérant ses investissements dans l’IA, avec une pression croissante pour démontrer rapidement des gains de productivité.
Meta a également réduit ses effectifs dans une logique de “year of efficiency”, tout en repositionnant massivement ses investissements vers l’intelligence artificielle.
Dans tous ces cas, un même schéma apparaît. La promesse technologique précède la réalité opérationnelle.
Les impacts économiques : un risque de destruction de valeur
Cette gouvernance de l’IA a des conséquences directes sur la performance des entreprises.
D’abord, elle crée un risque d’inefficacité opérationnelle. En supprimant des équipes avant d’avoir des systèmes fonctionnels, les entreprises peuvent se retrouver avec des processus dégradés, une qualité de service en baisse et une perte de réactivité.
Ensuite, elle fragilise la capacité d’innovation. L’innovation ne repose pas uniquement sur la technologie, mais sur l’interaction entre équipes, idées et retours terrain. En affaiblissant ce tissu humain, on réduit la capacité à créer de la valeur.
Enfin, elle introduit un risque stratégique majeur. Si les gains de productivité promis par l’IA ne se matérialisent pas rapidement, les entreprises se retrouvent avec une structure affaiblie et difficilement réversible.
Les conséquences sociales et systémiques
Au-delà de l’entreprise, ces décisions posent des questions plus larges.
Elles redéfinissent la place du travail dans l’économie. Et elles accélèrent la polarisation entre emplois hautement qualifiés et fonctions automatisables. Elles posent aussi la question de la responsabilité des dirigeants dans la gestion de transitions technologiques encore incertaines.
Mais surtout, elles interrogent la temporalité. L’IA est une technologie en construction. Les entreprises, elles, prennent des décisions irréversibles.
Une question clé pour la finance : illusion ou transformation réelle ?
Pour les investisseurs, ce phénomène est particulièrement sensible.
L’IA est devenue un narratif puissant. Elle attire les capitaux, soutient les valorisations et structure les stratégies.
Mais une question se pose : combien de ces transformations sont réellement opérationnelles ?
La gouvernance actuelle de l’IA risque de créer un décalage entre :
- la perception de la transformation
- et sa réalité économique
Ce décalage peut conduire à des bulles de valorisation, suivies de corrections brutales lorsque les résultats ne sont pas au rendez-vous.
Ce que devrait être une gouvernance rationnelle de l’IA
Une gouvernance efficace de l’IA repose sur une logique inverse de celle observée.
Elle commence par identifier les processus réellement automatisables. Non pas en théorie, mais sur la base de résultats mesurables.
Elle passe ensuite par la structuration de la connaissance interne. Avant toute réduction d’effectifs, les entreprises doivent capturer et organiser leur savoir pour le rendre exploitable par les systèmes.
Enfin, elle privilégie le déploiement progressif. Les agents IA doivent être testés en parallèle des équipes existantes, évalués, puis intégrés progressivement.
La restructuration n’intervient qu’en dernier lieu, sur la base de preuves.
Ce que révèle le cas Atlassian, ce n’est pas seulement une erreur stratégique. C’est un symptôme.
Celui d’une gouvernance qui privilégie le signal au détriment de la substance. Celui d’une finance qui valorise la promesse avant la preuve. Celui d’un système qui anticipe des gains de productivité encore hypothétiques.
L’intelligence artificielle transformera profondément les entreprises. Mais la manière dont cette transformation est pilotée déterminera si elle crée ou détruit de la valeur.
La question n’est donc pas de savoir si l’IA remplacera certains emplois.
La question est de savoir si les entreprises sauront se transformer… sans se fragiliser elles-mêmes avant même que la technologie soit prête.
À lire aussi : Non obscuring et double matérialité, l’Europe à la croisée des chemins








