Mon choix entre Claude et ChatGPT est désormais définitif.
Pendant deux ans, j'ai travaillé quasi exclusivement avec ChatGPT. Deux ans à construire des formations, rédiger des contenus, préparer des ateliers. Deux ans à apprendre comment prompter, tester les limites, explorer les possibilités. ChatGPT m'a ouvert une porte. Je ne le nie pas.
Mais depuis quelques mois, j'utilise Claude. Et je ne reviendrai pas en arrière.
Ce n'est pas une question de fonctionnalités. C'est une question de philosophie.
Deux ans avec ChatGPT : ce que j'y ai trouvé
Quand j'ai commencé à intégrer l'IA dans mon métier de formatrice, ChatGPT était la référence. Tout le monde en parlait. Mes apprenants me posaient des questions dessus. Les entreprises voulaient comprendre comment l'utiliser.
J'ai appris à prompter avec ChatGPT. J'ai construit mes premiers ateliers avec. J'ai testé des scénarios de jeu de rôle pour aider des managers à préparer des entretiens difficiles. J'ai structuré des plans de formation entiers grâce à lui.
Il faut être honnête : ChatGPT m'a permis de comprendre ce que l'IA pouvait apporter à mon expertise. Pas la remplacer. L'amplifier.
Le tournant GPT-5
Et puis GPT-5 est arrivé.
J'attendais beaucoup. Comme tout le monde. Après des mois d'annonces et de promesses, je m'attendais à un saut qualitatif. Ce que j'ai trouvé m'a déçue.
Le raisonnement n'était pas à la hauteur de ce qu'on m'avait vendu. Les réponses restaient souvent en surface. Quand je demandais de la profondeur, j'obtenais de la longueur. Quand je demandais de la nuance, j'obtenais des formules toutes faites.
En tant que formatrice, je passe mon temps à dire à mes apprenants que l'IA n'est qu'un stagiaire à qui l'on doit montrer le chemin. Mais avec GPT-5, même en montrant le chemin dans les moindres détails, le stagiaire ne suivait plus aussi bien.
C'est là que j'ai commencé à chercher ailleurs.
Première rencontre avec Claude
Je ne suis pas arrivée chez Claude par hasard. En tant que formatrice IA, je teste en permanence. Je maîtrise au minimum cinq ou six outils dans leur version payante. C'est une nécessité. On ne peut pas former des professionnels en ne connaissant qu'un seul outil.
Dès les premières utilisations de Claude, quelque chose était différent.
Le raisonnement. Plus structuré. Plus profond. Quand je lui donnais un contexte précis avec un rôle, des contraintes et un format, la réponse n'était pas juste correcte. Elle était pertinente. Nuancée. Proche de ce qu'un expert humain aurait produit.
En rédaction, la différence était encore plus visible. Moins de tics d'écriture artificiels. Moins de ces formules creuses que n'importe qui reconnaît au premier coup d'oeil. Un texte qui ressemblait davantage à quelque chose que j'aurais pu écrire moi-même, au lieu de ce style gris, vide d'humanité, qui ne génère aucune émotion.
La vraie différence : une philosophie, pas juste un produit
Mais le fond du sujet n'est pas technique. Il est philosophique.
Ma conviction depuis le premier jour : l'IA est un amplificateur de compétences humaines, pas un substitut. L'humain pense d'abord. L'IA amplifie ensuite. Si l'on n'a pas sa propre expertise, ses propres compétences et sa propre expérience, on ne peut pas obtenir des réponses pertinentes et profondes de l'IA.
Et c'est exactement la philosophie que je retrouve chez Anthropic, l'entreprise derrière Claude. L'IA comme outil au service de l'humain, avec des limites claires et assumées.
La preuve la plus concrète de cette philosophie ? Ce qui s'est passé aux États-Unis ces dernières semaines.
Anthropic avait décroché un contrat avec le Pentagone en juillet 2025. Claude était la première IA autorisée sur les réseaux classifiés du gouvernement américain. Dans ce contrat, Anthropic avait posé deux conditions non négociables : pas de surveillance de masse des citoyens américains et pas d'armes autonomes.
Le Pentagone a demandé à Anthropic de lever ces restrictions. Anthropic a refusé.
La réponse de l'administration Trump ? Classer Anthropic comme "supplier at risk" pour la sécurité nationale. Une étiquette normalement réservée aux entreprises d'États adversaires. Du jamais vu pour une entreprise américaine.
Et pendant ce temps, OpenAI ? Quelques heures après le bannissement d'Anthropic, Sam Altman a signé un accord avec le Pentagone. Il a lui-même reconnu que c'était "definitely rushed" et "opportunistic and sloppy". OpenAI autorise ses modèles pour "any lawful purpose" -> là où Anthropic exigeait des interdictions fermes.
Résultat : 2,5 millions d'utilisateurs ont boycotté ChatGPT. OpenAI a dû réécrire son contrat en urgence.
Ce n'est pas anecdotique. C'est révélateur.
D'un côté, une entreprise qui préfère perdre un contrat gouvernemental plutôt que de compromettre ses principes éthiques. De l'autre, une entreprise qui se précipite pour récupérer le marché, quitte à brader ses propres valeurs.
En tant que formatrice qui enseigne l'IA éthique et responsable, qui parle de l'EU AI Act et du RGPD dans chaque formation, ce positionnement compte. Beaucoup.
En pratique : ce que Claude change dans mon quotidien
Au-delà de la philosophie, il y a le concret.
Quand je prépare un jeu de rôle pour aider un manager à aborder un entretien délicat avec un collaborateur, Claude propose des verbalisations nuancées. Pas des phrases toutes faites. Des formulations qui tiennent compte du contexte que j'ai partagé.
Quand je demande un plan de formation personnalisé pour un client dans l'industrie pharmaceutique, Claude ne me renvoie pas un modèle générique. Il construit à partir de la spécificité du secteur que je lui ai décrite.
Quand je lui demande de m'aider à structurer une idée pour un post LinkedIn, le résultat demande moins de retouches. Il comprend mieux le ton parlé, les phrases courtes, l'importance de partir d'un exemple concret avant de remonter vers le concept.
Est-ce que Claude est parfait ? Non. Aucun outil ne l'est. Je retouche toujours. Je vulgarise encore plus. Je remplace les mots qui ne me ressemblent pas. C'est normal. L'IA reste un stagiaire, même quand c'est un bon stagiaire.
Mon choix est fait
Je ne dis pas que ChatGPT est mauvais. Je dis que Claude correspond mieux à ma vision de l'IA.
Une vision où la technologie amplifie l'humain sans le remplacer. Où les valeurs ne sont pas un argument marketing mais une ligne de conduite. Où l'on préfère perdre un contrat plutôt que de renoncer à ses principes.
L'IA change notre monde. À nous de choisir les outils qui reflètent ce en quoi on croit.
Mon choix est fait. Et vous ?