Procès Grammarly : quand l’IA vole l’identité d’écrivains
Julia Angwin, journaliste d’investigation, attaque Grammarly (Superhuman) en justice. Motif : l’entreprise a créé des agents IA qui imitent Stephen King, Kara Swisher et d’autres experts sans leur permission. L’action collective, déposée devant la Cour fédérale du district sud de New York, réclame au moins 5 millions de dollars de dommages et pose une question explosive : jusqu’où peuvent aller les entreprises d’IA avec votre identité ?
Ce qu’il faut retenir
- Grammarly a lancé « Expert Review », une fonctionnalité qui simule des retours éditoriaux de Stephen King, Carl Sagan, Kara Swisher ou Timnit Gebru sans leur accord.
- Julia Angwin mène l’action collective pour violation du droit de publicité et demande un minimum de 5 millions de dollars.
- Cette affaire établit un précédent crucial sur l’utilisation des identités par les entreprises d’IA, avec des conséquences majeures pour tout le secteur.
- Le procès Grammarly utilisation identité écrivains par IA pourrait forcer l’industrie à repenser ses pratiques.
Comment Grammarly a franchi la ligne rouge
Tout démarre avec une fonctionnalité discrète. Grammarly lance « Expert Review » l’année dernière, proposant aux abonnés Premium (144 dollars par an) des retours éditoriaux signés de stars littéraires.
Le principe ? Vous soumettez votre texte. Une IA générative (un cerveau numérique entraîné sur des textes) produit un retour rédactionnel au nom de l’expert choisi. Stephen King, Carl Sagan, Kara Swisher, Timnit Gebru : la liste impressionne.
Le problème ? Aucun de ces experts n’a donné son consentement.
Une mention légale précise que les experts n’ont pas validé l’outil. Mais l’ambiguïté demeure. Pour les utilisateurs, la promesse reste claire : bénéficier du regard de ces figures emblématiques sur leur prose.
Julia Angwin découvre l’affaire via la newsletter Platformer. Curieuse, elle teste la version IA d’elle-même. Le résultat ? Décevant. Les conseils paraissent génériques, vides. Pire : ils « rendent les phrases plus difficiles à comprendre ».
« J’ai été surprise par la médiocrité du résultat. »
L’agent IA censé reproduire son style produit du contenu bas de gamme. Pour une journaliste qui a bâti sa réputation sur la rigueur, c’est inacceptable.
Kara Swisher, elle, découvre qu’elle a été clonée. Sa réaction ne se fait pas attendre. Elle texte le fondateur de Platformer : « Vous, voleurs rapaces d’information et d’identité, préparez-vous à ce que je vous fasse goûter à la justice. En plus, vous êtes nuls. »
Sauf que.
Superhuman publie ses excuses le mercredi sur LinkedIn. Exactement au même moment, Angwin dépose son recours judiciaire. La fonctionnalité est désactivée. Trop tard.
Réactions et implications juridiques
L’avocate d’Angwin, Peter Romer-Friedman, tranche : « C’est un cas assez simple. » En Californie et à New York, les lois d’État interdisent l’utilisation commerciale du nom et de l’image d’une personne sans consentement exprès.
Les chiffres parlent :
- Des centaines d’experts ont vu leur identité utilisée sans permission.
- Au minimum 5 millions de dollars sont réclamés.
- L’abonnement Premium coûte 144 dollars par an pour accéder à cette fonctionnalité.
Pour les experts dont les identités ont été misappropriées, la question dépasse le simple préjudice financier. Votre nom, votre voix, votre réputation : ce sont vos actifs professionnels. Quand une entreprise les monnaye sans votre accord, elle pioche dans votre capital.
Superhuman avait justifié le projet en disant qu’il « aidait les utilisateurs à exploiter les idées des leaders de pensée ». Une défense qui ne tient pas.
Exploiter des idées, c’est une chose. Faire croire qu’un expert endosse votre outil, c’en est une autre.
Ce que ça change pour vous
Si vous êtes créateur indépendant, le message est limpide : votre réputation, vos compétences, votre voix vous appartiennent. Aucune entreprise technologique ne peut les monnayer sans votre accord écrit.
Pour les PME qui utilisent des outils d’IA, c’est un rappel brutal. Vérifiez la conformité légale des services que vous intégrez. Si l’outil imite des experts sans consentement, il peut être poursuivi. Vous pourriez être impliqué indirectement.
Pour les marketeurs digitaux, cette jurisprudence illustre l’importance croissante du consentement explicite dans tous les contenus générés par IA. À l’heure où les deepfakes (vidéos truquées hyper-réalistes) et les clones vocaux prolifèrent, la traçabilité devient une obligation légale.
Concrètement pour votre activité ?
Si Angwin gagne, les entreprises d’IA ne pourront plus utiliser les noms, images ou voix de personnes réelles pour générer du contenu commercial sans consentement écrit. Point final.
Ça force l’industrie à repenser ses modèles d’affaires. Fini l’ère du « demander pardon après ». Il faudra désormais demander permission avant.
Pour le secteur : régulation accrue, mécanismes de consentement obligatoires, transparence renforcée. Les entreprises qui génèrent des contenus imitant des personnalités publiques devront s’entourer de cadres juridiques solides.
Le procès Grammarly utilisation identité écrivains par IA n’est que le début. D’autres affaires suivront. Les modèles de langage (cerveaux numériques entraînés sur des textes) aspirent du contenu protégé par le droit d’auteur, sans licence appropriée. Grammarly cristallise un malaise plus large.
Vous utilisez des outils d’IA ?
Assurez-vous que chaque outil respecte la conformité légale. Le risque juridique grandit. L’innovation ne justifie pas la violation du droit à l’image et de la propriété intellectuelle.
Pour évaluer vos risques de compliance autour des outils d’intelligence artificielle, échangez avec nous. On partage les bonnes pratiques.
Questions pratiques :
Grammarly sera-t-elle jugée responsable dans ce procès sur l’utilisation d’identité d’écrivains par IA ?
Légalement, le cas semble solide. New York et la Californie protègent le droit de publicité. Superhuman aurait dû obtenir le consentement préalable des experts concernés.
Puis-je utiliser des visages d’IA générés sans risque légal ?
Oui, si vous générez une personne entièrement fictive. Non, si vous imitez quelqu’un de réel pour générer du contenu commercial. C’est exactement le piège dans lequel Grammarly est tombée.
Quels autres outils d’IA risquent une action similaire ?
Toute plateforme générant du contenu au nom de vraies personnes sans consentement court le même risque. L’affaire Grammarly pourrait inspirer d’autres poursuites dans les mois à venir.







