ChatGPT peut rédiger une lettre de motivation, un article de blog ou un résumé exécutif en quelques secondes. Alors pourquoi pas un mémoire technique d'appel d'offres public ? De nombreuses entreprises du BTP l'essaient. Certaines obtiennent un document présentable. Mais la grande majorité le découvre au rapport de notation : le mémoire était fluide, bien rédigé, et passé à côté de 40 % de la grille d'évaluation.
Ce n'est pas une critique de ChatGPT. C'est une description précise de ses limites sur ce cas d'usage très spécifique. Comprendre ces limites vous permet soit de les contourner avec des prompts adaptés, soit d'utiliser un outil conçu pour ce contexte. Dans tous les cas, ce guide vous évite de perdre un marché pour une raison évitable. Pour comprendre la structure du mémoire technique que l'IA doit construire, consultez notre guide complet du mémoire technique de marché public.
- ChatGPT hallucine des références de chantier : noms de maîtres d'ouvrage inventés, montants plausibles mais faux. Un vérificateur de commission les détecte en 5 minutes.
- Sa fenêtre de contexte ne lui permet pas d'ingérer un CCTP de 60 pages et de rédiger un mémoire cohérent — il travaille sur des extraits, pas sur le dossier complet.
- ChatGPT ignore la grille RC sauf si vous la lui fournissez dans le prompt — et même là, la pondération des sous-critères n'est pas intégrée dans la rédaction.
- Son ton par défaut est corporate et générique ("savoir-faire reconnu", "engagement qualité", "expertise confirmée") — exactement les formulations qui plombent une note de valeur technique.
- Chaque session repart de zéro : pas de mémoire de vos chantiers précédents, pas de vos références, pas de vos certifications — vous devez tout réinjecter à chaque fois.
Pourquoi tant d'entreprises essaient ChatGPT pour leur mémoire technique
La réponse à un appel d'offres public prend 8 à 15 heures pour une TPE, dont une part importante passe à rédiger des sections que l'on sait pourtant bien faire mais qui sont difficiles à formaliser. ChatGPT est perçu comme un raccourci légitime pour cette étape rédactionnelle — et c'est compréhensible.
Le problème n'est pas l'intention. C'est que le mémoire technique n'est pas un document de communication généraliste. C'est une réponse calibrée à une grille de notation précise, construite sur les contraintes d'un chantier spécifique, avec des références vérifiables. ChatGPT excelle sur le premier point (rédiger du texte structuré) et échoue sur les deux suivants.
Piège 1 — Les hallucinations sur les références de chantier
Ce qui se passe : vous demandez à ChatGPT de rédiger la section "références similaires" de votre mémoire. Vous lui donnez quelques mots-clés sur vos chantiers passés. Il produit 3 paragraphes bien rédigés avec des noms de maîtres d'ouvrage, des montants, des délais — plausibles mais inventés ou amalgamés.
Exemple typique de sortie ChatGPT :
"Notre entreprise a réalisé en 2024 la réhabilitation des façades de la Mairie de Saint-Germain-du-Bois pour un montant de 145 000 € HT, dans un délai de 11 semaines, avec réception sans réserve."
Si vous n'avez pas réalisé ce marché, c'est une fausse déclaration dans un dossier de marchés publics — ce qui peut entraîner une exclusion de la procédure et, dans les cas graves, des poursuites au titre de la fraude à la commande publique.
Conséquence sur la note : si la commission vérifie une référence (ce qui arrive, notamment sur les gros marchés), la candidature est éliminée.
Contournement : ne demandez jamais à ChatGPT de générer des références. Rédigez cette section vous-même à partir de vos vrais chantiers, avec les attestations de bonne exécution en annexe. Vous pouvez utiliser ChatGPT pour reformuler un paragraphe existant — pas pour en inventer un.
Piège 2 — La limite de contexte face à un CCTP de 60 pages
Ce qui se passe : un DCE de marché de travaux comprend souvent un CCTP de 40 à 100 pages, un RC de 10-15 pages, un CCAP de 20 pages. ChatGPT ne peut pas ingérer l'intégralité de ces documents dans une seule session — il travaille sur les extraits que vous lui copiez-collez.
Résultat : la méthodologie qu'il rédige est cohérente avec les extraits fournis mais ignore les contraintes du CCTP que vous n'avez pas eu le réflexe de copier. Un bâtiment classé mentionné en page 43 du CCTP ? ChatGPT ne le sait pas. Une coordination imposée avec un autre lot mentionnée en page 67 ? Idem.
Exemple de lacune typique :
Vous copiez les 5 premières pages du CCTP. ChatGPT rédige une méthodologie qui ne mentionne pas la présence d'une chaudière amiante à déposer, décrite page 38. Votre mémoire ne traite pas ce risque. La commission constate que vous n'avez pas lu le dossier en entier.
Conséquence sur la note : -2 à -4 points sur le sous-critère "prise en compte du contexte et des contraintes du site".
Contournement : avant de soumettre quoi que ce soit à ChatGPT, analysez vous-même le DCE complet et listez les contraintes clés du chantier. Injectez cette liste structurée dans votre prompt. Le guide d'analyse DCE en 5 étapes vous montre comment extraire ces informations en 30 minutes.
Piège 3 — L'ignorance de la grille RC pondérée
Ce qui se passe : ChatGPT rédige un mémoire "équilibré" — il consacre à peu près autant de place à la présentation de l'entreprise, à la méthodologie, à l'environnement, aux références. Mais si la grille du RC pondère la méthodologie à 25 % et l'environnement à 8 %, un mémoire équilibré n'est pas optimal — il sous-investit là où ça rapporte le plus de points.
Exemple concret :
RC avec cette décomposition de la valeur technique (55 %) :
- Méthodologie et organisation de chantier — 25 %
- Moyens humains affectés — 15 %
- Références similaires — 10 %
- Gestion environnementale — 5 %
Un mémoire ChatGPT "équilibré" consacre 15 % de ses pages à l'environnement et 25 % à la méthodologie. Inversement au poids réel, vous surinvestissez là où ça rapporte peu et sous-investissez là où ça rapporte beaucoup.
Conséquence sur la note : diffus, rarement dramatique sur un seul sous-critère, mais représente facilement 2 à 3 points perdus sur l'ensemble.
Contournement : injectez la grille pondérée du RC dans votre prompt et demandez explicitement à ChatGPT d'ajuster la longueur de chaque section proportionnellement à son poids. Vérifiez ensuite que la section la plus longue correspond bien au sous-critère le plus lourd.
Piège 4 — Le ton corporate inadapté
Ce qui se passe : laissé à lui-même, ChatGPT génère un registre de communication institutionnel — poli, fluide, rassurant, et totalement dépourvu de la précision factuelle qu'une commission d'attribution cherche. Ce registre est reconnaissable à ses formules caractéristiques.
Phrases symptomatiques de la sortie ChatGPT brute :
- "Notre entreprise met en œuvre un savoir-faire reconnu pour garantir la qualité irréprochable des prestations."
- "Nous nous engageons à respecter les plus hauts standards de l'industrie du bâtiment."
- "Notre expertise confirmée dans ce domaine nous permet d'appréhender ce projet avec toute la rigueur nécessaire."
- "Soucieux de l'environnement, nous adoptons une démarche responsable dans l'ensemble de nos chantiers."
Ces phrases ne valent littéralement rien sur une grille de notation. Elles ne contiennent aucune information vérifiable, aucun chiffre, aucune référence au chantier. Une commission aguerrie les lit comme un signal que l'entreprise n'a pas de vraie réponse à apporter.
Conséquence sur la note : un mémoire qui accumule ces formules perd entre 2 et 5 points sur les sous-critères qui demandent une méthodologie concrète.
Contournement : incluez dans votre prompt une instruction explicite : "N'utilisez pas de formules génériques comme 'savoir-faire reconnu', 'expertise éprouvée', 'qualité irréprochable'. Chaque affirmation doit être accompagnée d'un chiffre, d'un exemple concret ou d'une référence au chantier." Relisez ensuite le texte généré et remplacez systématiquement toute formule creuse par un fait.
Piège 5 — L'absence de mémoire entreprise entre sessions
Ce qui se passe : chaque nouvelle session ChatGPT repart de zéro. Le modèle ne connaît pas vos certifications Qualibat, votre CA sur l'activité maçonnerie, vos effectifs, vos 12 derniers chantiers comparables, vos sous-traitants habituels, votre politique environnementale. Vous devez lui réinjecter ces informations à chaque dossier.
En pratique, la plupart des utilisateurs ne le font pas systématiquement — ils oublient de préciser les certifications, donnent des effectifs approximatifs, ne mentionnent pas le sous-traitant électricité. Le mémoire produit est techniquement correct mais généralement différent de votre réalité entreprise.
Conséquence sur la note : incohérences entre le mémoire et les pièces administratives (DC1/DC2), certifications non mentionnées qui auraient pu valoriser la candidature, sous-traitance non anticipée dans le DC4.
Contournement : constituez un "fichier entreprise" de 2 à 3 pages (effectifs, certifications, références validées avec attestations, matériel principal, sous-traitants habituels) que vous collez systématiquement en début de chaque prompt. Cette étape manuelle prend 2 minutes — elle garantit que le contexte est complet. Un outil spécialisé marché public, à l'inverse, stocke ces informations une fois et les injecte automatiquement dans chaque rédaction.
Ce que ChatGPT fait bien sur un mémoire technique
Ces limites ne signifient pas que ChatGPT est inutile sur la rédaction de marchés publics. Il reste performant sur des tâches délimitées :
- Reformuler un paragraphe maladroit que vous avez rédigé vous-même — le texte reste le vôtre, il le fluidifie
- Corriger la grammaire et l'orthographe d'une section rédigée manuellement
- Générer un premier plan de mémoire à partir des sous-critères du RC — que vous complétez ensuite
- Rédiger les parties génériques de la section 1 (présentation de l'entreprise) à partir de vos données réelles
- Synthétiser une longue liste de contraintes en bullet points structurés — en partant de vos notes, pas du DCE brut
La règle d'usage saine est la suivante : ChatGPT améliore du contenu que vous avez produit. Il ne remplace pas l'analyse du DCE, la connaissance de votre entreprise, ou la logique de notation d'une commission d'attribution.
L'alternative : un outil conçu pour ce cas d'usage
La différence entre un outil IA généraliste et un outil spécialisé marché public ne tient pas à la puissance du modèle sous-jacent. Elle tient à ce que l'outil sait faire nativement :
- Lire l'intégralité d'un DCE (RC + CCTP + CCAP + AE + plans) sans perte d'information
- Extraire et pondérer les sous-critères du RC pour orienter la rédaction
- Mémoriser vos références, certifications et données entreprise entre les dossiers
- Générer des sections ancrées dans les contraintes réelles du CCTP
- Signaler les clauses CCAP à risque avant que vous n'engagiez votre rédaction
L'audit de mémoire technique Olra réalise en 3 minutes la vérification de couverture des sous-critères que ChatGPT ne fait pas nativement. Pour les entreprises qui répondent à plusieurs marchés par mois, ce type d'outil réduit le temps de rédaction tout en améliorant la note — sans les risques d'hallucination ni le travail manuel de réinjection du contexte.
Pour découvrir la différence concrète sur votre prochain DCE, essayez Olra gratuitement — les 3 premières analyses sont sans engagement. Pour un comparatif factuel ChatGPT vs outil spécialisé, voir notre article Apell vs ChatGPT pour répondre aux marchés publics.
Questions fréquentes
Est-il légal d'utiliser l'IA pour rédiger un mémoire technique ?
Oui, sans restriction légale. Aucun texte de la commande publique française n'interdit l'usage d'outils IA pour rédiger une candidature. La seule obligation est que les informations contenues dans le mémoire soient exactes et vérifiables. L'acheteur public évalue le contenu du document, pas ses conditions de production. En revanche, déclarer de fausses références ou de faux chiffres — qu'ils soient générés par IA ou non — constitue une fausse déclaration sanctionnable.
Avec un bon prompt, ChatGPT peut-il produire un mémoire technique complet ?
Un prompt très structuré — incluant la grille pondérée du RC, les contraintes du CCTP, les données entreprise et des instructions de ton — produit un mémoire nettement meilleur. Mais cela suppose que vous ayez déjà analysé le DCE en profondeur et structuré toutes ces informations avant de l'interroger. Si vous avez fait ce travail, la valeur ajoutée de ChatGPT se réduit à la formulation — ce qui est utile mais limité.
Peut-on utiliser ChatGPT pour analyser un DCE avant de rédiger ?
Partiellement. Si vous lui copiez-collez le RC et lui demandez d'extraire les critères pondérés, il le fait correctement. Si vous lui soumettez un CCTP de 80 pages en plusieurs morceaux, la synthèse est incomplète — il manque les informations des parties non fournies. Pour une analyse DCE fiable, l'idéal est soit une lecture manuelle structurée (voir notre méthode en 5 étapes), soit un outil conçu pour ingérer des documents de cette taille.
Comment détecter qu'une hallucination s'est glissée dans un mémoire généré par IA ?
Vérifiez systématiquement tous les éléments factuels : noms de maîtres d'ouvrage, montants de marchés, dates, certifications, noms de fournisseurs ou sous-traitants. Toute information concrète que vous n'avez pas fournie explicitement dans votre prompt est potentiellement inventée. Sur les sections références et moyens matériels, ne faites confiance à aucun chiffre que vous n'avez pas injecté vous-même.
Un acheteur public peut-il détecter qu'un mémoire a été rédigé par IA ?
Les outils de détection IA (GPTZero, Originality.ai, etc.) sont disponibles et utilisés par certains acheteurs sur les marchés à fort enjeu. Mais la vraie question n'est pas la détection technique — c'est la qualité. Un mémoire IA non personnalisé se détecte à sa généricité : aucune mention du site, formules creuses, absence de contraintes CCTP. Un jury expérimenté le repère sans outil de détection. Le problème n'est pas d'avoir utilisé l'IA, c'est de ne pas avoir personnalisé le résultat.