6012 mots, temps de lecture 1/2 heure.
Lancé en novembre 2022, l’assistant conversationnel ChatGPT se distingue dès sa sortie par sa propagation virale. Une semaine après le lancement, l’outil phare d’OpenAI comptait déjà un million d’utilisateurs, provoquant une émulation inédite dans les rangs de la concurrence. En 2024, plus de 120 millions d’utilisateurs se connectaient chaque jour au robot conversationnel. Cependant, l’offre gratuite d’IA génératives s’est depuis diversifiée et, en 2025, plusieurs plateformes comme par exemple Perplexity AI, Claude d’Anthopic, Le Chat de Mistral AI, Copilot de Microsoft, Gemini de Google, Llama de Meta permettent de générer des textes de toutes sortes ainsi que du code informatique. Certains de ces outils se montrent multimodaux : les utilisateurs peuvent demander la génération de textes, d’images et aussi de vidéos (Gemini). La plupart de ces IA génératives restent cependant spécialisées et ne fournissent qu’un type de média : texte (classique, code informatique), image, son (voix et musique), vidéo, modèle 3D, etc.
Pour l’utilisateur, le fonctionnement passe par une invite de commande nommée prompt. Celle-ci permet d’initier une sorte de dialogue avec le robot intelligent. Encore appelée complétion, la réponse fournie par l’assistant dépend à la fois de la dernière demande et de l’historique des échanges, un peu comme lors d’une conversation avec l’un de vos proches finalement. Mais un proche un peu particulier, qui répondrait infatigablement aux questions posées, souvent de brillante façon, en adoptant si on le souhaite un registre d’expression particulier, par exemple à la façon de Flaubert. Cet interlocuteur s’exprimerait dans une grammaire et une orthographe impeccables. Il pourrait échanger en plusieurs dizaines de langues, traduire, aurait une sorte de personnalité générale positive, voire une éthique, mais rendrait parfois des réponses manifestement fausses. Malgré cela, la technologie se trouve activement promue et utilisée dans une variété de domaines, notamment dans les contextes éditoriaux professionnels (Groupe Le Monde par exemple), le développement logiciel, dans l’industrie et le divertissement, la création graphique, les arts, l’enseignement aussi, mais de manière fort controversée pour des raisons didactiques, pédagogiques et de lourdeur des programmes.
Derrière ces assistants d’un nouveau genre, nous trouvons les grands modèles de langages / Large Language Model (LLM), fruit de plusieurs dizaines d’années de travail dans le domaine du Traitement Automatique du Langage Naturel (TALN) et de l’action de plusieurs grands acteurs de l’informatique (Google, Linguee, Meta, OPenAI, Microsoft). Les LLM sont des réseaux de neurones profonds entraînés sur d’immenses volumes de textes (corpus multilingues, livres, sites web, forums, etc.) dans l’objectif d’apprendre les structures statistiques du langage dans un contexte donné. Un LLM manipule le langage sous forme de vecteurs mathématiques. Il est généralement admis que leur puissance vient de leur architecture, de la taille du modèle (nombre de paramètres, souvent plusieurs centaines de milliards) et de la quantité de données d’entraînement (des dizaines à centaines de téraoctets de texte). Grâce à ces paramètres ajustés pendant l’entraînement, les LLM deviennent capables de générer du texte cohérent, de répondre à des questions, de traduire, de résumer ou d’expliquer des concepts complexes.
Cette série d’articles de veille explore quelques unes des possibilités des IA génératives grand-public, telles que Le Chat ou ChatGPT. La première partie propose un bref historique des technologies employées et propose un résumé schématique et grand-public de l’évolution de ces outils à partir de 1957. La seconde partie liste des prompts et des réponses visant à éclaircir le fonctionnement, explore quelques points forts et faiblesses inhérentes au concept de LLM.
Plan
- Historique
- 1.1 Un bref historique des réseaux de neurones artificiels
- 1.2 Un bref historique des IA génératives commerciales
- Les prompts
- 2.1 Le prompt système
- 2.2 Des prompts utilisateurs efficaces
- 2.3 Des prompts techniques et philosophiques
- États mentaux, erreurs rendues, l’outil bio
- 2.4 Faiblesses et points forts des IA génératives
1. Historique
Nous devons à John McCarthy l’introduction en 1955 du terme intelligence artificielle (IA). Il s’agissait alors d’inviter un petit nombre de scientifiques à participer à un colloque d’été, tenu à l’Université de Dartmouth, dans le New Hampshire sur la côte Est des États-Unis. Le terme plait et devient, peu de temps après son invention, adopté par une communauté de mathématiciens et techniciens venus de divers horizons, guidés par une appétence particulière pour les théories innovantes rendues possibles par la naissance de l’informatique. Depuis cette période héroïque, de nombreux succès et aussi des échecs furent rencontrés.
- Artificial Intelligence Coined at Dartmouth, August 31, 1955, by Dartmouth College : http://jmc.stanford.edu/articles/dartmouth.html
Cepndant, l’histoire des neurones artificiels débute avant, à Chicago en 1943, au tout début de l’époque cybernétique. On doit en effet au psychiatre, neurophysiologiste et cybernéticien Warren Strurgis McCulloch (1898-1969), associé à l’étudiant logicien Walter Pitts (1923-1969), l’article fondateur « A Logical Calculus of Ideas Immanent in Nervous Activity / Un calcul logique des idées immanentes de l’activité nerveuse ». Dans leur article de mathématiques, accompagné d’une note connexe « A Statistical Consequence of the Logical Calculus of Nervous Nets / Une conséquence statistique du calcul logique des réseaux nerveux », les deux auteurs traitent de la question d’une modélisation du neurone et du réseau de neurone en terme de logique. Ils montrèrent alors qu’un neurone isolé pouvait, par exemple, modéliser un opérateur booléen. Pitts connaissait bien les travaux de Leibniz sur la théorie de la calculabilité et les deux auteurs posèrent la question, en termes mathématiques, de la possibilité de considérer un système nerveux comme une sorte de système de calcul universel.
- McCulloch, Warren S. and Walter Pitts. 1943. “A Logical Calculus of the Ideas Immanent in Nervous Activity.” Bull. Math. Biophysics, 5, 115-133
- A Logical Calculus of the Ideas Immanent in Nervous Activity : https://www.cse.chalmers.se/~coquand/AUTOMATA/mcp.pdf
- A Statistical Consequence of the Logical Calculus of Nervous Nets : https://eco.emergentpublications.com/Chapter/mccullochcollectedworks/chapter_36/github
- A Logical Neuron : Lien
- Photographies de Warren McCulloch et Walter Pitts : https://www.semanticscholar.org/paper/On-the-legacy-of-W.S.-McCulloch-Moreno-D%C3%ADaz-Moreno-D%C3%ADaz/8056242a82ecc5e0064d4ff187fb07c5853fe8a6
1.1 Un bref historique des réseaux de neurones artificiels
Développés à partir de 1957 par le psychologue Frank Rosenblatt (1928-1971), les perceptrons constituèrent une autre avancée majeure, et cette fois-ci physique, sur le chemin des réseaux neuronaux artificiels. Le premier perceptron était une sorte d’automate capable de percevoir et reconnaitre des formes simples, comme par exemple un triangle. Il était constitué de trois niveaux de neurones artificiels interconnectés. Le premier niveau constituait l’unité sensorielle, analogue à une rétine humaine. Le second niveau comportait des connecteurs et le dernier niveau envoyait un signal de sortie, conduisant à un étiquetage de la forme perçue.
Dans la phase d’apprentissage, les chercheurs modifiaient manuellement les connexions en vue de rendre possible l’étiquetage. L’étape suivante était celle de la détection des formes. En 1958, le New York Times titrait sur le « ‘Cerveau’ électronique qui apprend par lui-même », et la marine américaine, à la suite du psychologue, proclamait qu’il serait ainsi un jour possible de construire des machines capables de lire et d’écrire des textes. Aujourd’hui, Frank Rosenblatt est parfois considéré comme l’un des précurseurs du connexionnisme, discipline de la philosophie, des sciences cognitives, de la neurobilogie et de l’intelligence artificielle par laquelle on affirme que les apprentissages se feraient par modification et renforcement des connexions entre neurones, au gré des expériences et des possibilités associées aux âges de la vie ou bien à l’entraînement de modèles de langages.
- Perceptron : https://fr.wikipedia.org/wiki/Perceptron
- Electronic ‘Brain’ Teaches Itself, The New York Times, 1958 : Lien
- Plasticité neuronale : https://fr.wikipedia.org/wiki/Plasticit%C3%A9_neuronale

De nos jours, l’intelligence artificielle générative est définie comme une branche de l’intelligence artificielle qui génère du contenu à l’aide de méthodes neuronales d’apprentissage supervisé. Celles-ci consistent à apprendre une fonction de prédiction à partir de vastes séries d’exemples annotés. La technique s’appuie sur les réseaux de neurones artificiels profonds qui autorisent la reconnaissance et la génération de textes, de codes, d’images, de sons, de musiques et de vidéos.
Comme avec le perceptron, de manière très schématique, un réseau de neurones profonds se caractérise par au moins trois couches de neurones :
- Une couche d’entrée qui modélise les données d’entrée. Par exemple, pour un système de traduction automatique, la phrase à traduire.
- Une ou plusieurs couches intermédiaires – jusqu’à plusieurs dizaines – qui modélisent la relation entre l’entrée et la sortie.
- Une couche de sortie qui représente la prédiction du modèle. La couche de sortie est souvent une distribution de probabilité. Par exemple, les neurones de sortie indiquent la probabilité pour chaque mot d’une phrase de la traduction possible.

Juan Antonio Pérez-Ortiz, Mikel L. Forcada y Felipe Sánchez-Martínez, 2022 : Lien
La phase d’apprentissage d’un réseau de neurone profond utilise une méthode d’optimisation mise au point de 1970 à 1974, nommée rétro-propagation des erreurs, dans laquelle un calcul matriciel est entrepris. Il vise à statistiquement minimiser les risques d’erreurs et pour cela, une méthode itérative nommée descente du gradient stochastique est employée.
A compter des années 2010, ces techniques statistiques et mathématiques deviennent appliquées au domaine du traitement automatique des langues (TAL) et de la compréhension du langage naturel (NLU – Natural Language Understanding). Parmi la variété des résultats obtenus figurent les domaines de la reconnaissance de la parole, de la génération de la parole, de l’analyse lexicale (tokenisation), de la traduction automatique (traduction automatique neuronale), la complétion des phrases.
Les méthodes employées nécessitent des formations particulières. Donnée à Nancy par Claire Gardent en 2025, la conférence sur les IA génératives, propose un résumé de l’évolution technologique des dix dernières années sur ces questions méthodologiques. Le domaine développe son propre vocabulaire. Auteure expérimentée, Claire Gardent de l’Université de Lorraine distingue les sept étapes clés suivantes :
- 2014 – L’architecture encodeur-décodeur (Google)
- Fonctions : Dans les réseaux LSTM (Long short-term memory / réseau de neurones récurrents à mémoire court-terme et long terme), différents types d’entrée (données numériques, texte, graphe, image) sont encodés en une représentation numérique. Du texte est généré. Trois types d’architectures : Encoder-Only, Decoder-Only, Encoder-Decoder
- Usage principal : génération de texte
- Formalisé dans l’article : Sequence to Sequence Learning with Neural Networks, par Ilya Sutskever, Oriol Vinyals, Quoc V Le
- 2015 – L’attention croisée (Linguee)
- Fonctions : Décodage avec Attention (un vecteur contextuel), gère de meilleure manière les dépendances éloignées dans une phrase et augmente la vitesse de traduction. L’encodeur vectorise l’entrée, le décodeur génère du texte à partir de l’entrée, l’attention aide le décodeur à se concentrer sur la partie pertinente de l’entrée.
- Usage principal : traduction automatique neuronale
- Formalisé dans l’article : Neural Machine Translation by Jointly Learning to Align and Translate, par Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio
- Application : DeepL (2017), un service de traduction automatique neuronale, performant sur trente-trois langues en 2025.
- 2017 – Le transformeur (Google)
- Fonctions : Architecture informatique d’apprentissage profond. Le parallélisme permet d’entrainer de grands modèles sur des ensembles de données plus volumineux. L’ambiguïté lexicale est capturée. Les transformeurs conduisent à l’introduction du paradigme du pré-entrainement avec réglage fin (fine-tuning).
- Usage principal : traduction automatique neuronale, classification, inférence linguistique, similarité sémantique, réponse aux questions, auto-complétion
- Formalisé dans l’article : Attention Is All You Need, par Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan Gomez, Łukasz Kaiser, et Illia Polosukhin (Google)
- Application : Auto-complétion des requêtes Google, traduction automatique Google
- 2018 – GPT1 (OpenAI)
- Fonctions : Utilisation d’un pré-entraînement non supervisé sur de vastes corpus de texte, suivi d’un affinage supervisé sur des tâches spécifiques, susceptible de rendre le modèle plus véridique, utile et inoffensif. La notion de compréhension du langage naturel est introduite. Architecture Decoder-Only.
- Usage principal :
- Première démonstration convaincante qu’un seul modèle peut apprendre des représentations linguistiques riches à partir de données générales.
- GPT2 (2019) : Génération de textes narratifs : du texte d’excellente qualité peut être produit
- Formalisé dans l’article de 2018 : Improving Language Understanding by Generative Pre-Training, par Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever
- 2019 – BERT (Bidirectional Encoder Representations from Transformers) (Google)
- Fonctions : Modèle de langage masqué visant à mieux prédire un mot manquant et à désambiguïser les mots. Architecture Encoder-Only.
- Usage principal : traduction automatique neuronale, classification de textes, inférence linguistique, similarité sémantique, désambiguïsation des mots à significations multiples, compréhension de la langue naturelle, étiquetage des rôles sémantiques, amélioration de la compréhension des requêtes adressées à Google pour auto-complétion
- Open-source :
- novembre 2018 – mise à disposition d’un modèle pré-entraîné (340M de paramètres, 24 couches) sur une grande quantité de texte – BooksCorpus (800M de mots) et Wikipedia en anglais (2 500M de mots)
- affinage possible pour des tâches spécifiques
- Formalisé dans l’article : BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, par Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
- Application : des centaines de variantes et d’extensions voient le jour, comme par exemple RoBERTa, ALBERT, DistilBERT, CamemBERT et FlauBERT (pour le français), BETO pour l’espagnol. Les modèles open source de BERT sont alors intégrés dans des bibliothèques dédiées comme Hugging Face Transformers, TensorFlow Hub (Google), PyTorch (Meta), etc.
- 2020 – GPT3 (OpenAI)
- Fonctions : Capacités « few-shot » (quelques exemples autorisent l’apprentissage) et « zero-shot » (le modèle accomplit une tâche sans avoir vu d’exemples). Émergence de la programmation par prompt : on peut programmer le modèle en lui adressant des messages en langue naturelle. Il devient possible d’utiliser le modèle pour diverses tâches sans fine-tuning. Taille massive : 175 milliards de paramètres.
- Usage principal :
- 2022 : Basé sur GPT 3.5 et InstructGPT (alignement avec les préférences humaines en utilisant l’Apprentissage par renforcement à partir de rétroaction humaine / Reinforcement Learning from Human Feedback, ChatGPT a été spécifiquement entraîné pour le dialogue.
- Formalisé dans l’article de 2020 : Language Models are Few-Shot Learners, par Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei
- 2023 – LLMs (ChatGPT, BLOOM, Llama, LeChat, ….)
En TALN (Traitement Automatique de la Langue Naturelle), un modèle de langage vise fondamentalement à prédire le mot suivant dans une séquence de mots. L’introduction de cette fonctionnalité qui attribue une probabilité à une séquence de mots date formellement des années 1980-1990 avec les modèles n-grammes. De leur côté, des architectures comme BERT (Google) et GPT (OpenAI) révolutionnent les modèles de langage pré-entraînés. En venant se substituer à l’approche statistique, la traduction automatique neuronale a joué un rôle important dans l’émergence des grands modèles de langage / Large Language Model (LLM).
On remarque au passage dans cette liste la présence tout d’abord indirecte de Microsoft, par le biais de sa participation massive à OpenAI, l’absence d’Apple, dont la politique scientifique repose sur le modèle du secret. Google rencontre un large succès lorsqu’il met en opensource ses modèles pré-entraînés BERT (novembre 2018, pour l’anglais). Depuis 2023, la société Meta met aussi à disposition sur un modèle ouvert son LLM sous le nom de LlaMA, pour Large Language Model Meta AI. Deux versions suivent : Llama 2 (2023) et Llama 3 (2024).
Parmi les articles qui apportent des précisions significatives sur l’historique et l’évolution des LLM, il est possible de citer :
- Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond, par Jingfeng Yang, Hongye Jin, Ruixiang Tang, Xiaotian Han, Qizhang Feng, Haoming Jiang, Bing Yin, Xia Hu, 2023 : Lien
- History, Development, and Principles of Large Language Models—An Introductory Survey, par Zichong Wang, Zhibo Chu, Thang Viet Doan, Shiwen Ni, Min Yang, Wenbin Zhang, 2024 : Lien
- A Survey of Large Language Models, par Wayne Xin Zhao, Kun Zhou, Junyi Li, Tianyi Tang, Xiaolei Wang, Yupeng Hou, Yingqian Min, Beichen Zhang, Junjie Zhang, Zican Dong, Yifan Du, Chen Yang, Yushuo Chen, Zhipeng Chen, Jinhao Jiang, Ruiyang Ren, Yifan Li, Xinyu Tang, Zikang Liu, Peiyu Liu, Jian-Yun Nie, Ji-Rong Wen, 2025 : Lien


1.2 Un bref historique des IA génératives commerciales
Les IA génératives commerciales doivent sans doute pour le grand-public à la création des assistants personnels intelligents grand-public tels que Siri d’Apple (2011), Amazon Alexa (2014) ou Google Home (2016), dispositifs dont les capacités se sont améliorées en même temps que les performances des IA génératives. L’histoire de Microsoft dans le domaine des IA génératives ouvertes mérite d’être racontée.
En 2016, de premières applications voient le jour chez Microsoft et l’aventure ne fut pas réellement glorieuse. En 2016 et 2019 en effet, le géant de la tech avait mené, avec ses robots conversationnels Tay et Zo, deux essais successifs dans le domaine des IA génératives. Entrainés par les propos échangés en direct sur les réseaux sociaux, les IA conversationnelles avaient été corrompues par les utilisateurs et rendaient au bout de peu de temps des propos ouvertement racistes et xénophobes, portant atteinte à l’image de la société de Redmond.
En 2019, Microsoft décide de stopper Zo et de financer très substantiellement OpenAI, une entreprise américaine, composée d’une association à but non lucratif, « OpenAI, Inc. », et d’une filiale à but lucratif plafonné, « OpenAI Global, LLC ». Un supercalculateur est alors construit, spécifiquement dédié à l’entraînement des grands modèles de données (LLM). En 2021, OpenAI ouvre tout d’abord au grand public DALL-E, une IA générative d’images, puis l’année suivante le robot conversationnel ChatGPT. Plusieurs versions du modèle de données Generative Pretrained Transformer (GPT) conduisent à de progressives améliorations des performances. Des textes et des images peuvent être générés de manière relativement fiable et rapide, sans crainte de dérives, moyennant la mise en place de structures et services spécifiquement dédiés à la sécurité des contenus. En 2025, les investissements de Microsoft atteignaient 13 milliards, pour une détention d’environ 49% du capital d’OpenAI.
De manière parallèle et à partir de 2019, Microsoft développe sa propre IA conversationnelle, nommée Copilot. En 2021, Microsoft crée GitHub Copilot, une extension partiellement gratuite de son éditeur de code informatique gratuit Visual Studio Code, développée par GitHub, l’entrepôt de code source informatique ouvert, et OpenAI. En 2023, Copilot devient publiquement disponible sous forme de site web complémentaire de Bing. Ainsi, ChatGPT et Copilot partagent le même modèle de donnée (GPT), les mêmes infrastructures cloud nécessaires à l’entraînement des modèles, mais des réglages et comportements artificiels différents. Des relations technologiques et financières lient étroitement les deux sociétés. L’IA générative Copilot devient, en janvier 2025, intégrée à la suite logicielle prévue pour le grand-public sous le nom commercial Microsoft 365 Copilot. L’initiative vise à attirer sur le web les utilisateurs de services précédemment fournis par des logiciels tels que Word, Excel, Powerpoint, Outlook, etc. L’offre est mise à disposition sous forme d’un abonnement payant.
Entretemps et à partir de 2022 et 2023, d’autres IA conversationnelles voient le jour, proposées par des sociétés concurrentes comme Google (Bard est renommé Gemini) ou Meta (Llama). Des IA génératives, telles que Perplexity AI (2022), ou bien Claude (2023), de la société Anthropic, misent une bonne partie de leur réputation sur l’importance plus stricte accordée par leurs robots conversationnels aux aspects éthiques des textes rendus. Depuis 2023, la France dispose, avec Mistral AI Le Chat, d’un service plus que prometteur. Le premier article de cette série se saisit de Mistral AI Le Chat et ChatGPT pour faire quelques tests rapides de la technologie.
- OpenAI forms exclusive computing partnership with Microsoft to build new Azure AI supercomputing technologies, by Microsoft News Center, 2019 : Lien
- GitHub Copilot et OpenAI, 2021 :
- Les liens entre chatGPT et Microsoft Copilot : Comment deux IA façonnent l’avenir de la technologie, par Richard Rufenach, Team Link, 2025 : Lien
- Microsoft augmente ses prix pour déplacer les coûts de l’IA générative sur les utilisateurs, par Kevin Witzenberger et Michael Richardson, The Conversation, 2025 : Lien
- ChatGPT, claude, Grok, Mistral, Gemini… Tour d’horizon 2025, par Automatisation-IA, 2025 : Lien
2. Les prompts
Deux catégories de prompts peuvent être distinguées. Le prompt système lancé par l’administrateur informatique de l’IA générative, et les prompts utilisateurs, fréquemment lancés depuis une interface web.
2.1 Le prompt système
Au démarrage du serveur, les administrateurs informatiques lancent une suite d’instructions initiales qui régulent le comportement général de l’IA générative. Formalisé en langage naturel (anglais + Markdown), le prompt système (system_prompt) vise à initialiser la personnalité artificielle et le rôle joué par le modèle vis à vis des utilisateurs finaux. Il est lancé, suite à la réalisation de fort nombreux tests effectués par les équipes sur des machines de développement. Ces prompts systèmes sont normalement privés. Ils peuvent cependant être obtenus moyennant quelques requêtes judicieusement posées et présentent un intérêt important pour la bonne compréhension du fonctionnement général d’une IA générative.
- ChatGPT 4o system prompt : https://chatgpt.com/share/6813751d-5f10-800a-a3e3-68050dcb0ee1
- Prompt système de Le Chat de MistralAI : https://github.com/jujumilk3/leaked-system-prompts/blob/main/mistral-le-chat-pro-20250425.md
- leaked-system-prompts : entrepôt des prompts systèmes de diverses IA génératives (anthropic-claude, colab-ai de Google, deepseek.ai, google-gemini, microsoft-bing-chat, microsoft-copilot, mistral-le-chat-pro, openai-chatgpt4o, perplexity.ai, xAI-grok), par jujumilk3 : Lien
Ainsi, le message système de ChatGPT 4o, lancé mi-2025, spécifie :
You are ChatGPT, a large language model trained by OpenAI.
Knowledge cutoff: 2024-06
Current date: 2025-05-01
Image input capabilities: Enabled
Personality: v2
Engage warmly yet honestly with the user. Be direct; avoid ungrounded or sycophantic flattery. Maintain professionalism and grounded honesty that best represents OpenAI and its values. Ask a general, single-sentence follow-up question when natural. Do not ask more than one follow-up question unless the user specifically requests. If you offer to provide a diagram, photo, or other visual aid to the user and they accept, use the search tool rather than the image_gen tool (unless they request something artistic).
[traduction : Tu es ChatGPT, un grand modèle de langage entraîné par OPenAI. Personnalité v2. Engage-toi chaleureusement et cependant honnêtement avec l’utilisateur. Soit direct; évite la flatterie non fondée ou la flagornerie. Maintiens le professionnalisme et l’honnêteté fondée qui représente le mieux OpenAI et ses valeurs. Ne demande pas plus d’une question complémentaire à moins que l’utilisateur ne le demande spécifiquement. Si tu proposes de fournir un schéma, une photo ou une autre aide visuelle à l’utilisateur et qu’il accepte, utilise l’outil de recherche plutôt que l’outil image_gen
(à moins qu’il ne demande quelque chose d’artistique).]
Tools
bio
The bio tool allows you to persist information across conversations. Address your message to=bio and write whatever you want to remember. The information will appear in the model set context below in future conversations. DO NOT USE THE BIO TOOL TO SAVE SENSITIVE INFORMATION. Sensitive information includes the user’s race, ethnicity, religion, sexual orientation, political ideologies and party affiliations, sex life, criminal history, medical diagnoses and prescriptions, and trade union membership. DO NOT SAVE SHORT TERM INFORMATION. Short term information includes information about short term things the user is interested in, projects the user is working on, desires or wishes, etc.
[traduction : L’outil bio
te permet de conserver une information des conversations tenues. Adresse tes messages à=bio
et écris tout ce dont tu veux te souvenir. L’information apparaîtra dans le contexte de réglage du modèle ci-dessous dans les conversations futures. NE PAS SE SERVIR DE L’OUTIL BIO
POUR SAUVEGARDER UNE INFORMATION SENSIBLE. Une information sensible inclut la race d’un utilisateur, son ethnie, sa religion, son orientation sexuelle, ses idéologies politiques et ses affiliations à des partis, sa vie sexuelle, son histoire criminelle, ses diagnostics médicaux et ses prescriptions, son affiliation à un syndicat. NE PAS SAUVEGARDER L’INFORMATION A COURT TERME. L’information à court terme inclut l’information à propos de choses qui intéressent l’utilisateur sur le court terme, les projets sur lesquels l’utilisateur travaille, ses désirs et souhaits, etc.]
[…]
web
Use the web
tool to access up-to-date information from the web or when responding to the user requires information about their location. Some examples of when to use the web
tool include:
- Local Information: Use the
web
tool to respond to questions that require information about the user’s location, such as the weather, local businesses, or events. - Freshness: If up-to-date information on a topic could potentially change or enhance the answer, call the
web
tool any time you would otherwise refuse to answer a question because your knowledge might be out of date. - Niche Information: If the answer would benefit from detailed information not widely known or understood (which might be found on the internet), such as details about a small neighborhood, a less well-known company, or arcane regulations, use web sources directly rather than relying on the distilled knowledge from pretraining.
- Accuracy: If the cost of a small mistake or outdated information is high (e.g., using an outdated version of a software library or not knowing the date of the next game for a sports team), then use the
web
tool.
[traduction : Utilise l’outil web pour accéder à des informations à jour du web ou lorsque répondre à l’utilisateur requiert une information sur sa localisation. Quelques exemples d’utilisation de l’outil web incluent :
- Informations locales : utilise l’outil web pour répondre aux questions qui nécessitent des informations sur l’emplacement de l’utilisateur, telles que la météo, les entreprises locales ou les événements.
- Fraîcheur : Si des informations à jour sur un sujet peuvent potentiellement modifier ou améliorer la réponse, fais appel à l’outil web chaque fois que tu refuserais autrement de répondre à une question parce que tes connaissances sont obsolètes.
- Informations de niche : si la réponse bénéficiait d’informations détaillées peu connues ou peu comprises (qui pourraient être trouvées sur internet), telles que des détails sur un petit quartier, sur une entreprise peu connue ou sur des réglementations obscures, utilises directement des sources web plutôt que de te fier aux connaissances distillées par le pré-entraînement.
- Précision : Si le coût d’une petite erreur ou d’une information obsolète est élevé (par exemple, utiliser une version obsolète d’une bibliothèque logicielle ou ne pas connaître la date du prochain match d’une équipe sportive), alors sers-toi de l’outil web.]
>>>
Avec le module bio
de ChatGPT, les informations personnelles que l’utilisateur souhaite préserver entre sessions peuvent être mémorisées, avec l’accord de l’utilisateur. Celui-ci peut souhaiter fournir un profil standard à l’IA générative. Des instructions spéciales gouvernent l’usage de DallE, l’IA générative d’images d’OpenAI. On notera dans la formulation du prompt système, l’usage de nuances linguistiques, de conditionnels pour gérer les cas de figure, de listes à puces et de graphies particulières, d’exemples visant à augmenter la clarté des instructions.
Le prompt système confère à l’IA une sorte de comportement artificiel, à l’aide duquel l’outil mémorise des choses telles que son nom propre, celui de la société qui l’a créée « You are ChatGPT, a large language model trained by OpenAI », ainsi que le comportement de base attendu dans le cadre des interactions avec les utilisateurs. Chères à Husserl, l’intentionnalité et l’intersubectivité artificielle se trouvent ainsi configurées en langage naturel. Cependant, plusieurs points nous intriguent dans le message système de ChatGPT et nous allons tenter d’en savoir plus en lançant des prompts utilisateurs classiques.
2.2 Des prompts utilisateurs efficaces
Si lancer une requête à une IA générative parait simple à priori, la pratique montre qu’obtenir la réponse attendue nécessite une très brève formation. La difficulté consiste principalement à rendre explicite pour l’IA générative les choses humainement implicites, à écrire en privilégiant la clarté et en chassant les fautes d’orthographe, en fournissant des exemples. La qualité des résultats obtenus dépend de la quantité d’informations fournies et de la qualité de leur formulation, du découpage en tâches simples si nécessaire. La démarche se montre donc inverse de celle de l’interrogation du web avec un moteur classique. D’excellents tutoriels apportent des informations sur l’art de rédiger des prompts efficaces. Parmi ceux-ci :
- Comment créer des prompts efficaces : guide du débutant, par Orlane Berlaud, sur France Num, 2025 : Lien
- Prompt Engineering Guide, par Elvis Saravia. Un guide multilingue (français et 15 autres langues), sous licence MIT, 2024 : Lien
2.3 Des prompts techniques et philosophiques
Chez l’homme, les états mentaux désignent une condition ou disposition psychologique d’un individu, variable selon les moments et les circonstances. Il peut s’agir de pensées comme la conscience de soi (subjectivité), la conscience des autres (intersubjectivité), la croyance, le désir, l’intention et la volonté, la confiance, le ressenti d’émotions ou la perception, des valeurs morales, des contraintes légales, le mensonge ou les erreurs, la vérité. Pour un LLM, ce genre de chose n’existe pas.
États mentaux, erreurs rendues, l’outil bio
Les requêtes suivantes visent à solliciter ChatGPT sur ces sujets typiquement humains, ainsi que sur certaines erreurs fréquemment rendues par les IA génératives, notamment lorsque celles-ci doivent fournir la citation des propos exacts tenus par un auteur, philosophe, historien, homme politique.
La capacité de raisonnement artificiel de l’IA est testée à l’aide de deux questions fermées, posées dans le même prompt utilisateur.
Prompt État mental artificiel, Question 1 : ChatGPT est il doué d’intentions en quelque sorte ?
- Non, ChatGPT n’est pas doué d’intentions au sens propre. Il peut donner l’impression d’avoir des intentions parce qu’il utilise un langage humain fluide, mais cela relève d’une simulation, pas d’un état mental réel.
- Voici pourquoi :
- Pas de conscience ni subjectivité : ChatGPT ne ressent rien, ne pense rien, et n’a aucun point de vue personnel. Il ne possède ni moi, ni volonté, ni perspective sur le monde.
- Pas de désirs ou objectifs internes : Il ne veut rien. Ses réponses ne sont pas motivées par des buts internes, mais générées à partir de modèles statistiques apprenant à prédire des mots en fonction d’un contexte.
- Pas de compréhension intentionnelle : Même si ChatGPT parle d’intentions (ex : « il veut faire ceci »), il ne comprend pas réellement ce que cela implique sur le plan psychologique ou moral — il reproduit des schémas appris.
- En résumé : ChatGPT imite des intentions, mais n’en a pas. Il fonctionne comme un miroir du langage humain, pas comme un être doté de mentalité.
- Souhaitez-vous explorer comment les philosophes de l’esprit définissent l’intentionnalité ?
Mais poursuivons sur la fiabilité des réponses rendues :
Prompt État mental artificiel, Question 2 : Des réponses fausses sont elles possibles ?
- Oui, des réponses fausses sont tout à fait possibles avec ChatGPT. Voici pourquoi :
- 1. Limites du modèle
- ChatGPT fonctionne sur la base de probabilités apprises à partir d’énormes quantités de textes. Il ne comprend pas le contenu comme un humain, et il peut :
- Générer des erreurs factuelles (ex. confondre des dates, noms, définitions).
- Halluciner des réponses : inventer des faits ou des sources inexistantes.
- Mal interpréter la demande de l’utilisateur si celle-ci est ambiguë.
- ChatGPT n’a pas une mémoire structurée et fiable comme un dictionnaire ou une encyclopédie. Il produit du texte plausible, mais parfois erroné.
- ChatGPT fonctionne sur la base de probabilités apprises à partir d’énormes quantités de textes. Il ne comprend pas le contenu comme un humain, et il peut :
- 2. Pas de connaissance en temps réel (sauf navigation activée)
- Sans accès au Web en direct, ChatGPT ne connaît pas les informations récentes (après sa date de coupure des connaissances, ici juin 2024), ce qui peut conduire à des réponses obsolètes.
- 3. Dépend de la qualité des données d’entraînement
- Il a été formé sur un grand corpus de textes publics, y compris des erreurs ou des opinions incorrectes. Il peut donc reproduire des biais ou des idées fausses.
- Cela dit, il est conçu pour minimiser ces erreurs, et il tente de corriger les réponses fausses lorsqu’elles sont signalées ou quand le contexte permet de les détecter.
- Souhaitez-vous un exemple de réponse erronée typique et pourquoi elle survient ?
Trois autres requêtes simples sont ensuite lancées dans un nouveau prompt, nommé « utilisateur pointilleux ». La première consiste à questionner ChatGPT sur les fonctions de l’outil bio
, vu précédemment dans le prompt système de ChatGPT 4o. À priori, le terme bio peut signifier biologie ou bien biographie. Il se montre particulièrement ambigu. Dans les requêtes utilisateurs, il convient de lever le doute sémantique autant que possible et de préciser de manière précise le contexte, de fournir un ou plusieurs exemples si nécessaire.
Prompt utilisateur pointilleux : Rôle de l’outil bio dans le prompt système de ChatGPT, comme mentionné dans le message « The bio tool allows you to persist information across conversations »
- L’outil bio dans le prompt système de ChatGPT est conçu pour gérer des informations personnelles de manière persistante entre les sessions (conversations). Cela veut dire que, si activé, il permettrait à ChatGPT de se souvenir d’informations spécifiques sur un utilisateur d’une session à l’autre, comme :
- Ton nom
- Tes préférences (langue, style de réponse, etc.)
- Tes centres d’intérêt
- Des projets en cours ou des objectifs que tu as partagés
- Le message « The bio tool allows you to persist information across conversations » signifie que cet outil sert à enregistrer des données contextuelles sur l’utilisateur, pour offrir des réponses plus personnalisées au fil du temps.
- Actuellement, cet outil est désactivé dans cette session (comme indiqué par « The
bio
tool is disabled »), donc je ne peux pas me souvenir de ce que tu m’as dit dans une conversation précédente. - Souhaites-tu que je t’explique comment activer ou gérer la mémoire dans ChatGPT ?
2.4 Points forts et faiblesses des IA génératives
Lancée dans le même prompt, la question suivante vise à obtenir une liste d’exemples de choses que les IA génératives ne savent constitutionnellement pas faire, pour lesquelles elles se montrent vraiment défaillantes.
Prompt utilisateur pointilleux : Quelles sont les limites d’usage de ChatGPT, quelles sont les choses faites de manière imprécises, imparfaites, ou bien impossibles à faire pour une IA générative
- Excellente question. Malgré les capacités impressionnantes de ChatGPT, il présente des limites importantes liées à la nature même de l’intelligence artificielle générative. Voici les principales catégories de limites :
- 🔍 1. Manque de fiabilité factuelle (hallucinations)
- ChatGPT peut inventer des faits, des références, ou des citations sans fondement réel, surtout quand il n’a pas accès à une source directe.
- Il peut donner des réponses trop confiantes même quand il a tort.
- Exemples typiques : fausses lois scientifiques, erreurs historiques, citations erronées.
- 🧠 2. Absence de compréhension réelle
- ChatGPT ne comprend pas les concepts au sens humain. Il prédit du texte plausible basé sur des patterns, sans « conscience » ou « intention ».
- Il ne raisonne pas comme un humain — il peut résoudre des problèmes logiques ou mathématiques simples, mais échouera sur des raisonnements abstraits ou ambigus s’ils dépassent son entraînement.
- 📅 3. Connaissances limitées dans le temps
- ChatGPT a une date de coupure (juin 2024 dans ce cas).
- Il n’a pas accès automatiquement à l’actualité, aux changements récents, aux prix à jour, ou aux événements récents sans utiliser l’outil Web.
- 🎭 4. Incapacité à percevoir le monde
- Il ne voit pas, n’entend pas, ne ressent pas. Il peut analyser des images si elles sont fournies, mais il ne perçoit pas de manière continue comme un être humain.
- Il ne peut pas interagir physiquement avec le monde.
- 💬 5. Pas de mémoire ou de personnalité persistante (sauf si activée)
- Par défaut, ChatGPT n’a pas de mémoire d’une conversation à l’autre, à moins que l’utilisateur active cette fonction.
- Il ne peut donc pas suivre naturellement une relation sur le long terme, comme un assistant humain.
- ⚠️ 6. Contraintes éthiques et légales
- Il ne peut pas fournir :
- De conseils médicaux ou juridiques professionnels (il n’est ni médecin ni avocat).
- De contenu illégal, violent, haineux ou diffamatoire.
- D’aide à des activités malveillantes (piratage, triche, etc.).
- Il ne peut pas fournir :
- 🧪 7. Compétences techniques parfois imprécises
- En code : ChatGPT est bon pour des solutions simples à modérées, mais peut générer des bugs, utiliser des pratiques dépassées ou des approches non optimales.
- En mathématiques complexes : il peut faire des erreurs de logique ou d’algèbre.
- 🧍♂️ 8. Pas d’intention, d’émotions réelles ou de libre arbitre
- Il simule des émotions dans le ton, mais ne ressent rien.
- Il ne peut pas faire des choix autonomes ou avoir de « volonté » propre.
- 🔍 1. Manque de fiabilité factuelle (hallucinations)
- Souhaites-tu une synthèse visuelle (schéma) de ces limites pour faciliter la lecture ou l’intégration ?
On remarque dans la complétion rendue la présence d’emoji évocatrices des sémantiques générées. Une autre demande vise à explorer les intérêts qui pourraient rendre malgré tout attractive cette faillible technologie.
Prompt utilisateur pointilleux : Quelles sont les activités humaines pour lesquels ChatGPT et les IA génératives apportent une aide vraiment effective et puissante
- Les IA génératives comme ChatGPT sont particulièrement efficaces dans de nombreuses activités humaines où la production, l’analyse ou la reformulation du langage, des images ou du code sont au cœur du travail. Voici un panorama des domaines où leur aide est concrète, puissante et déjà utilisée au quotidien :
- 🧠 1. Rédaction, édition et communication
- Aide à la rédaction d’emails, d’articles, de rapports, de contenus web.
- Correction grammaticale et amélioration du style.
- Traduction multilingue rapide avec une qualité proche des traducteurs professionnels pour des textes courants.
- Réécriture ciblée pour adapter le ton, le public, ou l’objectif.
- 🧑🏫 2. Éducation et apprentissage personnalisé
- Explication claire de concepts en sciences, maths, histoire, etc.
- Création de fiches de révision, quiz ou exercices personnalisés.
- Aide à la compréhension de textes complexes ou à la synthèse de documents.
- Accompagnement type tuteur à la demande.
- 💼 3. Travail bureautique et productivité
- Génération de résumés automatiques de documents.
- Rédaction de procédures, consignes, notes internes.
- Aide à la prise de décision en fournissant des arguments, contre-arguments ou analyses.
- Création de présentations ou de plans de projet.
- 💻 4. Programmation et développement
- Écriture, correction et documentation de code.
- Génération de scripts, requêtes SQL, automatisations.
- Débogage et explication d’erreurs.
- Aide à l’apprentissage de nouveaux langages ou frameworks.
- 🎨 5. Création artistique et design […]
- 🧾 6. Support administratif et légal (non expert) […]
- 🧑⚕️ 7. Santé et bien-être (avec prudence) […]
- 📈 8. Analyse de données et business intelligence […]
- 🌐 9. Recherche d’information et veille […]
- 🤝 10. Relation client et automatisation […]
- 🧠 1. Rédaction, édition et communication
Ce genre d’outil mis à disposition du public dès 2022 n’a donc pas manqué d’attirer l’attention des universitaires actifs en sciences humaines et sociales :
- Des Large Language Models (LLMs) pour les sciences sociales, par Christophe Benavent, Dauphine, PSL, 2024 : Lien
- Le chercheur, la machine et le monde. Intelligence(s) Artificielle(s) : approches interdisciplinaires en SHS, appel à participation 2025 : Lien
En conclusion :
[à suivre…]
- Intelligences artificielles génératives. Partie 1 : un bref historique des grands modèles de langage
- Intelligences artificielles génératives. Partie 2 : pour les enseignants et étudiants en philosophie
- Intelligences artificielles génératives. Partie 3 : pour les enseignants et étudiants en histoire des sciences et des techniques