Déb/u/o/gue tes humanités
Saison 05a : « Qu’est-ce qu’IA ? »

Introduction : comment distinguer l'IA de ChatGPT

Formateur·trice·s :
Alexia Schneider, Marcello Vitali-Rosati
Lieu :
Bibliothèque des lettres et sciences humaines
Date et heure :
(15:30)
Impression (bêta) :
Version imprimable

# Plan

  1. Présentation de la série d’atelier
  2. Qu’est-ce que l’IA ?
  3. Intérêt d’étudier l’IA pour les SHS
  4. Retours historiques
  5. Typologie des IA
  6. Cas d’usage et modélisation experte (ELIZA)
  7. Cas d’usage et modélisation distributionnelle/vectorielle (vectorisation et prédiction)
  8. Les LLMs
  9. Usages des LLMs hors chatbots (demo)
  10. LLMs et chatbots (Duck.ai + Ollama)
  11. Conclusions

# Présentation et objectif des ateliers

Format : 4 séances de 2heures, sans inscription, participation libre (à justifier pour le certificat des Humanités Numériques)

Théorie et pratique en alternance au cours des deux heures.

Objectifs de la série d’atelier :

Objectifs de cet atelier :

# Certificat canadien en Humanités Numériques

Certificat canadien en Humanités Numériques

Certificat canadien en Humanités Numériques

Information sur le certificat

# Qu’est ce que l’IA ?

Définition pratique : « un programme informatique qui effectue une prédiction. »

À quoi sert d’étudier l’IA pour les chercheur.se.s en SHS

# L’IA et les SHS

Que peuvent faire les SHS pour l’IA ?

# Exemples de prises de position

Both SUP and JHUP have increasingly embraced, tested, and deployed some AI tools and policies. Barbara has been clear in her support of responsible uses of AI and the necessity of leveraging these early days to stake a claim within the quickly evolving landscape. Like SUP, JHUP is building and testing its own tools for marketing, accessibility, and analytics, efforts which place our presses in a position to potentially build services that might in the future even benefit other university presses. (Citation: , ) (). 2025 AUPresses Week-in-Residence Report. Consulté à l’adresse https://digitaldigest.up.hcommons.org/2025/07/09/2025-aupresses-week-in-residence-report-jasmine-mulliken/

we offer recommendations for citing generative AI, defined as a tool that « can analyze or summarize content from a huge set of information, including web pages, books and other writing available on the internet, and use that data to create original new content » (Weed). (Citation: S.A., ) (S.A.). (). How do I cite generative AI in MLA style?. Consulté à l’adresse https://style.mla.org/citing-generative-ai/

The uncomfortable truth for researchers and publishers who oppose AI slowly taking over human review is that they might not be able to prevent it. Should a researcher use AI to write the first pass of peer review and not disclose it — in contravention of publisher guidelines — that might not be detectable, says Hosseini, who is also one of the editors of the journal Accountability in Research. And if AI reviews become widespread, that could change the practice of science, says Priem. « Every researcher can run their own bespoke review service over the preprint/dataset landscape, flagging/extracting only the science they care about (at any « quality » level) they want that day, » he wrote on X earlier this year. That could start to eat into the roles of journals, by taking away the certification that peer review mediated by journals provides, he says. (Citation: , ) (). AI is transforming peer review — and many scientists are worried. Nature, 639(8056). 852–854. https://doi.org/10.1038/d41586-025-00894-7

Building critical AI literacies is a process of empowerment that enables students and citizens to exercise independent judgment about whether or if to use this very new and largely untested commercial technology. (Citation: S.A., ) (S.A.).(). Consulté à l’adresse https://docs.google.com/document/u/0/d/e/2PACX-1vQyyR4MbzQyqTrUgJ_l2wKp-EiKsRHYutmcdCPJxoGPhmagRNoN2tS9f4LP37hWhSe2nZcAjRqtSTiY/pub?pli=1

# Brève histoire de l’IA (pt. 1)

(1940s : Science-fiction et roman d’Isaac Asimov Runaround en 1942.)

(Citation: , ) (). Computing Machinery and Intelligence. Mind, LIX(236). 433–460. https://doi.org/10.1093/mind/LIX.236.433  : ‘can machines think?’

1956: ‘intelligence artificielle’, Minsky et McCarthy à la Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI).

1966 : ELIZA (Citation: , ) (). ELIZA— a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1). 36–45. https://doi.org/10.1145/365153.365168

1990-2000s : pic des systèmes experts et des arbres de décision. DeepBlue d’IBM (Citation: & al., ) , & (). Deep Blue. Artificial Intelligence, 134(1). 57–83. https://doi.org/10.1016/S0004-3702(01)00129-1 .

# Brève histoire de l’IA (pt. 2)

2010s : pic des systèmes d’IA avec une modélisation distributionnelle du language (vecteur). Word2Vec (Citation: & al., ) , , & (). Efficient Estimation of Word Representations in Vector Space. https://doi.org/10.48550/arXiv.1301.3781 , GloVE (Citation: & al., ) , & (). GloVe: Global Vectors for Word Representation. Association for Computational Linguistics. https://doi.org/10.3115/v1/D14-1162 . Parmi les avancées majeures de cette modélisation on compte le mécanisme d’attention (Citation: & al., ) , , , , , , & (). Attention Is All You Need. https://doi.org/10.48550/arXiv.1706.03762 et l’encodage bidirectionnel BERT (Citation: & al., ) , , & (). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Association for Computational Linguistics. https://doi.org/10.18653/v1/N19-1423 qui permettent des modèles très performants comme le GPT-3 d’OpenAI (Citation: & al., ) , , , , , , , , , , , , , , , , , , , , , , , , , , , , , & (). Language Models are Few-Shot Learners. https://doi.org/10.48550/arXiv.2005.14165 .

Actuellement : tendance à l’hybridation de ces modèles : Neuro-Symbolic Integration, Semantic Web Machine Learning (Citation: , ) (). The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence. https://doi.org/10.48550/arXiv.2002.06177 , (Citation: , ) (). The third AI summer: AAAI Robert S. Engelmore Memorial Lecture. AI Magazine, 43(1). 105–125. https://doi.org/10.1002/aaai.12036 , (Citation: & al., ) & (). Artificial intelligence: a modern approach (Fourth edition, global edition). Pearson.

# Typologie de l’IA

# Ce qu’il faut retenir

# Partons d’un exemple

Objectif : obtenir un programme capable de classer une phrase selon une thématique prédéfinie.

Exemple : Classification d’un texte soit en « parle de fruit » soit en « ne parle pas de fruit ».

# Modéliser une approche experte

Une approche qui sembler simpliste en apparence mais qui :

Programme de démo

# Exemple d’un programme conversationnel /génération textuelle avec une approche experte ELIZA

Try it yourself : ELIZA

Eliza is a pattern-matching automated psychiatrist. Given a set of rules in the form of input/output patterns, Eliza will attempt to recognize user input phrases and generate relevant psychobabble responses. Each rule is specified by an input pattern and a list of output patterns. A pattern is a sentence consisting of space-separated words and variables. (Citation: ) (s.d.). Consulté à l’adresse https://dhconnelly.com/paip-python/docs/paip/eliza.html

Exemple de literate programming (Citation: , ) (). Literate Programming. The Computer Journal, 27(2). 97–111. https://doi.org/10.1093/comjnl/27.2.97  :

Lire le code d’ELIZA

# Approche inductive : le machine learning classique

# 1e étape Modélisation des données

# 2e étape Choix de l’algorithme de classification

Différentes logiques permettent de distinguer les données entre elles. Quelques exemples d’apprentissage machine classique :

# 3e étape Entraînement supervisé : apprentissage spécialisé

Ajustement des poids (valeurs des vecteurs) à partir de données spécialisées

# Approche inductive généraliste : les LLMs

Exemple de LLMs : BERT, GPT-4, Mixtral, Gemini, Llama, Qwen, DeepSeek etc.

# Foundational models : Pré-entrainement

Constitution d’un corpus non annoté

Apprentissage auto-supervisé : le modèle apprend à prédire le mot suivant ou remplir un blanc dans une phrase.

Encodage itératif : chaque mot/token est encodé en vecteur (embeddings) et le réseau ajuste ses poids en fonction du contexte.

Dès cette étape on obtient un modèle généraliste capable de faire des prédictions à partir d’une requête en langue naturelle.

# Fine-tuning affinage.

Spécialisation du modèle sur une tâche précise à partir d’un jeu de données annotées.

# Alignement

Instruction-tuning : entraînement supervisé sur des données « question → réponse ».

Reinforcement Learning with Human Feedback : des annotateurs évaluent les sorties du modèle, et un apprentissage par renforcement ajuste les préférences du modèle.

# En résumé

Modèle de langue = modélisation de la langue dans son ensemble + capacité de prédiction.

Les LLMs font de la prédiction de token :

# LLMs et chatbot

Parce que les LLMs sont lourds (plusieurs Gigas) et parce qu’il est coûteux en énergie d’effectuer les calculs qui permettent de déterminer le prochain token (plusieurs GPU), l’usage le plus courant des IA générative est via le site propriétaire qui va interroger le modèle sur un serveur distant. C’est la forme ChatGPT, Mistral.ai, etc.

# Duck.ai

duck.ai permet de comparer des modèles en interfaces chat tout en conservant des données privées.

# Circuit Tracing

Interprétation du méchanisme par lequel un modèle effectue produit une prédiction à partir d’un prompt.

Neuronpedia ‘circuit tracing’ demo : Explication du processus interne d’un LLM pour la prédiction d’un token à partir d’un prompt.

(Citation: & al., ) , , , , , , , , , , , , , , , , , , , , , , , , , & (). Consulté à l’adresse https://transformer-circuits.pub/2025/attribution-graphs/methods.html

# Ollama

Il est possible de faire tourner un SLM (small language model) localement. Pour ce faire : ollama est une bibliothèque qui permet de télécharger et d’utiliser localement un LLMs.

# Installation et utilisation de Ollama

Téléchargement de Ollama

# Utilisation de Ollama en invite de commande

Via l’invite de commande

ollama run llama3.2 -> télécharge et lance le modèle.

""" -> pour des instructions longues

/show info -> information sur le modèle téléchargé

ollama list -> liste des modèles téléchargés et utilisables

ollama rm llama3.2 -> supprime un modèle

# Paramètres d’un modèle

Source : Documentation Ollama

# Model Steering ou System message

Reconduire un modèle consiste à lui fournir des ordres qui vont modifier son comportement pour toutes les interactions suivantes : cette instruction initiale est le « System message ».

Steer model interactively on Neuronpedia

Tutoriel

Créer un nouveau document ‘Modelfile’ sans extension.

Linux : cat > Modelfile puis CTRL+C :

FROM llama3.2 PARAMETER temperature 1 top_k 100 top_p 1 seed 17 SYSTEM « Tu es un chien »

puis CTRL+SHIFT+D et CTRL+D

Windows cmd (Win+R): echo 'FROM llama3.2 PARAMETER temperature 1 top_k 100 top_p 1 seed 17 SYSTEM "Tu es un chien"' > Modelfile (CTRL+SHIFT+D)

Ou c/c manuellement :

FROM llama3.2 PARAMETER temperature 1 top_k 100 top_p 1 seed 17 SYSTEM « Tu es un chien »

ollama create chien -f Modelfile

ollama run chien

# Limites des interfaces de chat

Incitent database

Hidden prompts reportedly were discovered in at least 17 academic preprints on arXiv that purportedly instructed AI tools to deliver only positive peer reviews. The lead authors are reportedly affiliated with 14 institutions in eight countries, including Waseda University, KAIST, Peking University, and the University of Washington. The alleged concealed instructions, some of which were reportedly embedded using white text or tiny fonts, were purportedly intended to influence any reviewers who rely on AI tools. (https://incidentdatabase.ai/cite/1135)

# Prompt engineering

Rendre un prompt robuste et surtout permettre l’évaluation systématique d’une stratégie de prompt. Réintégrer une forme de modélisation de son problème pour optimiser un prompt : le template.

ChainForge : outil de comparaison de prompt : comparaison de modèle, comparaison de template (un texte qui inclut des variables) visualisation côte à côte des sorties.

# Études critiques de l’IA

Discipline émergente : Critical AI revue lancée en 2023.

Pistes de réflexions :

# Ce qu’il faut retenir

# Ressources vues pendant l’atelier

Programme de démo

Duck.ai : Comparaison de modèles sous forme de chatbot et paramétrage.

Ollama et documentation : Téléchargement de LLM localement. Possibilité de steer un modèle.

Neuronpedia ‘steer’ demo : Comparaison d’un modèle qui a été ‘redirigé’ ou non.

Neuronpedia ‘circuit tracing’ demo : Explication du processus interne d’un LLM pour la prédiction d’un token à partir d’un prompt.

ChainForge : comparer des

spaCy : Librairie Python spécialisée dans le Traitement Automatique des Langues : implémentation dans un programme de LLM (modèles en français disponibles).

Incident Database AI : Résumé des incidents et controverses relevées dans la presse lié aux IA (en anglais).

Critical AI journal : Revue

# Bibliographie

(S.A.) (2023)
(S.A.). (). How do I cite generative AI in MLA style?. Consulté à l’adresse https://style.mla.org/citing-generative-ai/
Ameisen, Lindsey, Pearce, Gurnee, Turner, Chen, Citro, Abrahams, Carter, Hosmer, Marcus, Sklar, Templeton, Bricken, McDougall◊, Cunningham, Henighan, Jermyn, Jones, Persic, Qi, Thompson, Zimmerman, Rivoire, Conerly, Olah & March 27 (2025)
, , , , , , , , , , , , , , , , , , , , , , , , , & (). Consulté à l’adresse https://transformer-circuits.pub/2025/attribution-graphs/methods.html
Brown, Mann, Ryder, Subbiah, Kaplan, Dhariwal, Neelakantan, Shyam, Sastry, Askell, Agarwal, Herbert-Voss, Krueger, Henighan, Child, Ramesh, Ziegler, Wu, Winter, Hesse, Chen, Sigler, Litwin, Gray, Chess, Clark, Berner, McCandlish, Radford, Sutskever & Amodei (2020)
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , & (). Language Models are Few-Shot Learners. https://doi.org/10.48550/arXiv.2005.14165
Campbell, Hoane & Hsu (2002)
, & (). Deep Blue. Artificial Intelligence, 134(1). 57–83. https://doi.org/10.1016/S0004-3702(01)00129-1
Connelly (s.d.)
(s.d.). Consulté à l’adresse https://dhconnelly.com/paip-python/docs/paip/eliza.html
Devlin, Chang, Lee & Toutanova (2019)
, , & (). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Association for Computational Linguistics. https://doi.org/10.18653/v1/N19-1423
Fujinaga (2025)
(). On the virtues of lazy machines. Consulté à l’adresse https://crihn.openum.ca/nouvelles/2025/06/02/video-de-la-conference-pleniere-de-ich-fujinaga-dhsi-2025-institute/
Kautz (2022)
(). The third AI summer: AAAI Robert S. Engelmore Memorial Lecture. AI Magazine, 43(1). 105–125. https://doi.org/10.1002/aaai.12036
Knuth (1984)
(). Literate Programming. The Computer Journal, 27(2). 97–111. https://doi.org/10.1093/comjnl/27.2.97
Marcus (2020)
(). The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence. https://doi.org/10.48550/arXiv.2002.06177
Mikolov, Chen, Corrado & Dean (2013)
, , & (). Efficient Estimation of Word Representations in Vector Space. https://doi.org/10.48550/arXiv.1301.3781
Mulliken (2025)
(). 2025 AUPresses Week-in-Residence Report. Consulté à l’adresse https://digitaldigest.up.hcommons.org/2025/07/09/2025-aupresses-week-in-residence-report-jasmine-mulliken/
Naddaf (2025)
(). AI is transforming peer review — and many scientists are worried. Nature, 639(8056). 852–854. https://doi.org/10.1038/d41586-025-00894-7
Pennington, Socher & Manning (2014)
, & (). GloVe: Global Vectors for Word Representation. Association for Computational Linguistics. https://doi.org/10.3115/v1/D14-1162
Russell & Norvig (2022)
& (). Artificial intelligence: a modern approach (Fourth edition, global edition). Pearson.
Turing (1950)
(). Computing Machinery and Intelligence. Mind, LIX(236). 433–460. https://doi.org/10.1093/mind/LIX.236.433
Vaswani, Shazeer, Parmar, Uszkoreit, Jones, Gomez, Kaiser & Polosukhin (2017)
, , , , , , & (). Attention Is All You Need. https://doi.org/10.48550/arXiv.1706.03762
Vitali-Rosati (2025)
(). Manifeste pour des Études Critiques de l’Intelligence Artificielle. Consulté à l’adresse http://blog.sens-public.org/marcellovitalirosati/manifeste-ecia.html
Weizenbaum (1966)
(). ELIZA— a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1). 36–45. https://doi.org/10.1145/365153.365168