Pour briller en conseil d'enseignement ou comprendre les articles techniques.
Interface permettant à des logiciels de communiquer entre eux. Quand un site utilise ChatGPT « sous le capot », il passe par l'API d'OpenAI.
La « mémoire de travail » de l'IA pendant une conversation. Plus le contexte est grand, plus l'IA peut se souvenir de ce qui a été dit. Mesuré en « tokens ».
Entraînement supplémentaire d'un modèle sur des données spécifiques pour le spécialiser (ex : fine-tuning sur des copies d'élèves pour mieux les corriger).
Lorsque l'IA invente des faits, des citations ou des sources avec un aplomb total. C'est son défaut majeur : elle ne distingue pas le vrai du plausible.
Large Language Model (Modèle de Langage Massif). C'est le « moteur » sous le capot des IA génératives (GPT-4, Claude, Mistral, Gemini). Il prédit le mot suivant le plus probable.
Une IA qui tourne directement sur votre ordinateur, sans connexion internet. Solution ultime pour le RGPD : aucune donnée ne quitte votre machine.
Capacité d'une IA à traiter plusieurs types de contenus : texte, image, audio, vidéo. Les modèles récents sont de plus en plus multimodaux.
La consigne que vous donnez à l'IA. La qualité de la réponse en dépend à 80%. C'est pourquoi on parle de « prompt engineering ».
Retrieval-Augmented Generation. Technique consistant à fournir vos propres documents à l'IA pour qu'elle travaille dessus. NotebookLM utilise le RAG : l'IA ne répond qu'à partir de vos sources.
Nouvelle génération de modèles (o1, R1) qui « réfléchissent » avant de répondre, affichant leur cheminement logique. Plus lents mais plus fiables sur les problèmes complexes.
Unité de mesure du texte pour l'IA. Un token ≈ 0,75 mot en anglais, un peu moins en français. Les limites des modèles sont exprimées en tokens.
Application qui « emballe » un modèle d'IA pour le rendre plus simple ou plus sécurisé. Mizou est un wrapper qui permet de créer des chatbots bridés pour les élèves.