Aller au contenu principal
Éducation — Équipe Moon AI 6 min de lecture

Glossaire IA 2026 : 25 termes essentiels expliqués simplement

Le glossaire complet de l'intelligence artificielle en 2026 : LLM, RAG, fine-tuning, hallucination, transformer, embedding, token, multimodal, RLHF, MoE et 15 autres termes essentiels expliqués simplement.

Glossaire IA 2026 : 25 termes essentiels expliqués simplement
Glossaire IA 2026 : 25 termes essentiels expliqués simplement

Comprendre l'intelligence artificielle en 2026 demande un vocabulaire technique précis. Notre glossaire IA définit les 25 termes les plus importants : LLM, RAG, transformer, fine-tuning, hallucination, embedding, MoE, RLHF, et bien d'autres. Tout est expliqué simplement, avec des exemples concrets.

Que vous soyez débutant ou utilisateur intensif d'IA, certains termes techniques reviennent constamment : LLM, RAG, fine-tuning, prompt engineering, hallucination, etc. Ce glossaire vous donne une définition claire pour chacun, avec des exemples sur les modèles populaires (Claude 5, GPT-5, Gemini, Mistral, accessibles tous sur Moon AI).

Modèles et architectures

LLM (Large Language Model)

Un LLM ("grand modèle de langue") est un modèle d'IA entraîné sur des milliards de mots pour générer du texte cohérent. Les LLM modernes (Claude 5, GPT-5, Gemini Ultra, Mistral Large 3) ont des centaines de milliards de paramètres. Sur Moon AI, vous accédez à 70+ LLM dans une seule interface.

Modèle de fondation (Foundation Model)

Modèle massivement pré-entraîné sur du contenu général, capable d'être adapté à de nombreuses tâches. C'est l'opposé d'un modèle spécialisé. Claude, GPT, Gemini sont des modèles de fondation.

Transformer

Architecture de réseau de neurones inventée par Google en 2017 (paper "Attention Is All You Need"). Base de tous les LLM modernes. Le mécanisme d'attention permet au modèle de "regarder" tous les mots du contexte simultanément.

MoE (Mixture of Experts)

Architecture où plusieurs sous-modèles ("experts") sont entraînés à se spécialiser. À chaque requête, seuls quelques experts sont activés, ce qui réduit le coût d'inférence. Mistral Mixtral et GPT-4 utilisent cette architecture.

Modèle multimodal

Modèle capable de traiter plusieurs types de données : texte, image, audio, vidéo. Gemini 3.5 Ultra, GPT-5 et Claude 5 sont multimodaux.

Entraînement et adaptation

Fine-tuning

Réentraîner un modèle pré-existant sur des données spécifiques pour le spécialiser. Exemple : fine-tuner Llama 4 sur des contrats juridiques français pour créer un modèle spécialiste droit. Notre modèle Moon est un fine-tune de Qwen3.5 sur 17 000 samples francophones.

RLHF (Reinforcement Learning from Human Feedback)

Technique où des humains notent les réponses du modèle pour l'entraîner à mieux répondre. Utilisée par OpenAI pour ChatGPT, Anthropic pour Claude.

Constitutional AI

Approche d'Anthropic pour Claude : le modèle est entraîné selon un ensemble de "principes constitutionnels" (utile, inoffensif, honnête) plutôt que sur des feedbacks individuels. Réduit les biais et améliore l'alignement.

Distillation

Technique pour créer un modèle plus petit ("student") qui imite un modèle plus grand ("teacher"). Permet d'avoir des modèles compacts (Claude Haiku, GPT-4o-mini, Mistral Small) avec une qualité proche du grand modèle.

Quantization

Réduction de la précision numérique des poids du modèle (de FP32 à INT8 ou INT4). Permet d'exécuter des modèles localement sur du matériel modeste, au prix d'une légère baisse de qualité. Format Q4_K_M (utilisé pour notre modèle Moon).

Inférence et utilisation

Inférence

Phase d'utilisation d'un modèle entraîné pour générer une réponse. Distincte de la phase d'entraînement. Le coût d'inférence est ce qui détermine le prix d'API par token.

Token

Unité de base traitée par un LLM, environ 0,75 mot en français (un mot court = 1 token, un mot long = 2-3 tokens). Les API IA facturent par token (input + output).

Context window (fenêtre de contexte)

Quantité maximale de tokens que le modèle peut traiter en une fois. Claude 5 : 500K tokens (≈ 1250 pages). Gemini 3.5 Ultra : 1M tokens. GPT-5 : 200K tokens. Plus la fenêtre est large, plus le modèle peut analyser de contenu.

Embedding

Représentation vectorielle d'un texte (ou image) sous forme de nombres. Permet de comparer la "proximité sémantique" de deux textes. Base technique du RAG et de la recherche sémantique.

Streaming

Mode de réponse où le texte apparaît mot par mot au fur et à mesure de la génération (comme sur ChatGPT). Améliore l'expérience utilisateur (perception de rapidité).

Prompt et techniques

Prompt

Texte d'instruction envoyé à un modèle pour obtenir une réponse. La qualité du prompt détermine fortement la qualité de la réponse. Voir notre guide du prompt engineering.

Prompt engineering

Discipline de formulation optimale des prompts. Compétence professionnelle valorisée en 2026.

Chain-of-thought (CoT)

Technique où le modèle décompose son raisonnement étape par étape avant de donner la réponse finale. Améliore la précision sur les tâches complexes (mathématiques, logique).

Few-shot learning

Donner 2-5 exemples au modèle dans le prompt pour qu'il imite le format. Très efficace pour les tâches structurées.

Zero-shot learning

Demander une tâche sans donner d'exemple, en comptant sur les capacités générales du modèle. C'est l'usage le plus courant.

RAG (Retrieval Augmented Generation)

Technique qui consiste à récupérer des documents pertinents dans une base de connaissances, puis à les injecter dans le prompt pour que le modèle génère une réponse basée sur ces sources. Permet d'avoir des réponses sourcées et à jour. Très utilisé pour les chatbots entreprise.

Paramètres de génération

Temperature

Paramètre qui contrôle la "créativité" de la sortie. Temperature 0 = déterministe (même prompt = même réponse). Temperature 1 = créative et variée. Temperature 2 = très aléatoire. Pour du code : 0-0.3. Pour du créatif : 0.7-1.

Top-K / Top-P (sampling)

Paramètres qui contrôlent quels tokens le modèle peut choisir. Top-K=50 = parmi les 50 tokens les plus probables. Top-P=0.9 = parmi les tokens dont la probabilité cumulée fait 90 %.

Stop sequence

Texte qui, s'il apparaît dans la sortie, fait arrêter la génération. Utile pour structurer les réponses.

Limitations et risques

Hallucination IA

Quand le modèle génère du contenu qui semble plausible mais est factuellement faux. Toutes les IA hallucinent à un degré variable. Claude 5 et GPT-5 ont les taux les plus bas (TruthfulQA 72 % et 68 %). Moon Guard et le RAG aident à mitiger.

Modèle ouvert vs propriétaire

Modèle ouvert (open-source) : poids publiés, téléchargeable, auto-hébergeable (Mistral 7B, Mixtral, Llama 4, DeepSeek V4). Modèle propriétaire : accessible uniquement via API (Claude, GPT, Gemini).

FAQ Glossaire IA

Quels sont les termes IA les plus importants à connaître ?

LLM, RAG, fine-tuning, prompt engineering, hallucination, transformer, token, context window, embedding. Maîtriser ces 9 termes vous donne 80 % de la compréhension du domaine.

Faut-il être technique pour comprendre l'IA ?

Non. Les concepts (prompt, hallucination, contexte) sont accessibles à tous. Les détails d'implémentation (transformer, attention, gradient descent) sont techniques.

Où apprendre l'IA en français ?

Notre blog Moon AI Actualités publie régulièrement des guides en français. Hugging Face et OpenClassrooms proposent aussi du contenu francophone.

Quelle est la différence entre IA, machine learning et deep learning ?

L'IA est le concept général. Le machine learning est une technique d'IA basée sur l'apprentissage à partir de données. Le deep learning est une sous-catégorie utilisant des réseaux de neurones profonds. Voir notre article dédié.

Comment tester ces concepts en pratique ?

Sur Moon AI, vous avez accès à 70+ modèles avec tous les paramètres avancés (temperature, top-K, top-P, stop sequence) à partir du palier Constellation.

Mettez la théorie en pratique sur Moon AI

Testez tous ces concepts sur 70+ modèles d'IA dans une interface française.

Démarrer gratuitement

Prêt à essayer Moon AI ?

Accédez gratuitement à tous les modèles d'IA, la protection Moon Guard et bien plus.

Démarrer gratuitement