Skip to content Skip to sidebar Skip to footer

Glossaire IA générative : Comment parler IA sans se perdre dans les acronymes ?

Ce glossaire IA générative rassemble les notions qui reviennent le plus quand une organisation veut passer de la curiosité aux cas d’usage concrets : assistants internes, RAG, copilotes, automatisations orientées métier, conformité RGPD… L’objectif n’est pas d’en faire un cours théorique, mais une référence opérationnelle, claire et actionnable. (Pas d’ordre alphabétique : on suit le chemin réel d’un projet IA en entreprise.)

Chez Arkavia, on voit chaque semaine des équipes (IT, juridique, RH, finance, terrain) buter sur les mêmes mots qui cachent souvent des décisions techniques et budgétaires. Ce guide vous aide à comprendre vitechoisir mieux et déployer plus sereinement.

Fondamentaux

Intelligence artificielle (IA)

L’IA, c’est tout ce qui permet à une machine de comprendre, raisonner et décider sur la base de données. Elle englobe plusieurs branches : langage (NLP), vision (images/vidéos), recommandationplanification, etc.
En entreprise : automatiser des tâches répétitives, aider à la décision (tableaux de bord “augmentés”), créer des copilotes métiers (juridique, RH, finance, support).

IA générative

L’IA générative ne se contente pas d’analyser : elle produit du contenu neuf (texte, images, audio, vidéo, code). Elle s’appuie sur de grands modèles pré-entraînés qui apprennent des exemples pour composer des réponses, résumés, visuels ou scripts utiles.
En entreprise : assistants rédactionnels (mails, comptes rendus, contrats), synthèse documentaire (policies, procédures), présentations prêtes à l’emploi, images produits et variantes, analyse d’e-mails ou de tickets pour accélérer le support.

À retenir : pour la fiabilité, on combine souvent l’IA générative avec votre base de connaissances (RAG/ancrage) afin de citer des sources internes et réduire les “hallucinations”.

IA étroite (IA faible)

Une IA “spécialiste” d’une seule tâche : classer des e-mails, détecter une fraude, reconnaître un défaut visuel… Elle n’a pas de compréhension générale du monde.
En entreprise : c’est l’immense majorité des déploiements actuels (scoring, catégorisation, extraction, détection).

AGI (intelligence artificielle générale)

Idée d’une IA capable d’atteindre des performances humaines sur un large éventail de tâches, avec forte capacité de généralisation. C’est un concept prospectif, débattu et non disponible aujourd’hui.
En entreprise : sujet de veille stratégique et d’anticipation des usages, pas un prérequis pour démarrer vos projets.

Modèles & architectures

Modèle fondamental (Foundation model)

Pensez-y comme à un grand modèle généraliste déjà formé sur d’énormes quantités de contenus (texte, images, audio). Il sait beaucoup de choses “par défaut”, puis on le spécialise à votre métier sans repartir de zéro : soit en le guidant avec de bons prompts et vos documents (RAG), soit en l’ajustant finement si vous avez des besoins très spécifiques.
En entreprise : c’est la plateforme de vos copilotes et chatbots. On démarre vite avec prompts + RAG; on affine ensuite (ton de marque, formats juridiques, vocabulaire technique).

LLM (Grand Modèle de Langage)

Un LLM est un modèle centré texte. Sa logique est simple : il prédit le prochain mot en tenant compte de tout le contexte fourni. À partir de là, il sait rédigerrésumerextraire des infos clés, classer et répondre à des questions.
En entreprise : FAQ internes qui tiennent la route, aides à la rédaction (emails, notes, clauses), assistants métiers (RH, juridique, finance, support) qui accélèrent vraiment le quotidien.

Transformer

C’est l’architecture qui a fait passer un cap aux modèles modernes. Au lieu de lire mot par mot, le Transformer regarde toute la phrase (ou le document) en même temps et comprend quelles parties se répondent. Résultat : une bien meilleure prise en compte du contexte et des liens à longue distance.
En entreprise : meilleur niveau de fiabilité sur les contenus longs (procédures, comptes rendus, contrats) et sur les échanges multi-tours avec un assistant.

Attention / Self-Attention

L’attention est le mécanisme clé du Transformer : le modèle donne plus de poids aux passages importants pour produire une réponse cohérente. En self-attention, il apprend tout seul quels mots ou quelles sections se renforcent entre eux.
En entreprise : sur un contrat, il se focalise sur les dates, montants, parties, sur un ticket il repère les champs critiques— bref, moins d’hors-sujet, plus de réponses utiles sur des dossiers complexes.

Données & représentations

Jeton (token)

Imaginez des pièces de LEGO du texte : un token est un petit morceau (syllabe, mot, symbole) que le modèle lit et génère. Coûts, latence et limites dépendent du nombre de tokens en entrée/sortie.
En entreprise : optimisez vos prompts et documents (résumés, formats propres, tableaux → texte) pour payer moinsrépondre plus vite et réduire les erreurs.

Fenêtre de contexte

C’est la mémoire à court terme du modèle : le nombre maximal de tokens qu’il peut considérer “d’un coup”. Plus elle est grande, plus vous pouvez fournir d’historique, pièces jointes, contrats, échanges. (À noter : ce n’est pas une mémoire longue durée.)
En entreprise : gardez l’essentiel (extraits, annexes ciblées) et complétez avec une recherche pertinente plutôt que d’injecter des pavés entiers.

Embedding (représentation vectorielle)

On transforme un texte, une image ou un audio en coordonnées numériques dans un “espace du sens”. Deux contenus proches sémantiquement sont proches dans cet espace : pratique pour retrouverregrouper et relier l’information.
En entreprise : recherche sémantique (trouver la bonne clause sans le bon mot-clé), dédoublonnagerecommandation(docs similaires, réponses proches), matching (CV ↔ offres, ticket ↔ solution).

Base vectorielle (vector database)

Le catalogue de vos embeddings. Elle stocke ces représentations et permet des recherches par similarité (cosinus, etc.), avec filtres et métadonnées (date, service, confidentialité).
En entreprise : l’index sémantique de votre connaissance interne pour alimenter vos assistants (RAG), citer les sources, et mettre à jour les réponses au fil des nouveaux documents.

Orchestration des connaissances

RAG – Génération augmentée par récupération

Le RAG mélange deux super-pouvoirs :

  1. il retrouve d’abord les bons passages dans vos documents (grâce aux embeddings et à une base vectorielle),
  2. puis il génère une réponse en s’appuyant sur ces extraits.
    Résultat : l’assistant ne “devine” pas, il réutilise vos sources.

En entreprise : réponses à jour (pas besoin de réentraîner le modèle), moins d’hallucinations, citations de documents internes, et un déploiement rapide sur vos connaissances (policies, contrats, FAQ, tickets).

Ancrage (Grounding)

L’ancrage consiste à lier explicitement la réponse du modèle à des sources vérifiables : documents internes, base qualité, référentiels métier… L’utilisateur peut cliquer et vérifier.

En entreprise : plus de traçabilité, de confiance et de conformité (audits, RGPD, exigences légales). Utile pour le juridique, la finance, le médical, le support réglementé.

À retenir : le RAG est la méthode (retrouver → augmenter → générer).
L’ancrage est le résultat visible (réponse + références claires).
Ensemble, ils transforment un “chatbot sympa” en assistant fiable et auditables.

Interaction & adaptation

Prompt (requête)

Le prompt est la consigne que vous donnez au modèle : contexteobjectifformat attenducritères (ton, longueur, sources). Plus il est clair et structuré, plus la réponse est utile.
En entreprise : créez des standards de prompt par métier (modèles d’e-mails, trames de comptes rendus, clauses types) pour gagner en cohérence et en qualité.

Prompt engineering

C’est l’art de rédiger, tester, comparer et versionner les prompts. On joue sur la structure, les contraintes (liste, JSON, tableau), et les techniques d’exemples pour guider le modèle.
En entreprise : des gains immédiats sans code : moins de retouches, sorties prêtes à copier-coller, conformité au ton de marque.

Zero-shot / One-shot / Few-shot

Trois façons de montrer la tâche au modèle :

  • Zero-shot : juste l’instruction.
  • One-shot : un exemple représentatif.
  • Few-shot : quelques bons exemples couvrant les cas courants.
    En entreprise : augmente nettement l’exactitude sur vos formats métiers (procès-verbaux, notes RH, synthèses juridiques).

Appel de fonction (function calling)

Le modèle peut décrire un appel structuré à un outil (API interne, CRM, ERP), exécuter l’action, puis réintégrer le résultat dans sa réponse.
En entreprise : un assistant qui agit : créer un ticket, récupérer un contrat, vérifier un stock, poser une requête SQL… et vous rendre une réponse contextualisée.

Agent d’IA

Au-delà du chatbot, l’agent planifieutilise des outils, garde un état (mémoire court/long terme) et enchaîne des étapespour atteindre un objectif.
En entreprise : automatisations orientées résultats (ex. relance clients : extraire → résumer → décider → envoyer ; ou conformité : analyser → vérifier seuils → générer rapport → notifier).

Adapter le modèle à votre métier

Ajustement fin (fine-tuning)

On réentraîne un modèle déjà très compétent avec vos propres exemples (documents, styles, formats) pour qu’il parle votre langage et respecte vos contraintes (ton de marque, structures juridiques, champs obligatoires). Pas besoin de tout repartir de zéro : on adapte ce qui compte.
En entreprise : à envisager après avoir optimisé prompts + RAG. Indispensable quand vous exigez un format strict(formulaires, contrats, rapports normés) ou un jargon pointu (santé, finance, industrie). Prévoyez un jeu d’exemples de qualité et une évaluation claire.

Instruction tuning

Variante ciblée du fine-tuning : on entraîne le modèle sur des paires “instruction → bonne réponse” de haute qualité pour qu’il suive mieux les consignes (structure, ton, critères).
En entreprise : idéal pour imposer vos guides rédactionnelschartes et procédures (ex. “toujours citer 3 sources”, “résumer en 120 mots”, “tableau en 5 colonnes”).

RLHF (apprentissage par renforcement avec retours humains)

On apprend au modèle les préférences humaines en lui montrant ce qu’on préfère (comparaisons A/B), puis on ajuste son comportement pour des réponses plus utiles et plus sûres.
En entreprise : permet d’aligner le ton (professionnel, neutre), de réduire les débordements (contenus inappropriés) et d’améliorer la pertinence sur vos usages sensibles (juridique, conformité, service client).

Quantification (quantization)

On compresse numériquement le modèle (ex. passer de 16/32 bits à 8/4 bits) pour réduire la mémoire et accélérer l’inférence, avec une légère perte de précision. Deux approches :

  • Post-training : on compresse un modèle existant (rapide).
  • Quantization-aware : on entraîne en tenant compte de la quantification (meilleure qualité).
    En entreprise : parfait pour des déploiements on-prem/edge/VM plus économiques (CPU, petits GPU), des POCs rapides et le scaling à moindre coût. Surveillez la qualité après compression.

Qualité, risques & conformité

Hallucination

Une réponse fausse mais plausible. Elle survient quand le modèle comble les trous du contexte.
En entreprise : combinez RAG/ancrage + prompts structurés, affichez les sources, un avertissement et, si possible, un score de confiance.

Biais (bias)

Des erreurs systématiques liées aux données, aux choix de conception ou aux usages (genre, origine, ancienneté, etc.).
En entreprise : gouvernance des données, audits d’équité, jeux de tests représentatifs par population et par cas d’usage.

Garde-fous (guardrails)

Des règles de sécurité et de conformité qui encadrent l’IA : filtrage de contenu, politiques d’usage, listes d’exclusion, limites d’action.
En entreprise : indispensable en secteurs régulés (santé, finance, secteur public). Documentez qui peut faire quoi et journalisez.

Interprétabilité / IA explicable (XAI)

Des techniques pour comprendre pourquoi un modèle a produit telle sortie (caractéristiques clés, sensibilité, explications post-hoc).
En entreprise : renforce la confiance, facilite les audits et la conformité (décisions traçables).

Dérive des données / du modèle (data/model drift)

Le décalage progressif entre l’entraînement et la réalité (nouveaux produits, règles, saisonnalité).
En entreprise : surveillez la qualité, mettez en place des alertesré-indexez (RAG) ou réentraînez périodiquement.

Surapprentissage / Sous-apprentissage

  • Surapprentissage : le modèle colle trop à l’entraînement → généralise mal.
  • Sous-apprentissage : le modèle est trop simple → performances faibles partout.
    En entreprise : validation stricterégularisationplus de données utiles et propres.

Latence & débit

Le temps pour générer le premier jeton et la réponse complète, plus la vitesse de génération (tokens/s).
En entreprise : impact direct sur l’UX, les SLA et la productivité. Choisissez le bon modèle par tâche et optimisez le contexte.

Coût à l’usage (par jetons)

La plupart des modèles facturent à la consommation de jetons (contexte + sortie).
En entreprise : maîtrisez vos budgets via prompts concisrésuméscache, et un routing vers des modèles plus légers quand c’est pertinent.

Gouvernance des données (RGPD, PII)

Politiques et contrôles pour protéger les données personnelles/sensibles : accès, conservation, traçabilité.
En entreprise : masquage/anonymisationjournaux d’accèsclauses contractuelles et gestion fine des droits dans vos flux RAG.

Red teaming (tests d’attaque)

Des tests proactifs pour débusquer biais, jailbreaksprompt injections, fuites et exfiltration de données.
En entreprise : à réaliser en pré-production, puis en continu sur les systèmes vivants.

Familles de tâches & cas d’usage

Traitement du langage naturel (NLP)

Donner aux machines la capacité de lire, résumer, classer, traduire et répondre en langage naturel.

En entreprise : résumé de réunions, extraction de clauses, réponses aux e-mails.

Vision par ordinateur

Compréhension d’images/vidéos (détection, OCR, segmentation).

En entreprise : contrôle qualité, inventaire, conformité visuelle.

Chatbot / Assistant conversationnel

Interface de dialogue (texte/voix) adossée à RAG, outils et garde-fous.

En entreprise : support 1er niveau, helpdesk IT, accompagnement RH.

Médias synthétiques / deepfakes

Contenus générés par IA (visuel/son) qui imitent le réel.

En entreprise : création de visuels/voix synthétiques avec droit d’usage; détections anti-fraude.

Classification

Attribuer une étiquette (binaire/multi-classe) à un texte, une image, un client.

En entreprise : prioriser tickets, catégoriser documents, lead scoring.

Inférence

Phase d’exécution d’un modèle sur de nouvelles données (par opposition à l’entraînement).

En entreprise : dimensionnement infra, monitoring, coûts temps réel.

Observabilité & exploitation

Observabilité IA (LLMOps/MLOps)

Pratiques pour suivre qualité, coûts, usages et incidents (journaux, métriques, traçabilité des prompts, feedback humains).

En entreprise : tableaux de bord, garde-fous actifs, boucles d’amélioration.

Orchestration (workflows IA)

Coordination de plusieurs étapes (pré-traitement, RAG, outils, post-traitement, validation humaine) avec gestion d’état/mémoire.

En entreprise : fiabilité, réutilisabilité, audit.

Ressources de calcul (GPU/CPU/VRAM)

Matériel nécessaire à l’entraînement et à l’inférence. Les GPU accélèrent fortement les modèles profonds.

En entreprise : arbitrage coût-latence-sécurité (cloud vs on-prem).