Actu-IA
GPT (Generative Pre-trained Transformer) - definition et explication du terme IA
🏗️ Modeles & Architectures

GPT (Generative Pre-trained Transformer)

Famille de modeles de langage developpes par OpenAI, a l'origine de la revolution de l'IA generative.

GPT (Generative Pre-trained Transformer) est une famille de modeles de langage developpes par OpenAI. Le principe : pre-entrainer un Transformer massif sur du texte internet, puis l'affiner pour des taches specifiques.

Evolution :

  • GPT-1 (2018) : 117M parametres, preuve de concept
  • GPT-2 (2019) : 1.5B parametres, generation de texte coherent
  • GPT-3 (2020) : 175B parametres, capacites emergentes
  • GPT-3.5 (2022) : base de ChatGPT, democratisation
  • GPT-4/GPT-4o (2023-2024) : multimodal, raisonnement avance
  • GPT-4o (2024) : multimodal natif, plus rapide
  • GPT-4.5 (2025) : meilleure factualite, cout reduit
  • GPT-5 (debut 2026) : agents autonomes, raisonnement avance
  • GPT-5.3 Codex (2026) : specialise code
  • GPT-5.4 (mars 2026) : modele le plus capable, contexte 1M tokens

GPT a donne son nom a ChatGPT et a inspire toute l'industrie des LLM. L'approche "scale up" (toujours plus gros) a prouve son efficacite mais pose des questions de cout et d'impact environnemental.

Ressources externes

Termes lies