← Retour
Jour 1 · 15 avril 2026

LE COURS THÉORIQUE.

Tout ce qu'il faut avoir en tête avant de démarrer le projet. Sept chapitres, lisibles d'une traite en une matinée, à relire pendant les intercours.

Avant de commencer

On va parler de choses qui peuvent sembler intimidantes : intelligence artificielle, modèles de langage, architectures logicielles, Git. La plupart d'entre vous n'ont jamais écrit une ligne de code sérieusement. C'est très bien. Ce cours n'a pas été conçu pour faire de vous des ingénieurs logiciel. Il a été conçu pour vous rendre capables, en quatre journées, de transformer une idée en produit qu'on peut ouvrir dans un navigateur et utiliser.

Pour y arriver, il faut comprendre trois choses dans l'ordre : ce qu'est l'IA qu'on va utiliser (pour ne pas lui demander l'impossible), comment une application est construite (pour savoir quoi lui demander), et comment on travaille à plusieurs (pour ne pas perdre une journée entière à résoudre un conflit Git). C'est tout ce qu'il y a dans ce cours.

La tech n'est pas magique. Elle est rendue accessible. Nuance importante, parce que tout ce qui n'est pas magique peut se comprendre.

01 — Genèse

Comment on en est arrivé à l'IA d'aujourd'hui

L'intelligence artificielle, en tant que discipline, a commencé dans les années 1950. Pas dans un laboratoire de la Silicon Valley : dans une salle de séminaire à Dartmouth, aux États-Unis, en 1956. Une poignée de mathématiciens se posent une question simple : est-ce qu'une machine peut, en principe, simuler n'importe quel aspect de l'intelligence humaine ? Ils s'accordent 8 semaines pour y répondre. Ils n'y arrivent pas. Ça va leur prendre 70 ans.

1950TuringCan machines think?1956DartmouthNaissance de l'IA1997Deep BlueBat Kasparov2012AlexNetDeep learning décolle2017TransformerAttention is all you need2022ChatGPTL'IA pour tous
70 ans d'IA, six moments qui comptent

Pendant longtemps, les chercheurs essaient de programmer l'intelligence avec des règles. Si ceci, alors cela. Ça marche pour jouer aux échecs (Deep Blue bat Kasparov en 1997), ça ne marche pas du tout pour reconnaître un chat sur une photo. Le problème, c'est qu'on ne sait pas écrire la règle "qu'est-ce qu'un chat".

Alors on change de stratégie. Plutôt que d'écrire les règles, on montre à la machine des milliers d'exemples et on la laisse déduire les règles elle-même. C'est ça, le machine learning : apprendre à partir de données, pas à partir d'instructions. Cette bascule est définitivement validée en 2012, quand un modèle appelé AlexNet, entraîné sur des millions d'images, écrase la compétition ImageNet.

Cinq ans plus tard, en 2017, des chercheurs de Google publient un article au titre anodin : Attention is all you need. Ils y décrivent une nouvelle architecture de réseau de neurones, appelée Transformer. C'est l'ancêtre direct de tous les grands modèles de langage d'aujourd'hui. Cinq ans plus tard encore, en novembre 2022, OpenAI met en ligne une interface qui permet de discuter avec un de ces modèles. Elle s'appelle ChatGPT. Elle atteint 100 millions d'utilisateurs en deux mois. C'est le moment où l'IA sort des laboratoires et rentre dans les foyers.

Depuis, la course est continue. Anthropic, OpenAI, Google, Mistral, DeepSeek : chaque acteur publie de nouvelles versions tous les trois à six mois, chacune plus capable que la précédente. Claude Opus 4.6, que vous allez utiliser dans ce cours, est sorti en début 2026. L'année dernière, il n'existait pas.

À retenir

L'IA n'est pas un miracle. C'est 70 ans de recherche, 10 ans de traitement massif de données, et 5 ans de modèles à grande échelle. On n'est pas devant quelque chose qu'on ne peut pas comprendre. On est devant quelque chose qu'on peut enfin utiliser.

02 — Rangement

IA, machine learning, deep learning, LLM

Ces quatre termes sont souvent utilisés comme s'ils étaient interchangeables. Ils ne le sont pas. Ils désignent des cercles de plus en plus précis, emboîtés les uns dans les autres.

INTELLIGENCE ARTIFICIELLEtoute machine qui imite l'intelligenceMACHINE LEARNINGapprendre à partir de donnéesDEEP LEARNINGréseaux de neurones profondsLLMGPT, Claude, Gemini…
Quatre cercles, du plus large au plus précis

L'intelligence artificielle, au sens large, c'est n'importe quelle machine capable de réaliser une tâche qui, si un humain la faisait, demanderait de l'intelligence. Un algorithme qui calcule le trajet le plus court entre deux points, c'est de l'IA. Un filtre anti-spam, c'est de l'IA. Ça n'a rien de magique.

Le machine learning est une sous-discipline de l'IA. Au lieu de coder la solution à la main, on donne à la machine un gros paquet d'exemples et un objectif, et on la laisse apprendre à atteindre cet objectif toute seule. C'est comme apprendre à reconnaître un chien à un enfant : on ne lui liste pas les caractéristiques du chien, on lui montre plein de chiens.

Le deep learning est une technique de machine learning basée sur des "réseaux de neurones" profonds, c'est-à-dire avec beaucoup de couches. Plus il y a de couches, plus le modèle peut capturer des nuances complexes. C'est ce qui a rendu possibles la reconnaissance d'image, la traduction automatique, la synthèse vocale.

Les grands modèles de langage (LLM), enfin, sont une catégorie particulière de modèles de deep learning, spécialisés sur le texte. GPT-4, Claude, Gemini, Llama, Mistral : ce sont tous des LLM. Ils partagent la même idée de base, qu'on va détailler maintenant.

03 — LLM

Comment ça fonctionne vraiment

Un LLM fait, en réalité, une seule chose : prédire le mot suivant dans un texte. C'est tout. Rien de plus. Le reste est une conséquence.

Quand vous écrivez "La capitale de la France est", le modèle regarde votre texte, et parmi tous les mots possibles qui pourraient venir ensuite, il choisit celui qui a la plus grande probabilité. "Paris", avec une confiance écrasante. Puis il recommence. Il ajoute "Paris" au texte, regarde le nouveau texte, et prédit le mot suivant. "Paris", puis ",", puis "une", puis "ville", et ainsi de suite.

La capitale de la France estPRÉDICTIONS DU MODÈLEParis98%située0.8%une0.4%connue0.3%ITÉRATION 2La capitale de la France est ParisPROCHAIN MOT : ","Et ainsi de suite, mot par mot,jusqu'à ce que la réponse soit complète.
Le modèle prédit un mot à la fois, en boucle

Pour arriver à faire ça correctement, le modèle a été entraîné sur à peu près tout ce qui a été écrit et rendu public sur Internet. Wikipédia, livres, articles, code source, forums. Pendant plusieurs mois, sur des milliers de cartes graphiques. Ce qu'il a réellement appris, ce ne sont pas les mots eux-mêmes : c'est une représentation mathématique ultra-compressée des régularités du langage humain. Des motifs : comment les phrases sont construites, comment les concepts s'enchaînent, comment on raisonne à l'écrit.

C'est ce qui explique pourquoi un LLM peut répondre à une question qu'il n'a jamais vue : il n'a pas mémorisé des réponses, il a appris les structures qui permettent de les produire. C'est aussi ce qui explique pourquoi il peut inventer des choses (on appelle ça des hallucinations) : quand il ne sait pas, il produit quand même une suite plausible, parce que son seul job est de prédire la suite la plus probable.

La fenêtre de contexte : ce que le modèle "voit"

Quand vous discutez avec un LLM, vous lui envoyez du texte. L'ensemble de ce texte, plus ses propres réponses, plus les instructions système, plus les fichiers que vous lui partagez, tout ça rentre dans ce qu'on appelle la fenêtre de contexte. C'est la mémoire de travail du modèle, limitée en taille.

Claude Opus 4.6 peut traiter jusqu'à 1 million de tokens dans sa fenêtre de contexte. Un token est à peu près un bout de mot : en français, un token vaut en moyenne 0,7 mot. 1 million de tokens, ça correspond grosso modo à 7 livres de 300 pages. Pour un cours de 4 jours, c'est plus qu'il n'en faudra jamais.

Implication pratique

Le modèle n'a pas de mémoire entre deux conversations. Si vous fermez la fenêtre et que vous en ouvrez une nouvelle, il ne se souvient de rien. Tout ce qu'il sait sur votre projet doit être soit dans le contexte, soit dans les fichiers qu'il a sous les yeux.

04 — Claude Code

Un LLM, des outils, tes fichiers

Si vous ouvrez claude.ai, vous avez un chatbot. Vous lui parlez, il vous répond. C'est pratique pour rédiger, pour résumer, pour expliquer. Mais un chatbot seul ne peut rien construire : il ne peut ni lire les fichiers de votre projet, ni créer de nouveau fichier, ni lancer une commande dans le terminal, ni installer une dépendance. Il est enfermé dans sa conversation.

Claude Code enlève cet enfermement. C'est un programme qui tourne dans votre terminal. À l'intérieur, il y a le même modèle que dans claude.ai, mais cette fois il a des outils : il peut lire vos fichiers, en écrire de nouveaux, en modifier, exécuter des commandes shell, faire des recherches dans le code, installer des librairies. Il boucle ensuite sur lui-même jusqu'à ce que la tâche soit faite.

VOUSdemande en FRCLAUDE CODEmodèle + outils(boucle interne)LIRE / ÉCRIREfichiers du projetEXÉCUTERcommandes shellRECHERCHERdans le codeWEBchercher en ligneRÉSULTAT
La boucle d'un agent : comprendre, agir, observer, recommencer

Concrètement, le fonctionnement ressemble à ça. Vous tapez une demande en langage naturel : "Ajoute un bouton 'Se déconnecter' dans le header". Le modèle lit votre demande, regarde les fichiers de votre projet pour comprendre comment le header est construit, identifie le bon fichier, rédige la modification, l'applique, lance éventuellement un test ou un serveur local pour vérifier que rien n'est cassé, et vous rend la main. Vous regardez le résultat, vous validez ou vous demandez une correction. C'est cette boucle qu'on va utiliser pendant tout le cours.

Ce que Claude Code n'est pas

Ce n'est pas un générateur de code qui crache du texte. Ce n'est pas non plus un copilote qui complète vos phrases. C'est un agent qui comprend votre projet dans son ensemble et qui prend des décisions. Vous gardez le contrôle : vous validez, vous corrigez, vous orientez. Mais c'est lui qui écrit.

05 — Anatomie

Comment une application web est construite

Pour bien travailler avec Claude Code, il faut au moins comprendre dans quoi on va s'insérer. Une application web, même simple, est un empilement de couches qui se parlent. Voici les quatre qu'on va rencontrer.

FRONT-ENDHTML / CSS / JS — ce que l'utilisateur voitBACK-ENDNode, Python, Go — la logiqueBASE DE DONNÉESPostgreSQL, SQLite — la mémoire longueDESIGN SYSTEMUTILISATEURHTTP requestSQL querystockage
Les quatre couches d'une application web moderne

1. Le front-end : ce que l'utilisateur voit

C'est la partie visible de l'iceberg. Tout ce qui s'affiche dans le navigateur : les boutons, les couleurs, les images, les formulaires. Écrit principalement en HTML (la structure), CSS (l'apparence) et JavaScript (l'interactivité). Dans notre cours, on utilisera Next.js, qui est un framework au-dessus de JavaScript pour construire des applications modernes rapidement, et Tailwind, une manière plus rapide d'écrire du CSS. Ne vous souciez pas de ces noms maintenant : Claude Code connaît déjà très bien ces outils.

2. Le back-end : ce qui se passe en coulisses

Quand vous cliquez sur "S'inscrire", ce n'est pas le navigateur qui crée votre compte. Il envoie une requête à un serveur, qui reçoit, traite, sauvegarde dans une base de données, et renvoie une réponse. Ce serveur, c'est le back-end. Il parle des langages qu'on appelle "serveur" : Node.js, Python, Go, Ruby, et d'autres. Dans notre cours, comme on utilise Next.js, le back-end sera en JavaScript lui aussi, directement intégré dans le même projet. Un seul langage, une seule stack.

3. La base de données : la mémoire longue

Tout ce qu'une application doit retenir entre deux visites vit dans une base de données : comptes utilisateurs, messages, posts, préférences. C'est comme un énorme tableau Excel permanent, mais optimisé pour les recherches rapides. Il existe deux grandes familles : SQL (structurée, comme PostgreSQL, MySQL, SQLite) et NoSQL (plus souple, comme MongoDB, Firebase). Pour un prototype de 4 jours, on fera au plus simple : SQLite en local, ou Vercel Postgres si on déploie.

4. Le design system : la grammaire visuelle

Quand on construit une app rapidement, on n'a pas le temps de dessiner chaque bouton, chaque carte, chaque formulaire individuellement. Un design system est une collection de composants réutilisables (un bouton, une carte, un champ de formulaire) avec des règles de couleur, d'espacement et de typographie. Une seule fois on décide "le bouton principal est orange, 16px de padding, font DM Mono", et ensuite on réutilise ce composant partout. On utilisera shadcn/ui, une librairie de composants Tailwind prêts à l'emploi.

Pourquoi ça compte pour vous

Quand Claude Code vous proposera un choix ("je mets ça dans le front ou dans l'API ?"), il faut pouvoir répondre. Pas besoin d'être expert. Il faut juste savoir : ce qui est visible = front, ce qui se passe après un clic = back, ce qui doit survivre à un refresh = base de données, ce qui se répète visuellement = design system.

06 — Git & GitHub

Travailler à plusieurs sans tout casser

Vous allez travailler en groupe de 4. Sans outil adapté, ça finit toujours pareil : deux personnes modifient le même fichier en même temps, on écrase le travail de l'autre, et on passe une heure à réparer. Git a été inventé pour éliminer ce problème. C'est un système de gestion de versions : il garde l'historique complet de toutes les modifications d'un projet, et il permet à plusieurs personnes de travailler en parallèle sans se marcher dessus.

Git est un outil en ligne de commande. GitHub est le service en ligne qui héberge les projets Git et offre une interface web pour les gérer, discuter des modifications, et les relire avant de les intégrer. On va utiliser les deux ensemble.

MAINCLAUDE/LOGIN-FORMCLAUDE/HEADERcommit sur main (mergé, déployé)commit sur une branche (en cours de travail)
La logique des branches : main protégée, features isolées

Les cinq commandes qui couvrent 95% des cas

  • git status : savoir où j'en suis (quels fichiers ont été modifiés, quelle branche je suis).
  • git checkout -b ma-branche : créer une nouvelle branche pour travailler sur une feature.
  • git add . puis git commit -m "message" : sauvegarder un ensemble de modifications avec un message qui explique ce qui change.
  • git push : envoyer mes commits sur GitHub.
  • git pull : récupérer les commits des autres.

Et c'est tout, au moins pour commencer. Claude Code sait utiliser Git. Vous pouvez lui demander "commit ce qui a changé avec un message clair" et il le fera.

Le workflow "branche + pull request"

La règle d'or : personne ne touche à la branche main directement. Main est sacrée, c'est la version qui est en ligne. Pour ajouter une feature, on crée une branche dédiée (claude/login-form), on y travaille, puis on ouvre une pull request sur GitHub. Les autres membres du groupe la relisent, commentent, et quand tout le monde est d'accord, on merge. Cette discipline vous évitera 80% des problèmes qu'on voit en groupe.

Pair programming avec l'IA

Idéalement, chaque groupe aura plusieurs abonnements Claude Code. Pendant qu'une personne fait le front d'un écran dans sa branche, une autre fait le back dans une autre branche. Elles synchronisent via Git. Cette façon de travailler s'appelle le pair programming distribué et c'est elle qui vous permettra d'avancer vite en équipe.

07 — Vibe coding

La méthode qu'on va utiliser

"Vibe coding" est une expression qui a émergé en 2025 pour décrire une façon nouvelle de programmer : plutôt que d'écrire le code vous-même, vous décrivez en langage naturel ce que vous voulez, et vous laissez un agent IA l'écrire à votre place. Vous gardez le rôle du product manager, du designer, du testeur. Vous ne passez pas des heures à taper du code : vous passez du temps à penser à ce que le code doit faire.

INTENTIONce que je veuxGÉNÉRATIONclaude code écritVÉRIFICATIONje teste, je lisAJUSTEMENTje corrige, je préciseBOUCLEcourte et continue
La boucle du vibe coding : intention, génération, vérification, ajustement

Les quatre bonnes pratiques qu'on va suivre

1. Décrire l'intention, pas la solution. Mauvais : "crée un div avec une classe flex et trois boutons dedans". Bon : "dans le header, ajoute une zone à droite avec trois actions : notifications, paramètres, menu utilisateur. Utilise shadcn et respecte la DA du projet". Claude est bon pour traduire une intention claire en code. Il est mauvais pour exécuter des ordres techniques imprécis.

2. Travailler par petits incréments. Ne demandez jamais "construis l'application complète". Demandez "construis d'abord la page d'accueil", vérifiez, commitez. Puis "ajoute le formulaire d'inscription", vérifiez, commitez. À chaque étape, vous ouvrez le navigateur, vous regardez si ça marche. Si ça casse, on sait que c'est à cause de la dernière étape, et on peut revenir en arrière avec Git en une seconde.

3. Ne pas faire confiance aveuglément. Claude peut se tromper. Il peut inventer une librairie qui n'existe pas, mal comprendre ce que vous vouliez, oublier un détail. Votre job, c'est de tester. Ouvrez l'app, cliquez partout, essayez les cas limites (un champ vide, un nom à 200 caractères, un clic rapide-rapide). Si ça casse, dites-le lui : il saura presque toujours corriger.

4. Lire les réponses. Claude explique presque toujours ce qu'il a fait et pourquoi. C'est votre cours accéléré de développement. Prenez 30 secondes à chaque fois pour lire. Au bout de trois jours, vous aurez compris 80% de ce qui se passe dans votre projet.

Le piège classique

Demander à Claude de "tout refaire" parce qu'un truc ne marche pas. C'est la pire chose à faire : vous perdez des heures de travail, vous réintroduisez des bugs que vous aviez déjà corrigés, et vous n'avez rien appris. À la place : isolez le problème, décrivez-le précisément, demandez-lui de le corriger. Si vraiment ça part en sucette, revenez au dernier commit qui marchait avec Git. C'est fait pour ça.

Prochaine étape

Vous avez maintenant tout ce qu'il faut en tête pour démarrer. Passez au brief projet pour voir ce qu'on attend de vous pendant les quatre journées, et à la page ressources pour la check-list d'installation à faire avant le jour 2.

Le reste, on va l'apprendre en construisant. Ouvrez Claude Code. Demandez-lui n'importe quoi. Regardez ce qu'il répond. C'est le meilleur cours accéléré qui existe.