Aller au contenu principal
Lance-toi : 40% de réduction sur toutes les formations jusqu'au 30 juin En savoir plus

15 projets LLM à coder en 2026 pour passer de la théorie au terrain

Vous avez lu trois threads sur les LLM cette semaine, regardé deux vidéos, peut-être même fini un cours. Et pourtant, devant un éditeur vide, vous ne savez toujours pas par où commencer. Voici 15 projets classés par niveau, chacun pensé pour résoudre un problème réel, pas pour cocher une case.

Guides & tutoriels ·
Adel LATIBI
Adel LATIBI

Le Briefing Dev - les ressources et actus de la semaine, droit dans ta boîte chaque vendredi gratuitement.

Pourquoi coder ses propres projets LLM

Lire la documentation d'OpenAI ou d'Anthropic ne suffit pas. Tant qu'on n'a pas vu un prompt mal formulé partir en boucle, une fenêtre de contexte exploser ou une facture API doubler en une nuit, on ne comprend pas vraiment comment ces outils se comportent. Les 15 projets qui suivent partent tous d'une frustration concrète : un texte trop long à résumer à la main, un assistant qui oublie ce qu'on lui a dit deux messages plus tôt, un PDF de 80 pages où il faut retrouver une clause précise. Chacun se code en un week-end ou deux selon votre rythme.

Niveau débutant : poser les bases sans s'égarer

Ces cinq projets ne demandent qu'un peu de Python et un accès API. Ils servent à comprendre le cycle requête, réponse, gestion d'erreur. Si vous bloquez sur la partie Python pure, la formation Python pour débutants couvre tout ce qu'il faut avant d'attaquer une API.

1. Un chatbot simple en ligne de commande

Le projet d'entrée. Une boucle infinie, une variable qui stocke l'historique, un appel API à chaque tour. Le piège classique, c'est de croire que le modèle se souvient tout seul. Il ne se souvient de rien. C'est vous qui lui renvoyez le contexte à chaque tour. Coder ce chatbot, c'est comprendre cette mécanique en moins de 50 lignes.

Le problème résolu : arrêter de tester ses prompts dans l'interface web et passer à un workflow automatisable.

2. Un analyseur de sentiment sur des avis clients

Donnez au modèle un avis Trustpilot ou Google Maps, demandez-lui une note de 1 à 5 et une catégorie (livraison, qualité, service). Le vrai apprentissage ici, c'est le format de sortie. Sans contrainte, le modèle vous répond en prose. Avec un prompt bien construit, vous obtenez du JSON propre, parsable, exploitable dans un tableur.

Le problème résolu : classer 500 avis clients sans y passer une journée.

3. Un résumeur d'articles longs

Vous lui collez un article de 3000 mots, il vous rend un résumé en 5 points. La difficulté n'est pas le résumé en lui-même, c'est de gérer les textes qui dépassent la fenêtre de contexte. Vous allez devoir découper, résumer chaque morceau, puis résumer les résumés. C'est votre première rencontre avec le pattern map-reduce.

4. Un correcteur grammatical contextuel

Plus subtil qu'il n'y paraît. Un correcteur classique signale les fautes. Un correcteur LLM peut expliquer pourquoi, proposer des reformulations, adapter le ton. L'enjeu pédagogique : apprendre à structurer un prompt pour qu'il distingue erreur factuelle, erreur grammaticale et choix stylistique.

5. Un générateur de quiz à partir d'un cours

Vous lui donnez un chapitre de cours, il vous sort 10 questions à choix multiples avec la bonne réponse et trois leurres crédibles. Le vrai défi, c'est la qualité des leurres. Si le modèle propose des réponses absurdes, le quiz est inutile. C'est un excellent exercice pour comprendre le few-shot prompting.

Niveau intermédiaire : enchaîner les briques

Ici, on quitte le simple appel API pour assembler plusieurs étapes. Si la notion de prompt structuré commence à vous échapper, la formation Prompt Engineering API LLM vous donnera les fondations qui rendent ces projets faisables.

6. Un chatbot avec mémoire persistante

Le chatbot du projet 1 oublie tout dès qu'on ferme le terminal. Ici, vous stockez les conversations dans SQLite ou dans un fichier JSON, vous ajoutez une logique de troncature pour ne pas exploser la fenêtre de contexte, et vous gérez plusieurs sessions utilisateur. C'est le moment où vous découvrez que la vraie complexité d'un LLM n'est pas le LLM, c'est tout ce qu'il y a autour.

7. Un assistant d'écriture spécialisé

Choisissez un domaine : rédaction d'emails commerciaux, posts LinkedIn, descriptions produit e-commerce. Construisez un assistant qui prend un brief court et produit un texte long, en respectant un ton défini. La clé : un système prompt précis, des exemples de référence, et une logique de feedback (le modèle propose, l'utilisateur corrige, le modèle apprend du correctif dans le contexte).

8. Un chatbot RAG sur votre documentation

Le projet incontournable. Vous prenez votre documentation interne ou un ensemble de PDFs, vous les découpez en morceaux, vous les transformez en vecteurs avec un modèle d'embedding, vous les stockez dans une base vectorielle (Chroma ou Qdrant en local font très bien l'affaire), puis vous récupérez les morceaux pertinents avant chaque appel au LLM. C'est le pattern qui fait tourner 80 % des assistants en production aujourd'hui.

Le problème résolu : répondre à des questions précises sur des documents que le modèle n'a jamais vus pendant son entraînement.

9. Un moteur de recherche augmenté par IA

Variante du RAG, mais cette fois vous combinez recherche classique (BM25 ou Elasticsearch) et recherche sémantique. Le LLM intervient à la fin pour reformuler la question, classer les résultats et générer une réponse synthétique avec citations. C'est ce que font Perplexity ou la recherche Brave en simplifié.

10. Un automate de tâches répétitives

Choisissez une tâche que vous faites manuellement chaque semaine : trier vos emails, extraire les chiffres d'un rapport PDF, classer des images. Construisez un script qui le fait pour vous, avec un LLM comme moteur de décision. Pour la partie Python, l'automatisation et scripting avec Python vous donnera tous les outils pour orchestrer ça proprement.

Niveau avancé : sortir de la zone de confort

À ce stade, vous touchez aux sujets qui font la différence en entretien et en production. La création d'une application IA avec Python et l'API OpenAI couvre l'architecture nécessaire pour ces projets.

11. Un LLM fine-tuné sur un jeu de données métier

Vous prenez un modèle open source (Llama, Mistral) et vous l'ajustez sur un corpus spécifique : tickets de support, contrats juridiques, documentation technique. La difficulté est moins le code que la préparation du jeu de données. Vous allez passer 80 % du temps à nettoyer, formater, équilibrer, et 20 % à lancer l'entraînement. C'est exactement ce ratio qu'on retrouve en machine learning depuis vingt ans, et l'introduction au machine learning avec Python couvre ces fondamentaux.

12. Un assistant de code review automatique

Le projet branche un script sur les pull requests d'un dépôt Git, récupère le diff, l'envoie à un LLM avec un prompt qui demande des commentaires constructifs (sécurité, lisibilité, performances), et poste les retours en commentaires sur la PR. C'est l'un des cas d'usage les plus rentables de l'IA en 2026, et il s'intègre dans n'importe quel pipeline CI/CD.

Si vous voulez que ce script tourne en continu sur GitHub, la formation CI/CD avec GitHub Actions vous montre comment l'intégrer proprement.

13. Une API de déploiement IA avec gestion multi-utilisateurs

Vous exposez vos services LLM via FastAPI, avec authentification, quotas par utilisateur, logs, monitoring des coûts. C'est le passage du prototype au produit. Si vous n'avez jamais construit d'API REST, la formation pour créer une API REST avec Python et FastAPI est le détour qui vous fera gagner deux semaines.

14. Un moteur de recherche sémantique sur du contenu propriétaire

Plus poussé que le projet 8 : vous indexez des millions de documents, vous gérez le versionnage des embeddings, vous mettez en place du cache, vous monitorer la pertinence des résultats avec des métriques de rappel et de précision. C'est de la recherche d'information moderne, et c'est probablement le poste le plus recherché en data engineering aujourd'hui.

15. Un extracteur de documents structurés

Vous lui donnez un PDF de facture, un contrat ou un rapport médical, il vous rend un JSON propre avec tous les champs identifiés. Le défi est double : la fiabilité (le modèle ne doit pas halluciner de montants) et la robustesse (les documents ont des formats différents). La solution passe par un mélange d'OCR, de prompts structurés et de validation par règles.

Le problème résolu : remplacer la saisie manuelle de données dans des cabinets comptables, juridiques ou médicaux. Marché énorme, peu d'acteurs sérieux pour l'instant.

Le pipeline qui revient dans tous ces projets

Si vous regardez attentivement les 15 projets, vous remarquez un schéma qui se répète : données en entrée, prompt construit, appel au modèle, post-traitement, réponse en sortie. C'est ce squelette qui structure 90 % des applications LLM en production. Une fois qu'on l'a intériorisé, ajouter une nouvelle fonctionnalité ne demande plus de tout réinventer, juste de remplacer une brique.

Sur le plan architectural, ce découpage rejoint des principes plus larges qu'on retrouve dans la plupart des codebases solides. Si le sujet vous parle, j'ai écrit récemment sur la séparation des préoccupations et sur le principe de Single Source of Truth, deux idées qui s'appliquent directement à la conception d'applications LLM.

Comment choisir par où commencer

Pas la peine de tout faire dans l'ordre. Si vous débutez, projets 1, 3 et 5 suffisent à valider votre confort avec une API LLM. Si vous avez déjà du Python solide, sautez directement au RAG (projet 8) : c'est le projet qui ouvre le plus de portes, en freelance comme en CDI. Si vous visez un poste sénior ou tech lead, projets 11, 13 et 14 sont ceux qui démontrent une vraie compétence d'ingénierie, pas juste une familiarité avec ChatGPT.

Et si vous bloquez sur la partie outillage (Claude Code, agents, configuration), j'ai détaillé la stack qu'on utilise au quotidien dans le guide Claude Code 2026 et dans l'explication du dossier .claude/.

FAQ : 15 projets LLM à coder en 2026

Faut-il connaître le machine learning pour faire ces projets ?

Non, sauf pour le projet 11 (fine-tuning). Les 14 autres reposent sur l'utilisation d'un modèle déjà entraîné via une API. Une bonne maîtrise de Python et la compréhension des concepts d'API REST suffisent pour démarrer.

Quel modèle utiliser pour ces projets ?

Pour apprendre, GPT-4o-mini ou Claude Haiku 4.5 offrent un excellent rapport qualité-coût. Pour des projets plus exigeants (RAG sur gros corpus, code review, fine-tuning), Claude Opus 4.7 ou GPT-5.5 donnent de meilleurs résultats. Pour les projets en local, Llama 3.3 ou Mistral Small tournent sur un Mac M2 sans problème.

Combien de temps pour faire les 15 projets ?

Compter un week-end par projet débutant, deux à trois jours par projet intermédiaire, et une à deux semaines par projet avancé. Sur un rythme de quelques heures par semaine, l'ensemble se boucle en cinq à six mois. L'objectif n'est pas la vitesse, c'est la profondeur.

Combien ça coûte en API ?

Pour les projets débutants, comptez moins de 5 euros par projet en utilisant les modèles légers. Pour les projets RAG ou les automatisations, le coût peut monter à 20 ou 30 euros par mois si vous testez intensivement. Toujours mettre un plafond de dépense sur votre compte API dès le début.

Ces projets sont-ils suffisants pour décrocher un poste ?

Trois ou quatre projets bien finis, documentés, déployés et présentés sur GitHub valent mieux que les 15 à moitié. Les recruteurs cherchent des preuves de raisonnement, pas un catalogue. Pour la mise en valeur, voir l'article sur comment construire un portfolio sans client.

Open source ou API payante ?

Les API payantes restent plus rapides à mettre en place et offrent une qualité supérieure pour les tâches complexes. Les modèles open source brillent quand la confidentialité ou le coût récurrent posent problème. Une stratégie raisonnable : prototyper avec une API, basculer en open source si le projet passe en production avec un volume significatif.

Si l'un de ces projets vous tente et que vous voulez un cadre pour ne pas abandonner à mi-chemin, les formations Python & Data de LaPolaris sont conçues pour aller du fondamental au déploiement, en suivant exactement la progression de cet article.

Vous êtes expert ?

Partagez votre expertise sur notre blog

Tutoriel, retour d'expérience, analyse — publiez un article invité et gagnez en visibilité.

Écrire pour nous