Retour au blog
7 min de lecture

DeepSeek V4 : le modèle qui talonne GPT-5.5 à 1/20e du prix

DeepSeek V4 sort en preview et coûte 98% moins cher que GPT-5.5. Capacités, prix, limites et comment l'utiliser concrètement aujourd'hui.

Illustration de DeepSeek V4, le modèle open-weight chinois qui rivalise avec GPT-5.5

Le 24 avril 2026, quelques heures après qu'OpenAI a déployé GPT-5.5, une équipe basée à Hangzhou a sorti DeepSeek V4 en preview. Et depuis, je reçois la même question presque chaque jour : « est-ce que ça vaut vraiment GPT-5.5, ou c'est encore une promesse ? ». Je vais te raconter ce que j'ai vu après l'avoir testé, ce que ça coûte, ce que ça sait faire, et là où ça coince encore.

Parce que cette fois, le timing du lancement et l'écart de prix méritent qu'on s'y arrête deux minutes. DeepSeek V4-Pro coûte 1,74 dollar par million de tokens en entrée, contre 30 dollars pour GPT-5.5 Pro. Soit environ 98% moins cher, pour des résultats qui frôlent la frontière sur certaines tâches. Et ce n'est pas un argument marketing, c'est ce que les benchmarks publiés montrent.

DeepSeek V4 débarque pendant que GPT-5.5 fait ses premiers pas

DeepSeek a publié son modèle quelques heures après la mise en ligne de GPT-5.5. Pas un hasard. Le laboratoire chinois a pris l'habitude de timer ses sorties juste après celles d'OpenAI ou d'Anthropic, pour rappeler qu'il joue dans la même cour. Sauf qu'à chaque itération, l'écart se referme un peu plus.

V4 arrive en deux versions, V4-Pro et V4-Flash, toutes deux open-weight sous licence MIT, disponibles en téléchargement libre sur Hugging Face. Le Pro embarque 1,6 trillion de paramètres au total, dont 49 milliards activés par requête, ce qui en fait à ce jour le plus gros modèle open-weight jamais publié. Le Flash, plus léger, plafonne à 284 milliards de paramètres totaux et 13 milliards actifs. Les deux supportent une fenêtre de contexte d'un million de tokens.

Pour donner un repère : un million de tokens, c'est environ 750 000 mots, soit le contenu cumulé de cinq romans. Tu peux donc balancer ta documentation produit entière dans une seule conversation et lui demander de raisonner dessus.

DeepSeek V4 n'est plus le challenger discret, c'est le premier modèle open-weight qui inquiète vraiment les frontières fermées.

Ce que V4 sait vraiment faire

Sur les benchmarks de code, V4-Pro-Max prend la tête sur LiveCodeBench avec 93,5%, et atteint un rating de 3 206 sur Codeforces, ce qui le place 23e parmi les compétiteurs humains de la plateforme. C'est la première fois qu'un modèle ouvert se retrouve au coude-à-coude avec les modèles fermés sur la programmation compétitive. Pour les vrais issues GitHub (SWE-Verified), il résout 80,6% des problèmes posés.

Sur le raisonnement mathématique et scientifique, le modèle pointe à 90,2% sur l'Apex Shortlist, qui mesure la capacité à résoudre des problèmes STEM de niveau olympiade. Là encore, c'est dans la zone des modèles frontières.

Le mode appelé Reasoning Effort te laisse choisir trois niveaux d'effort par requête : Non-Think pour les réponses rapides, High pour les tâches qui demandent une chaîne de raisonnement, et Max pour les problèmes les plus complexes (le modèle utilise alors des contextes plus longs et abandonne les pénalités de longueur). Concrètement, tu paies plus de tokens en sortie quand tu pousses le mode, mais tu obtiens des réponses qui rivalisent avec celles que tu attendrais d'un modèle frontière.

Côté outillage, DeepSeek a soigné l'intégration. L'API accepte le format ChatCompletions d'OpenAI et le format Messages d'Anthropic, ce qui veut dire qu'un projet existant qui pointe vers GPT ou Claude peut basculer sur V4 en changeant trois lignes : l'URL, la clé, et le nom du modèle. Pas de SDK propriétaire à apprendre, pas de syntaxe exotique.

Le prix qui change la conversation

C'est ici que le débat devient sérieux. DeepSeek V4-Pro est facturé 1,74 dollar par million de tokens en entrée (cache miss) et 3,48 dollars en sortie. À titre de comparaison, GPT-5.5 Pro tourne à 30 dollars en entrée et 180 dollars en sortie, et Claude Opus 4.7 à environ 5 et 25 dollars. Avec cache hit, l'écart se creuse encore : V4-Pro coûte alors près de dix fois moins cher que GPT-5.5.

V4-Flash, lui, descend à 0,03 dollar par million de tokens en entrée environ et 0,30 dollar en sortie, ce qui en fait probablement le meilleur ratio prix/intelligence du marché en avril 2026. Pour des cas d'usage volumineux (résumé d'emails, classification, extraction d'entités, transformations de texte), c'est un game-changer pur et simple.

Pour qu'un chiffre te parle vraiment : si tu fais tourner un agent qui traite 100 millions de tokens par mois, GPT-5.5 te coûte 3 000 dollars rien qu'en input. DeepSeek V4-Pro te coûte 174 dollars pour le même volume. Tu comprends pourquoi des équipes commencent à reconsidérer leur stack.

Ce n'est plus une question de qualité, c'est une question de retour sur investissement.

Là où DeepSeek V4 décroche encore

Sois honnête avec toi-même avant de tout migrer. V4 n'est pas le meilleur partout, et certaines limites comptent.

Sur les benchmarks de connaissances générales (MMLU-Pro, Humanity's Last Exam, SimpleQA), V4-Pro reste derrière. Il pointe à 87,5% sur MMLU-Pro contre 91% pour Gemini 3.1 Pro, et à 37,7% sur Humanity's Last Exam quand Gemini affiche 44,4%. DeepSeek lui-même admet une trajectoire décalée de trois à six mois par rapport à la frontière sur ce terrain.

Sur les tâches d'agent long format (Terminal Bench 2.0), GPT-5.5 prend l'avantage à 82,7% contre 67,9% pour V4. Si tu construis un agent qui doit enchaîner trente outils sans se perdre, GPT-5.5 reste plus fiable. La récupération sur très long contexte se dégrade aussi : à 1 million de tokens, V4-Pro tombe à 66% de précision sur le benchmark MRCR, alors qu'au-dessous de 128 000 tokens il tient son rang.

Et surtout : V4 est text-only. Pas d'analyse d'images, pas d'audio, pas de vidéo. DeepSeek a annoncé travailler sur le multimodal, mais en l'état, si ton produit a besoin de comprendre une capture d'écran ou un PDF scanné, c'est rédhibitoire. Dans ce cas, Claude Opus 4.7 ou GPT-5.5 restent obligatoires.

Dernier point qui peut peser : les endpoints actuels sont marqués comme expirant le 24 juillet 2026 (preview release). Si tu déploies en production, prévois la migration vers les endpoints stables qui sortiront d'ici là.

Comment l'essayer dès aujourd'hui

Trois portes d'entrée, selon ton profil.

Si tu veux tester sans rien installer, va sur chat.deepseek.com. Tu y trouves un mode Expert qui tape dans V4-Pro-Max (le mode raisonnement maximal) et un mode Instant qui utilise V4-Flash pour des réponses rapides. C'est gratuit et c'est exactement le terrain de jeu que je conseille pour te faire ta propre opinion en dix minutes.

Si tu veux brancher V4 dans ton produit, l'API est documentée sur api-docs.deepseek.com avec les modèles deepseek-v4-pro et deepseek-v4-flash. Tu peux pinger le format ChatCompletions ou Messages selon ce que ton code utilise déjà. Pour un projet Next.js typique, ça veut dire changer la base URL et la clé dans ton client OpenAI ou Anthropic et tu es opérationnel en quelques minutes.

Si tu veux héberger toi-même, télécharge les poids sur Hugging Face, dans la collection deepseek-ai/deepseek-v4. Prévois du matériel sérieux : 1,6 trillion de paramètres ne tient pas sur un MacBook. Mais pour une équipe qui a déjà une infrastructure GPU, c'est l'occasion de garder ses données chez soi tout en bénéficiant d'une qualité quasi-frontière.

Ce que ça veut dire pour toi

Si tu construis un produit qui appelle un LLM en backend, la question n'est plus « quel est le meilleur modèle ? » mais « quel est le bon modèle pour cette tâche précise ? ». V4-Flash pour les volumes, V4-Pro pour le code et le raisonnement, GPT-5.5 ou Opus 4.7 pour les tâches multimodales et les agents très longs. Combiner devient la norme, pas l'exception.

Si tu apprends à coder, l'arrivée de V4 confirme une chose : la couche IA devient une commodité, et c'est ta capacité à concevoir, orchestrer et déployer qui fait la différence. Le modèle change tous les six mois, mais les fondamentaux du web (HTML, CSS, Next.js, React) restent les mêmes. C'est exactement ce que je transmets dans CodeStarter, ma formation pensée pour les débutants qui veulent construire un vrai produit avec Claude Code, sans s'enfermer dans un seul écosystème. Tu y apprends à raisonner sur tes choix techniques, à intégrer le bon LLM au bon endroit, et à livrer un site qui tient la route quand le marché bouge.

DeepSeek V4 ne tue pas GPT-5.5. Mais il ferme une porte importante : l'idée que la qualité haut de gamme appartient forcément aux trois géants américains. Tu as désormais le choix, et ce choix se chiffre en milliers de dollars économisés chaque mois.