Deepseek dévoile des modèles d'IA performants et abordables
Deepseek a lancé V4-Pro et V4-Flash, deux nouveaux modèles d'IA avec jusqu'à 1,6 trillion de paramètres, offrant des prix inférieurs à ceux d'OpenAI et Google. V4-Pro est désormais le plus grand modèle à poids ouverts, surpassant Kimi K2.6 et GLM-5.1.
Points clés
- V4-Pro a 1,6 trillion de paramètres au total, avec 49 milliards actifs, tandis que V4-Flash a 284 milliards au total et 13 milliards actifs.
- V4-Pro nécessite seulement 27 % des FLOPs et 10 % du cache KV par rapport à V3.2 pour traiter un contexte d'un million de tokens.
- V4-Flash coûte 0,14 $ par million de tokens d'entrée, ce qui le rend moins cher que GPT-5.4 Nano.
- Deepseek a remplacé l'apprentissage par renforcement par une distillation sur politique, utilisant plus de dix modèles spécialisés pour l'entraînement.
Pourquoi c'est important
Les nouveaux modèles de Deepseek offrent des performances impressionnantes à un coût réduit, ce qui peut transformer la manière dont les entreprises utilisent l'IA. Ces innovations permettent une accessibilité accrue à des technologies avancées, favorisant ainsi l'adoption de l'IA dans divers secteurs. De plus, les gains d'efficacité pourraient inciter d'autres acteurs à ajuster leurs prix.
Public concerné : entreprises, développeurs
Quels sont les avantages des nouveaux modèles d'IA de Deepseek par rapport à ceux d'OpenAI?
Les modèles V4-Pro et V4-Flash de Deepseek offrent des performances supérieures avec un coût d'utilisation réduit, rendant l'IA plus accessible. V4-Pro, avec 1,6 trillion de paramètres, est le plus grand modèle à poids ouverts, surpassant les modèles concurrents tout en nécessitant moins de ressources pour traiter de longs contextes.
Commentaires (0)
Aucun commentaire pour le moment. Soyez le premier !