Aller au contenu

Qwen3 - Un équivalent de o3-mini capable de tourner sur votre PC | Le site de Korben


Messages recommandés

Posté(e)

ChatGPT-Image-Apr-29-2025-05_51_13-PM.we

durée de lecture : 3 min

Je suis content d’avoir investi dans un Mac Studio pour faire tourner des modèles IA un peu plus balèzes du coup, je surveille un peu ce qui sort en ce moment comme modèles, notamment pour coder, et voilà que la famille de modèles Qwen3 vient d’être officiellement lancée, et franchement, ça a l’air plutôt pas mal ! Surtout si vous aimez jouer avec du LLM sans passer par les API payantes de géants de la tech comme OpenAI.

Qwen3 (prononcez “Tchwen”, ça fait plus cool en soirée) est donc la nouvelle génération de modèles développée par Alibaba, qui débarque avec des performances assez bluffantes, surtout quand on regarde le rapport puissance / ressources nécessaires. Cette famille comprend 8 modèles différents, dont 2 utilisant l’architecture MoE (Mixture-of-Experts) et 6 modèles dits “denses” (plus classiques), avec des tailles allant de 0,6B à 235B de paramètres. Autrement dit, il y en a pour tous les goûts et toutes les configurations, que vous ayez un PC de gamer dernier cri ou juste un portable un peu costaud.

Celui qui se démarque dans cette famille, c’est Qwen3-30B-A3B, qui est un modèle à 30 milliards de paramètres et qui a été optimisé pour fonctionner à la vitesse d’un modèle de… 3 milliards de paramètres ! Un petit miracle d’ingénierie qui permet enfin d’avoir le beurre (la qualité d’un gros modèle) et l’argent du beurre (la vitesse d’un petit modèle).

Et Qwen3 se défend plutôt bien face à la concurrence puisque son modèle phare, Qwen3-235B-A22B (qui est en fait un modèle de 235 milliards de paramètres optimisé pour tourner comme un modèle de 22 milliards), se place dans la même ligue que DeepSeek-R1 et les modèles d’OpenAI comme o1 et o3-mini. Il les dépasse même sur certains benchmarks !

Dans le détail, Qwen3-235B-A22B a obtenu des scores impressionnants sur ArenaHard (95,6%), AIME'24 (85,7%), LiveBench (77,1%) et MultiIF (71,9%). Pour les non-initiés qui me lisent, ces tests mesurent respectivement la capacité de raisonnement général, les compétences en mathématiques, la performance globale et les capacités multilingues. Dans tous ces domaines le modèle chinois surpasse ses concurrents directs et supporte même 119 langues et autres dialectes. Top pour faire des traductions ou discuter avec lui dans votre langue natale, hein les biloutes du 59 !

Une autre fonctionnalité intéressante est ce qu’ils appellent le “mode de pensée mixte” qui vous permet de demander au modèle de basculer entre un “mode réflexion” (où il détaille son raisonnement étape par étape, idéal pour les problèmes complexes) et un “mode rapide” (où il donne directement la réponse, parfait pour les questions simples). Ce contrôle se fait via des balises comme “/think” et “/no_think” et pour les plus codeurs d’entre vous, sachez que Qwen3 se débrouille également très bien en programmation. Sur l’échelle Elo de Codeforces, le modèle principal atteint même un score de 2056, soit le même niveau que DeepSeek-R1 (2029) et OpenAI-o3-mini (2036).

Et le plus cool, c’est que tous ces modèles sont distribués sous licence Apache 2.0 donc vous pouvez l’utiliser à des fins commerciales sans avoir à verser des royalties ou à demander une autorisation spéciale (contrairement à Llama de Meta) !! Par contre, n’oubliez pas que c’est du 100% chinois, donc comme pour les modèles américains, prudence est mère de sureté.

Maintenant pour ceux qui se demandent comment ces modèles ont été entraînés, et bien ils ont été gavé de 36 trillions de tokens (unités de texte) soit l’équivalent de plusieurs dizaines de milliers de livres, articles scientifiques, lignes de code et autres contenus spécialisés (v’la la gueule des ayants-droits…).

Un vrai Bouffe-tout ce Qwen 3 !

Le modèle supporte également les extensions multimodales, ce qui signifie qu’il peut traiter non seulement du texte, mais aussi du code, de l’audio et des images. Il est également équipé pour les fonctionnalités d’agent, donc peut tout à fait utiliser des outils externes pour accomplir des tâches plus complexes.

Bref tout cela en fait un modèle très intéressant donc si vous avez une carte graphique récente avec suffisamment de VRAM (idéalement une RTX de série 30 ou 40 avec au moins 16 Go), vous allez pouvoir vous amuser avec ! C’est même déjà dispo via Ollama et contrairement aux services cloud, vos données resteront chez vous, ce qui est quand même un gros avantage !!

Amusez-vous bien !

Source

Afficher l’article complet

  • Ldfa a mis en évidence ce sujet

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.