Qualcomm a décroché un grand client hyperscale pour des puces personnalisées destinées aux centres de données, marquant ainsi la poussée la plus agressive de l'entreprise dans l'infrastructure serveur depuis qu'elle avait entièrement abandonné ce marché en 2018.
Les livraisons des nouvelles puces personnalisées devraient débuter en décembre 2026.
Du géant mobile au prétendant dans les centres de données
Qualcomm a lancé ses processeurs serveur Centriq en 2017, positionnant les puces basées sur ARM comme une alternative économe en énergie à la domination d'Intel. Dès 2018, l'ensemble du projet était abandonné.
Le pari sur l'inférence IA
Plutôt que de chercher à concurrencer directement les GPU d'entraînement de NVIDIA, Qualcomm cible un segment précis de la pile de calcul IA : l'inférence.
L'entreprise développe des accélérateurs IA personnalisés basés sur des ASIC, conçus pour gérer les charges de travail d'inférence avec une consommation d'énergie inférieure à celle des alternatives à forte densité de GPU.
Qualcomm a signalé cette orientation stratégique en août 2025, et la signature d'un hyperscaler non nommé valide le fait que l'argumentaire séduit au moins un grand client.
Un paysage concurrentiel dense et complexe
NVIDIA reste le leader incontesté, son architecture GPU servant de plateforme par défaut pour l'entraînement comme pour l'inférence. AMD a gagné du terrain avec ses accélérateurs de la série MI. Intel continue de promouvoir ses accélérateurs Gaudi.
Amazon a développé ses propres puces Trainium et Inferentia pour AWS. Google dispose de ses TPU. Microsoft développe ses propres accélérateurs Maia.
Des rapports indiquent également que Qualcomm explore le déploiement de matériel d'inférence IA dans de nouvelles régions géographiques, notamment en Amérique latine.
Le calendrier de livraison de décembre 2026 signifie que l'entreprise doit concrétiser le développement de puces personnalisées. Un seul client hyperscale constitue une preuve de concept, pas un modèle commercial. Qualcomm devra démontrer que son architecture d'inférence peut attirer plusieurs grands acheteurs pour justifier l'investissement en R&D.
Source: https://cryptobriefing.com/qualcomm-data-center-customer-ai-inference/




![[Two Pronged] Que faire quand votre âme sœur en ligne veut vous épouser ?](https://www.rappler.com/tachyon/2026/05/TWO-PRONGED-ONLINE-SOULMATES.jpg)



