#include Stan.h

2.3K posts

#include Stan.h banner
#include Stan.h

#include Stan.h

@StanTechAddict

Tech fan since early 80s, focused in DC HW/SW, ideas and opinions in this tweeter feed only engage myself and not the company I work for.

France Entrou em Mart 2009
1.1K Seguindo406 Seguidores
Tweet fixado
#include Stan.h
#include Stan.h@StanTechAddict·
May 11th, 1992: Nathan F. Myhrvold to Bill Gates "Topics for System Strategy" My guess is that the following things will happen to Intel: Is this good for us? The answer is YES! That this is an extremely good thing for anybody in the x86 world except Intel iowa.gotthefacts.org/011607/5000/PX…
#include Stan.h tweet media#include Stan.h tweet media
English
1
0
2
433
Kuninobu SaSaki
Kuninobu SaSaki@_ksasaki·
そういえば、#GTC26 会場でツイートし損ねちゃったんですが、 Google CloudのGB300 NVL72 (A4X Maxの新しいやつ?) がゴツくてカッコよかった!
Kuninobu SaSaki tweet media
日本語
3
25
127
7.8K
#include Stan.h
#include Stan.h@StanTechAddict·
@ryanshrout Which CPU they use with Groq? Vera is now DIMM compatible, not only SOCAMM or is it an x86?
English
0
0
0
1K
Ryan Shrout
Ryan Shrout@ryanshrout·
On the right: Vera Rubin. Middle: NVLink 6th Gen Left: The brand new Groq system
Ryan Shrout tweet media
English
3
11
89
128.1K
#include Stan.h
#include Stan.h@StanTechAddict·
FP64 Emulation with Ozaki Scheme: "software is not IEEE compliant", doesn't apply on vectors (90% of HPC apps using vectors), if not square matrix then fallback on FP64 hardware. hpcwire.com/2026/03/13/amd…
English
0
0
3
97
#include Stan.h
#include Stan.h@StanTechAddict·
@Alex_Intel_ 4GB for a full reticle chip so in 600-800mm2 range when HBM4 get a minimum of 36 GB per module with ~126 mm2… and to get full performance benefits you need to get all AI models in memory… difficult equation…
English
0
0
0
33
Alex
Alex@Alex_Intel_·
What does a Nvidia x Groq Chip look like? Nvidia fired the starting gun on SRAM Only chips, what this might mean for the Industry. open.substack.com/pub/alexintel/…
Alex tweet media
English
6
1
31
23.4K
#include Stan.h retweetou
Axelera AI
Axelera AI@AxeleraAI·
Today, we announced more than $250 million in new funding, led by Innovation Industries with BlackRock and SiteGround Capital joining as new investors alongside many of our original backers doubling down. Total capital raised now exceeds $450 million, making this the largest investment ever in an EU AI semiconductor company. This funding isn't the story. It's a signal that the problem we set out to solve is real, urgent, and large. Most edge AI deployments today are still being built with hardware that wasn't designed for the job. Adapted datacenter chips, power budgets that don't survive procurement, thermal constraints that kill reliability in the field. The gap between what AI can do and what actually works in production is still enormous. That's the problem we set out to solve. Shipping to our 500th customer across manufacturing, retail, defense, robotics, and agritech tells us we're on the right track. And we're just getting started. Here's what comes next: Metis continues to scale globally, giving customers the performance they need within the power and thermal budgets of physical AI. Europa, our next-generation AIPU at 629 TOPS of INT8 performance, begins PCIe accelerator shipments in the first half of 2026. Workloads that were cloud-only are about to run at the edge. Then, Titania, backed by the €61.6M EuroHPC DARE grant, will extend our architecture into HPC and data center environments. And our Partner Accelerator Network keeps growing, because hardware alone doesn't win. The ecosystem around it does. None of this happens without the partners, customers, investors, and employees who believed in what we were building before it was obvious. Thank you. It's still day one, and we're just getting started. #AxeleraAI #EdgeAI #AIInference #AIHardware #Semiconductors #EuropeanTech eu1.hubs.ly/H0s1HSR0
English
1
9
47
5.8K
#include Stan.h retweetou
Web Design Museum
Web Design Museum@WebDesignMuseum·
Happy 36th Birthday Adobe Photoshop! On February 19, 1990, Adobe Systems released a raster graphics editor called Photoshop 1.0.
Web Design Museum tweet media
English
73
1.1K
4.1K
179.4K
#include Stan.h
#include Stan.h@StanTechAddict·
@BourseAsieFR Arago en France, Q.ANT en Allemand (déjà en Gen2) là aussi pas mal de monde sur le sujet. Reste quelques soucis de masse prod et que la lumière ne stock pas aux dernières nouvelles les données. Neurophos propose quelque chose dans ce domaine?
Français
1
0
0
1.5K
BourseAsieFR
BourseAsieFR@BourseAsieFR·
🚨 OPU. Pas GPU. Optical Processing Unit. Neurophos annonce 10x la puissance NVIDIA avec de la lumière. Bill Gates met 110M$ Neurophos vient de dévoiler Tulkas T100 : une puce qui calcule avec de la lumière au lieu de l'électricité. Les chiffres annoncés sont délirants : 0,47 ExaFLOPS en INT4. Une seule puce. Un "Tensor Core optique" qui remplace des centaines de cœurs GPU classiques. Matrice 1000x1000 vs 256x256 pour un GPU standard. Efficacité énergétique : 235 TOPS/W. Consommation moyenne : 1kW par puce. Leur argument massue : pour atteindre le même niveau de calcul IA mondial avec des GPU, il faudrait 20 000 milliards de dollars et 1 000 centrales nucléaires. Avec leurs puces optiques : 100x moins de puces, 100x moins d'énergie, 10 centrales suffiraient. Qui investit : Gates Frontier Fund (lead), Microsoft Ventures (M12), Bosch Ventures, Saudi Aramco Ventures. L'A-round vient de lever 110M$. Le lien avec Taiwan : Neurophos annonce que la puce utilise des procédés semi-conducteurs existants et n'exclut pas une production chez TSMC ou Intel. Si ça marche, c'est encore Taiwan qui fabrique. Aucun produit commercial avant 2028. La puce est en phase de test. L'intégration logicielle (Triton, JAX) reste à prouver à grande échelle. Et NVIDIA, AMD travaillent aussi sur la photonique.
BourseAsieFR tweet media
Français
35
163
714
52.9K
BourseAsieFR
BourseAsieFR@BourseAsieFR·
🚨 Lightmatter vient de signer 3 partenariats qui pourraient redessiner l'infrastructure des data centers IA. Et Taiwan est au cœur du deal. La startup américaine de photonique s'allie avec Cadence, Synopsys et GUC (filiale de TSMC) pour industrialiser le CPO Le produit clé : Passage, la plateforme CPO 3D de Lightmatter. Elle permet 100 Tbps de bande passante de commutation dans un châssis de 1 RU. Avec des modules classiques, il en faudrait 4 RU et 18 modules. Densité multipliée, consommation divisée. Et leur nouvelle techno "VLSP" (photonique à très grande échelle) promet un gain de densité optique de 8x, avec une production qui passe de l'assemblage manuel au modèle fonderie. Exactement la transition que les semi-conducteurs ont faite il y a 30 ans. Le rôle de GUC est stratégique. Filiale design de TSMC, c'est le bras armé des hyperscalers pour les puces custom. GUC conçoit les ASIC, Lightmatter fournit l'interconnexion optique, le tout dans un packaging avancé. Citation du CTO de GUC : "Notre solution commune redéfinit fondamentalement l'interconnexion IA." Cadence et Synopsys apportent les briques IP critiques : SerDes 224G et UCIe en 3nm. Ce sont les traducteurs entre le monde électrique et le monde optique. Sans eux, pas de production à grande échelle. Le signal à retenir : quand Cadence, Synopsys ET GUC s'alignent sur la même techno, c'est que les hyperscalers (les vrais clients) ont déjà validé la direction. Ces trois acteurs ne parient pas sur des prototypes. Ils préparent la production de masse. Pour les investisseurs : GUC (3443.TW) est le proxy le plus direct coté en Asie. Et derrière, c'est tout l'écosystème taïwanais du packaging avancé qui se positionne sur la photonique : ASE, TSMC, et les fournisseurs de substrats
BourseAsieFR tweet media
Français
5
8
45
3.4K
#include Stan.h
#include Stan.h@StanTechAddict·
@BourseAsieFR Faut voir les patterns I/O en effet car les KV cache sont tout de même régulièrement maj. La HBM4 ayant un bus de données de 2048 bits et les NAND rarement plus de 8 bits ça va demander des ajustements certains dans les NAND que l’on connaît.
Français
1
0
0
56
BourseAsieFR
BourseAsieFR@BourseAsieFR·
Bon point sur le DWPD, mais c'est du tiered caching : la HBM garde le hot data, la NAND stocke juste le warm/cold (longs contextes, requêtes en attente, HBF est utilisé quasi exclusivement en lecture sur le document de recherche de Hynix H3 & c'est la combinaison HBM et HBF). Oui la latence NAND est moins bonne, mais 100µs pour lire un KV cache c'est toujours mieux que le recalculer. Un stack HBF fait 512 Go dans le même footprint qu'un stack HBM qui fait 32 Go. Donc pour une même surface sur l'interposer, tu obtiens 16x plus de capacité.
BourseAsieFR tweet media
Français
1
0
2
64
BourseAsieFR
BourseAsieFR@BourseAsieFR·
🚨HBM. HBF. LHB. H3. Si ces 4 acronymes ne te disent rien, tu vas rater la prochaine méga-tendance de l'infra IA. SK Hynix vient de poser les bases Après la HBM, voici la HBF. La prochaine révolution mémoire pour l'IA que personne ne regarde encore. Et SK Hynix est en première ligne. Commençons par le problème. Quand un LLM comme GPT génère une réponse, il doit constamment relire tout le contexte de la conversation (le "KV Cache"). Plus la conversation est longue, plus ce cache explose en taille. Aujourd'hui, tout est stocké dans la HBM (la mémoire ultra-rapide collée au GPU). Problème : la HBM est rapide mais minuscule et hors de prix. On ne peut pas y stocker des téraoctets de données. L'alternative ? Les SSD classiques. Immenses en capacité, mais 1000x plus lents. Le GPU passe son temps à attendre les données. C'est comme avoir une autoroute à 16 voies qui se réduit à un chemin de terre. La HBF (High Bandwidth Flash) résout ce dilemme. Imaginez : on prend de la NAND Flash (comme dans un SSD), on l'empile verticalement avec des TSV (la même techno que la HBM), et on obtient une mémoire massive ET rapide. Des téraoctets de capacité avec une bande passante proche de la HBM. Le meilleur des deux mondes. L'architecture "H3" proposée par SK Hynix rend le concept concret : la HBM garde les données "chaudes" (calculs IA immédiats), la HBF stocke les données "froides" (le contexte historique, les caches en lecture seule). Le GPU pioche dans les deux selon le besoin. Mais voici le détail technique que personne n'explique, et c'est LE point qui change tout dans le papier H3 : la HBF ne peut pas se connecter directement au GPU. Il n'y a tout simplement plus de place sur l'interposer silicium. Alors comment on fait ? La HBF passe PAR le base die de la HBM via une interface die-to-die en daisy-chain. En clair, les stacks HBF sont connectés en série aux stacks HBM, comme des wagons accrochés à une locomotive. La HBM devient le pont entre le GPU et la HBF. Et c'est là que ça devient vraiment malin : SK Hynix intègre dans le base die de la HBM un buffer SRAM appelé "LHB" (Latency Hiding Buffer). Ce buffer précharge les données de la HBF AVANT que le GPU n'en ait besoin. Pendant que le GPU calcule avec les données HBM, le LHB va chercher discrètement les prochaines données dans la HBF en arrière-plan. Le GPU ne voit jamais la latence de la NAND. Le tour de magie est invisible. La conséquence architecturale est énorme : le base die de la HBM n'est plus un simple contrôleur mémoire passif. Il devient un die custom intelligent, co-designé avec le GPU. C'est un changement de paradigme pour l'industrie mémoire. La HBM passe de "composant générique" à "pièce de puzzle co-optimisée avec NVIDIA". Et ça, c'est un fossé compétitif colossal pour qui maîtrise les deux briques. Résultat mesuré en simulation : 2,69x plus de débit par watt consommé par rapport à un système 100% HBM. Même puissance de calcul, presque 3x moins d'énergie. Ou 3x plus de requêtes traitées avec le même nombre de GPU. Pourquoi c'est un game changer pour les LLM : aujourd'hui, faire tourner un modèle de 1 000 milliards de paramètres nécessite des dizaines de GPU juste pour avoir assez de HBM. Avec H3, on casse cette contrainte. Le professeur Kim Joung-ho du KAIST (le "père de la HBM") affirme que dans l'ère de l'IA, chaque personne aura besoin de 100 To de mémoire. La HBM gère la vitesse. La HBF gère la capacité. Le combo deviendra le standard. Calendrier : commercialisation estimée fin 2027 à 2028. La demande de HBF devrait dépasser celle de la HBM d'ici 2038. Ce que ça signifie pour les investisseurs SK Hynix : Hynix domine la HBM avec plus de 50% du marché mondial. La HBF utilise exactement les mêmes technologies : empilement 3D, TSV, packaging avancé MR-MUF. Et avec le LHB et le base die custom, Hynix ne vend plus juste de la mémoire. Il vend un sous-système intelligent co-conçu avec NVIDIA. Le moat se renforce à chaque génération. Échantillons AI-NAND prévus au S2 2026. Samsung a l'avantage fonderie + mémoire + packaging. SanDisk/Kioxia ont conceptualisé la HBF en premier. Mais SK Hynix a l'intégration NVIDIA. Si la HBF entre dans les futurs accélérateurs NVIDIA, Hynix sera le fournisseur naturel. Dernier point : la HBF accélère la photonique. Quand vous libérez des To/s de données, le cuivre ne suit plus au-delà de quelques centimètres en PCIe 7.0. Le CPO et les interconnexions optiques deviennent obligatoires. GPU → HBM → HBF → Optique. C'est la chaîne complète de l'infra IA. Nous en sommes au stade 2. Le stade 3 arrive en 2027. SK Hynix joue sur tous les tableaux 📊
BourseAsieFR tweet media
Français
10
7
53
4.4K
#include Stan.h
#include Stan.h@StanTechAddict·
@BourseAsieFR Se retrouve avec un GPU qui ne peut plus que lire et plus écrire, vu le prix des engins… et je ne parle pas de la place occupée autour du GPU (dans ou autour de la socket) de la TDP et j’en passe. A voir aussi la latence bien moins bonne sur la NAND que la DRAM.
Français
1
0
0
50
#include Stan.h
#include Stan.h@StanTechAddict·
@BourseAsieFR L’idée est intéressante mais je n’ai vue personne parler du problème de la NAND dont l’écriture est destructive. Même dans un SSD de classe entreprise, la limite est de 10 écritures de sa capacité par jour pendant 3 ou 5 ans (DWPD). Et vu la taille des KV cache…
Français
1
0
1
115
#include Stan.h
#include Stan.h@StanTechAddict·
@BourseAsieFR Tower c’est quand même une société qui avait presque été rachetée par Intel. Et quand au photonic on parle juste de laser dans les transcievers (plutôt courant) ou de chiplet photoniques à intégrer sur le packaging d’un SoC/Chip? (Plus rare et impactant).
Français
2
0
1
346
BourseAsieFR
BourseAsieFR@BourseAsieFR·
⚡ Nvidia choisit son partenaire photonique. Pas TSMC. Pas Intel. Tower Semiconductor. Une boîte israélienne. Deal signé C'est Tower Semiconductor. Une boîte israélienne que personne ne surveillait. Le deal : développer ensemble la techno "photonique sur silicium" pour les modules optiques 1.6T des data centers IA. Concrètement ? Au lieu d'envoyer les données entre GPU via des câbles en cuivre (lent, énergivore), on utilise la lumière. Vitesse x2, consommation en baisse. L'IA génère tellement de données que le cuivre devient le goulot d'étranglement. NVIDIA va directement chercher un spécialiste de la photonique. Tower a investi 650 millions de dollars sur un an pour augmenter sa capacité en photonique. La boîte vise 1 milliard de dollars de revenus annuels sur ce segment, avec 40 à 45% venant des data centers. La photonique silicium, c'est la prochaine révolution de l'IA. Et Tower vient de décrocher le meilleur client possible.
BourseAsieFR tweet media
Français
9
18
88
8.7K
#include Stan.h
#include Stan.h@StanTechAddict·
Et aller Mistral… 11
#include Stan.h tweet media
Dansk
0
0
0
104
#include Stan.h
#include Stan.h@StanTechAddict·
Sérieusement on en est encore là avec l'AI en 2026 ? Testé avec Copilot 365 payant... (hit il y a 13 jetons) #AI
#include Stan.h tweet media#include Stan.h tweet media
Français
5
1
4
1.4K
#include Stan.h
#include Stan.h@StanTechAddict·
@d0cTB Un pote vient d’essayer avec la même version (5.2) et aussi sur ma capture donc low def… 12…
#include Stan.h tweet media
Français
0
0
0
54
Doc TB
Doc TB@d0cTB·
@StanTechAddict Et en prenant ta capture au format timbre poste… 😅
Doc TB tweet media
Français
4
0
2
729
OnlyMore
OnlyMore@OnlyMore4·
@StanTechAddict J'étais curieux, j'ai testé sur tout ces ia aucune n'a eu la bonne réponse
OnlyMore tweet media
Français
1
0
0
81