JCCapelli

6.6K posts

JCCapelli banner
JCCapelli

JCCapelli

@JCCapelli

I post about AI 🤖 with a focus on #LLMOps and #Interpretability🔍 Join the conversation!

Metaverse Katılım Ocak 2007
2.7K Takip Edilen2.4K Takipçiler
Sabitlenmiş Tweet
JCCapelli
JCCapelli@JCCapelli·
I have opened a Hugging Face Space to help you analyze the world of LLMs, in English and French. What for? Because as AI and LLMs become more and more essential, their "black box" nature raises important questions for me about transparency and governance huggingface.co/spaces/JCCapel…
English
0
0
2
659
JCCapelli
JCCapelli@JCCapelli·
C'est un vieux Scrum Master (10 ans que je roule ma bosse de Coach) qui vous le dit : Blaise @reymondin vient de voir l'avenir des équipes Agile (ou pas) et IL A RAISON, le brave homme !
Blaise Reymondin@reymondin

Ce que vient de dire @arthurmensch , le CEO de Mistral, à propos de la productivité de ses équipes: un développeur seul avec l'IA travaille 10 à 20x plus rapidement. MAIS, ce multiplicateur diminue à mesure que le groupe s'agrandit. Pourquoi ? A cause des besoins de communication. La collaboration horizontale, telle qu'on la connaît, devient un frein. Trop de réunions, trop de consensus, trop de friction entre des individus dont chacun est déjà augmenté par l'IA. Avec des "solo intrapreneurs" qui réalisent ce qui nécessitait autrefois dix personnes, les entreprises vont devoir se réorganiser en profondeur. Ma vision : des unités autonomes, pilotées verticalement, avec des interfaces claires entre elles qui réalisent les pièces d'un puzzle qu'on assemble une fois qu'elles sont abouties. Moins de collaboration par défaut, plus de responsabilité individuelle. Des connexions ponctuelles, choisies, décisives.

Français
0
0
0
58
JCCapelli retweetledi
Dustin
Dustin@r0ck3t23·
Every business is about to disappear into a model. Mark Zuckerberg: “In the future every business is going to have an AI agent that interfaces with their customers.” That is not a feature. That is a replacement. The website. The email. The support team. The founder’s voice. Collapsing into one trained model that never logs off. Jensen Huang: “Every single restaurant, every single website will probably, in the future, have these AIs.” Then it comes for the artist. Huang: “If you’re an artist, whatever your style, you could take your style, all of your body of work, you could fine-tune one of your models.” Your hand. Your eye. Your taste. Compressed into weights anyone can prompt. The model paints in your style. The model writes in your voice. The model answers in your tone at three in the morning. Forever. Huang: “All of that engagement with your customers, especially if they’re complaints, is going to make your company better.” Every frustrated human becomes training data. The model never forgets. The model never tires. The model learns from every conversation you forgot by morning. Soon it knows your customers better than you do. It speaks for you better than you can. It outworks you, outlasts you, outscales you. Identity used to die with you. Now it scales without you.
English
17
13
50
5.5K
JCCapelli
JCCapelli@JCCapelli·
@SamuelFitouss10 Merci bcp Samuel ! Le "L'IA pourrait" me semble bien prudent cependant. Car vous le savez déjà : l'IA peut TOUT ah ah
Français
0
0
0
65
Samuel Fitoussi
Samuel Fitoussi@SamuelFitouss10·
Et si l'abondance nous rendait malheureux ? En accélérant le passage d'une économie de travail à une économie de l'attention, par essence très inégalitaire, l'IA pourrait créer beaucoup de frustration. Ma tribune dans Le Figaro du jour. lefigaro.fr/vox/societe/sa…
Français
15
16
67
27.4K
JCCapelli
JCCapelli@JCCapelli·
I love to read anything related to Pull Request. And issues about it! I will be a #scrummaster in my heart forever, I guess!
Milk Road AI@MilkRoadAI

Anthropic CEO Dario Amodei just revealed the hidden bottleneck that will kill most AI companies in the next 18 months (Save this). The insight comes from a principle in computer science called Amdahl's Law. Dario's argument is simple when something starts working really well inside an organization, you have to immediately ask what isn't working well around it. Amdahl's Law states that the maximum speedup of any system is capped by the fraction you haven't improved and that applies to companies just as brutally as it applies to processors. If you can suddenly write three or four times as many pull requests as before, you don't get three or four times the output but you rather get a pile of code no one can review, verify, or trust. The data makes this impossible to ignore. Teams with heavy AI coding adoption are merging 98% more pull requests but PR review time has ballooned 91%, deployment velocity is effectively flat and 96% of developers don't fully trust AI-generated code reaching production. AI generated code produces 1.7x more issues per pull request than human written code, 0.83 issues per PR versus 6.45. Veracode's 2026 State of Software Security report found that 82% of organizations now carry security debt, up 11% year over year, with critical security debt surging 36% in a single year driven directly by AI-generated code reaching production faster than security teams can handle. What Dario is describing is a systems problem, not a software problem and coding is roughly 20% of the software delivery cycle. Even at infinite coding speed, you're still bottlenecked by review, security, verification, testing, and deployment which make up the other 80%. The enterprises that win are the ones that identify which part of their system is the new constraint after AI accelerates the old one and fix that next. This is why Anthropic's Claude Code focuses on the full development loop, not just generation, and why the verification and security layer of the AI stack is where the next wave of enterprise value gets created. This is also why Anthropic as a company is positioned differently than most people realize. Anthropic's 2026 Agentic Coding Trends Report found that organizations using full-loop agentic coding workflows where AI handles not just generation but testing, review, and deployment validation reduced their software defect rates by 43% while increasing velocity by 2.8x. Claude Code now authors 4% of all GitHub commits and is on track to hit 20%+ by year-end, with the full-loop use case growing 3x faster than pure code generation. Dario has been building Anthropic around the exact insight he's describing publicly ,the constraint isn't writing code but rather everything that has to happen after.

English
0
0
0
31
JCCapelli retweetledi
Fabien
Fabien@Fabien_Mikol·
♟️ Le joueur d'échecs et ex-coach de Magnus Carlsen @FressinetL raconte la révolution AlphaZero (sa victoire sur Stockfish en 2017) en termes de performance mais aussi de créativité, et comment cela a pu influencer positivement par la suite le jeu de Carlsen lui-même.
DevoxxFR@DevoxxFR

♟️ @FressinetL, grand maître international d’échecs nous raconte son expérience avec l’IA. Pour lui, « il faut savoir le moment où brûler le plan et en faire un autre en fonction des circonstances » #DevoxxFrance

Français
2
9
88
15.9K
JCCapelli retweetledi
Aakash Gupta
Aakash Gupta@aakashgupta·
Mira Murati (former OpenAI CTO) just told you the entire voice AI race has been measuring the wrong thing. Thinking Machines' first model release is a voice model with one standout number: 400ms turn-taking latency. That's the gap between when you stop talking and the model starts. Linguists studying conversation across 10 languages found the universal human average is around 200ms. Japanese clocks in at 7ms, Danish at 400ms. Anything over 600ms gets perceived as "awkwardly long" regardless of culture. Where every other shipping voice model sits: GPT-realtime-1.5: 590ms Gemini-3.1-flash-live: 570ms Qwen 3.5 OMNI: 2,140ms GPT-realtime-2.0 (thinking): 1,630ms Gemini-3.1-flash-live (thinking): 940ms Every competing model lives on the wrong side of the perceptual cliff. TML at 400ms is the first one inside the human range. Danish-speed conversation, in a model. This is what the $2B seed at a $12B valuation was buying. The single number that determines whether a person on a phone call thinks they're talking to a human or a robot. The benchmark table tells the rest of the story. TML is competitive but not best on turn-based reasoning. IFEval 89.7 vs GPT-realtime-2.0 at 95.2. Where it wins is everything streaming. FD-bench V3 response quality at 82.8. Bigbench Audio at 75.7. Give up 5 points of structured reasoning, get 200ms of perceived humanity. For a research assistant, that trade is wrong. For a phone agent, that trade is the entire product. Call centers, sales SDRs, customer support, telehealth intake, IVR replacement, drive-through ordering: every voice AI deployment that has to feel human or it dies. OpenAI and Google have been racing each other on intelligence. Mira built the only model in the human conversation range.
Thinking Machines@thinkymachines

People talk, listen, watch, think, and collaborate at the same time, in real time. We've designed an AI that works with people the same way. We share our approach, early results, and a quick look at our model in action. thinkingmachines.ai/blog/interacti…

English
25
46
426
128.8K
Lilian Delaveau (h/acc)
Lilian Delaveau (h/acc)@LilianDelaveau·
Ça me désole profondément pour l’état du débat dans le pays. J’ai le sentiment qu’on a pas d’intellectuels « accelerationniste » sérieux qui ne soient pas non plus des AIcryptobro dégénérés à la dopamine. Ou en tout cas ils ne sont pas visibles, perdus dans un brouhaha vague d’envie de stagnation.
Silicon Carne@siliconcarnesf

Je viens de lire un énième article/connerie d'intellectuel français qui explique que la Silicon Valley est pilotée par une "idéologie accélérationniste" aux racines philosophiques profondes — Marx, Deleuze, Nietzsche, tout le panthéon y passe. Curtis Yarvin, Nick Land, Peter Thiel, les "Lumières sombres" pourquoi pas les Chevaliers de L'Apocalypse… Un grand récit bien ficelé pour les plateaux de France 5 et les tables rondes de Sciences Po. Le problème c'est que c'est du vent. J'ai passé 16 ans dans la Valley. Je n'ai JAMAIS entendu un seul fondateur, un seul VC, un seul ingénieur citer Nick Land dans un board meeting. Personne ne lit Curtis Yarvin à Mountain View. Ce qui anime la Valley, c'est pas Deleuze. C'est le COMPUTE. Plus de compute = plus de performance = plus de revenus. Point. Regardez le graph. Pendant que les intellos français écrivent des papiers de 8000 mots pour décrypter les "filiations philosophiques de l'accélérationnisme", les Américains empilent des GPUs, entraînent des modèles et raflent le marché mondial de l'IA. Les uns cherchent le sens caché. Les autres cherchent le prochain datacenter. Ces débats-là seraient juste pathétiques s'ils n'étaient pas criminels. Ils enferment la France dans un procès d'intention permanent contre la tech au lieu de pousser le pays à se battre sur le terrain du compute, de l'énergie et de l'infrastructure. On perd du temps à juger la Valley au lieu de la confronter technologiquement et économiquement. Si on écoute ces gens, on est cuit et recuit !

Français
3
0
3
165
JCCapelli retweetledi
Felipe Demartini
Felipe Demartini@namcios·
A mulher que construiu o ChatGPT saiu da OpenAI, ficou em silêncio por um ano, e o que ela acabou de lançar pode mudar pra sempre como você usa IA no dia a dia. Mira Murati não fundou mais um chatbot. Ela foi atrás do problema que nenhum lab quis resolver: toda IA que existe hoje funciona por turnos. Você digita, espera. O modelo responde, espera. É tentar resolver uma crise por e-mail quando você poderia estar na mesma sala que a pessoa. O que a Thinking Machines lançou hoje acaba com isso. O modelo ouve, vê, fala, pensa e age ao mesmo tempo. Não é um pipeline costurado de componentes. É o modelo em si que foi treinado do zero pra funcionar assim. → Latência de 0,40s por turno. O padrão da indústria é 1 a 2 segundos. → Micro-turnos de 200ms intercalando input e output sem parar → Faz busca, usa ferramentas e gera interface enquanto conversa com você → Percebe quando você hesita e intervém antes de você pedir → Tradução simultânea em tempo real com as duas partes falando A equipe: Mira Murati como CEO (ex-CTO da OpenAI), Soumith Chintala como CTO (criador do PyTorch), e contratações recentes da Meta em percepção multimodal. O ponto técnico que vale gravar: eles citam o "bitter lesson" do Rich Sutton. Interatividade construída por componente externo sempre vai perder pra interatividade nativa ao modelo. Escalar o modelo o torna mais inteligente e mais colaborativo ao mesmo tempo. 822 mil visualizações em 4 horas. a16z comentando. Brasil dormindo. Toda IA que você usa hoje vai parecer e-mail dentro de dois anos. E quem largou na frente dessa corrida não foi OpenAI, Google nem Anthropic. Foi a empresa da mulher que eles deixaram sair.
Thinking Machines@thinkymachines

People talk, listen, watch, think, and collaborate at the same time, in real time. We've designed an AI that works with people the same way. We share our approach, early results, and a quick look at our model in action. thinkingmachines.ai/blog/interacti…

Português
160
858
9.5K
2.6M
JCCapelli
JCCapelli@JCCapelli·
@Fabien_Mikol La liste des bozos francophones à éviter pour bien se documenter à propos d'IA s'allonge malheureusement tous les jours... Ca en serait presque désespérant
Français
0
0
1
105
Fabien
Fabien@Fabien_Mikol·
Le neurologue Aurélien Benoilid interrogé par France 3 pour parler d'IA : "c'est un coup de bluff, en réalité quand on discute avec tous les grands spécialistes de l'IA, c'est une esbrouffe qui fait croire que la machine est intelligente alors qu'elle ne comprend rien"...
Français
27
6
45
17.4K
JCCapelli retweetledi
Johan Puisais 🇺🇦 🇪🇺 🇫🇷
L'IA moderne n'est pas née dans la Silicon Valley. Yann LeCun vient de le rappeler avec une liste qui devrait gêner pas mal de monde à San Francisco. Regardez où sont vraiment sortis les piliers de l'IA actuelle : ▸ Le mécanisme d'attention, la brique fondatrice des Transformers et donc de tous les LLM : Montréal, labo de Yoshua Bengio, 2014. ▸ PyTorch, le framework qui domine la recherche aujourd'hui : FAIR New York. ▸ AlphaGo : Londres. ▸ AlphaFold : Londres. ▸ ESMFold : New York. ▸ Llama 1 : Paris. ▸ Llama 2 : Paris, New York, Silicon Valley. ▸ DeepSeek : Hangzhou. ▸ DINO (vision auto-supervisée) : Paris. ▸ JEPA, son propre programme de recherche : Montréal, Paris, New York. Montréal. Paris. Londres. New York. Hangzhou. La Bay Area est presque absente de la liste. Et c'est là que LeCun lâche sa phrase la plus drôle : « La Silicon Valley a trois mois d'avance sur les sujets qui la passionnent particulièrement. » Traduction : oui, quand la SV décide qu'un sujet l'intéresse (typiquement le scaling des LLM génératifs façon OpenAI), elle prend une avance industrielle très vite. Mais c'est une avance d'exécution sur un créneau qu'elle a choisi. Pas une avance scientifique. Les idées de fond, elles, naissent ailleurs. La SV les ramasse et les industrialise. Le sous-texte est clair : arrêtez de croire qu'il faut être à San Francisco pour faire de l'IA sérieuse. La recherche fondamentale mondiale est beaucoup plus polycentrique que le récit dominant ne le laisse penser. Et accessoirement, la recherche européenne et canadienne (où FAIR pèse lourd) n'a aucun complexe à avoir. C'est un message qu'il martèle depuis des années. Cette fois la liste est juste plus difficile à ignorer. x.com/ylecun/status/…
Français
15
22
104
15.8K
JCCapelli retweetledi
Aakash Gupta
Aakash Gupta@aakashgupta·
Yann LeCun closed $1.03B for AMI Labs on March 10. Three days later, this paper dropped from his NYU collaborators. 15M parameters. Single GPU. A few hours of training. LeWorldModel is the first JEPA that trains end-to-end from raw pixels. Two loss terms: predict the next embedding, keep the latent space Gaussian. Previous JEPAs needed exponential moving averages or pretrained encoders to avoid representation collapse. LeWM doesn't. Six hyperparameters down to one. The numbers are the story. Foundation-model-based world models require hundreds of millions of parameters and serious compute to plan a control task. LeWM plans up to 48x faster while staying competitive on 2D and 3D benchmarks. The whole thing fits on a laptop GPU. Look at the trajectory. Yann announced his Meta departure in November 2025 after 12 years and called founding FAIR his "proudest non-technical accomplishment." On March 10, 2026, AMI Labs closed the largest seed round in European history at a $3.5B pre-money valuation. Bezos, Nvidia, Samsung, and Toyota all wrote checks. Three days later: a paper showing that JEPA-from-pixels is no longer fragile and no longer compute-heavy. The engineering scaffolding that made it look like an academic curiosity is gone. The authors sit at Mila, NYU, Samsung SAIL, and Brown. None at Meta. Yann's bet was that the path to machine intelligence runs through world models, not language models. He left a public company to build it. Each JEPA paper from his network resets the assumed cost structure for that bet. This one makes world modeling laptop-cheap. Meta still has the GPUs. The architecture left.
Aakash Gupta tweet mediaAakash Gupta tweet media
English
88
330
2.4K
232.7K
JCCapelli retweetledi
Fabien
Fabien@Fabien_Mikol·
Yoshua Bengio : la vaste majorité croit fermement que les modèles agentiques ne peuvent pas développer des objectifs que nous n'avons pas choisis ; il faut designer davantage de preuves expérimentales limpides que c'est faux, afin de lutter contre ce "gut feeling" prédominant.
Rob Wiblin@robertwiblin

YouTube: youtu.be/PZqDFs2sbiY Spotify: open.spotify.com/episode/6rNSks… Apple: podcasts.apple.com/us/podcast/i-k… Transcript, summary, links: 80000hours.org/podcast/episod…

Français
3
5
23
2.2K
JCCapelli
JCCapelli@JCCapelli·
@RafikSmati Essayer d'uploader quelque chose d'un peu volumineux, genre une VDO, et vous reviendrez nous causer en pleurant ici...
Français
0
0
0
8
Rafik Smati
Rafik Smati@RafikSmati·
Quelque part au-dessus de l’Atlantique Nord. À 38 000 pieds, je travaille avec mes agents AI grâce à une connexion Starlink d’Air France plus rapide que la plupart des connexions au sol. L’avion devient un prolongement de mon bureau. Les distances s’effacent. Le temps se compresse. Nous entrons dans une époque où la technologie redéfinit non seulement nos outils, mais notre rapport même à l’espace et au temps. @elonmusk est un génie.
Rafik Smati tweet media
Français
107
80
767
118.2K
JCCapelli
JCCapelli@JCCapelli·
BarCamp #PauseIA le samedi 6 juin à Chevreuse. Gratuit. Inscription en 1er commentaire
Français
1
0
0
27