Marco Mazevet

2.2K posts

Marco Mazevet

Marco Mazevet

@marcomzv

Strategy Consultant @ Candesic

Clichy, France Entrou em Kasım 2012
2.5K Seguindo1.6K Seguidores
Marco Mazevet retweetou
LCP
LCP@LCP·
Alimentation : "Un enfant de 8 ans a déjà consommé plus de sucre que ses grands-parents sur l’ensemble de leur vie. Il y a un vrai problème de santé publique", juge Xavier Iacovelli, qui insiste sur la prévention et la lutte contre les addictions. #ChaqueVoix
Français
20
78
162
22.7K
Marco Mazevet retweetou
Wes Bos
Wes Bos@wesbos·
Claude Code leaked their source map, effectively giving you a look into the codebase. I immediately went for the one thing that mattered: spinner verbs There are 187
Wes Bos tweet media
English
713
1.9K
26.6K
2.2M
Marco Mazevet retweetou
Brivael
Brivael@brivael·
Je vais prendre le temps de répondre sérieusement à "la croissance infinie dans un monde fini c'est impossible" parce que c'est la deuxième erreur la plus répandue dans le débat économique français, juste après la théorie de la valeur-travail. C'est un raisonnement qui a l'air évident, qui semble relever du bon sens, et qui est fondamentalement faux. Et comprendre pourquoi il est faux, c'est comprendre pourquoi on n'est même pas au début du potentiel humain. L'argument repose sur une prémisse implicite : croissance = consommation de ressources physiques. Plus de PIB = plus de pétrole brûlé, plus de minerais extraits, plus de forêts rasées. Si c'était vrai, alors oui, on finirait par tout épuiser. Sauf que ce n'est pas ce que la croissance signifie. Et ça n'a jamais été ce que ça signifie. La croissance c'est la création de valeur. Et la valeur c'est pas de la matière, c'est de l'utilité. Un smartphone contient moins de matériaux qu'un téléphone fixe des années 80 et il remplace un appareil photo, un GPS, une encyclopédie, un lecteur de musique, un fax, une calculatrice, un réveil, une lampe torche, un magnétophone, une boussole, un carnet d'adresses et des centaines d'autres objets. Plus de valeur, moins de matière. C'est ça la croissance moderne. Entre 1970 et 2020, le PIB américain a été multiplié par 3. Pendant la même période, la consommation d'énergie par dollar de PIB a été divisée par 2. La consommation d'acier par dollar de PIB a chuté de 60%. Le poids moyen d'une canette d'aluminium est passé de 85 grammes à 13 grammes. On fait plus avec moins. Et cette tendance s'accélère, elle ralentit pas. Et c'est là que les gens confondent deux choses radicalement différentes. La croissance extensive, c'est produire plus en consommant plus de ressources. C'est le modèle du 19e siècle. La croissance intensive, c'est produire plus de valeur avec moins de ressources. C'est le modèle vers lequel on tend de plus en plus. Et avec l'IA, on est sur le point de passer à la vitesse supérieure. L'IA va permettre d'optimiser la consommation de ressources à un niveau qu'aucun humain ne pourrait atteindre. Les chaînes logistiques, l'agriculture de précision, la gestion énergétique des bâtiments, l'optimisation des réseaux électriques, la réduction des déchets industriels, tout ça va être optimisé par des agents IA qui trouvent des efficiences invisibles à l'oeil humain. C'est de la vraie croissance de PIB avec moins de ressources utilisées, pas plus. Et surtout, les gens qui disent "ressources finies" raisonnent comme si on connaissait déjà toutes les ressources. On en connaît une fraction. Google DeepMind a développé GNoME, un outil d'IA qui a découvert 2.2 millions de nouveaux cristaux, dont 380 000 matériaux stables. C'est l'équivalent de 800 ans de découvertes en matériaux condensé en un seul projet. 52 000 nouveaux composés similaires au graphène. 528 nouveaux conducteurs lithium-ion, 25 fois plus que toutes les études précédentes combinées. Des matériaux pour des batteries plus efficaces, des semi-conducteurs plus performants, des supraconducteurs potentiels. Et ce n'est que le début. L'idée que "les ressources sont finies" suppose qu'on sait ce que sont les ressources. Mais une ressource c'est pas un truc fixe dans la nature. Le pétrole n'était pas une ressource en 1700, c'était un liquide noir inutile. L'uranium n'était pas une ressource en 1900. Le silicium n'était pas une ressource en 1950, c'était du sable. Le lithium n'était pas une ressource en 2000. L'innovation transforme ce qui était inutile en ressource. Et l'IA accélère ce processus de manière exponentielle. Et si on veut aller encore plus loin, il suffit de lever les yeux. Musk construit SpaceX pour coloniser Mars. Bezos construit Blue Origin avec une vision encore plus ambitieuse : déplacer l'industrie lourde dans l'espace pour préserver la Terre. Un seul astéroïde de type M contient plus de fer, de nickel et de platine que tout ce qui a jamais été extrait sur Terre. La ceinture d'astéroïdes contient des ressources estimées à des quintillions de dollars. On parle pas de "ressources finies", on parle de "ressources auxquelles on n'a pas encore accès". Et la différence est fondamentale. La croissance n'est pas le problème. La croissance est la solution. C'est la croissance qui a permis de développer les panneaux solaires, les batteries, les véhicules électriques, le recyclage, la dépollution. Chaque problème environnemental qu'on a résolu l'a été grâce à la technologie, financée par le capital, produite par la croissance. Pas par la décroissance. Pas par la sobriété imposée. Par l'innovation. Les gens qui disent "il faut faire autrement" sans dire comment veulent en réalité une chose : que tu aies moins. Moins de confort, moins de mobilité, moins de choix, moins de liberté. Tout ça au nom d'un monde "fini" dont ils ne connaissent même pas 1% des possibilités. C'est du pessimisme déguisé en sagesse. C'est du malthusianisme réchauffé. Malthus prédisait la famine pour 1 milliard d'humains. On est 8 milliards et on n'a jamais aussi bien mangé. On est à 0.001% du potentiel de croissance de l'humanité. On vit sur une seule planète alors qu'il y a des milliards de corps célestes. On utilise une fraction des matériaux disponibles. On vient à peine de découvrir l'IA. On commence à peine à comprendre la fusion nucléaire. Dire "le gâteau ne peut plus grandir" en 2026, c'est comme un paysan en 1800 qui regarde son champ et dit "on pourra jamais nourrir plus de gens que ça". Il avait pas tort sur son champ. Il avait tort sur l'imagination humaine. Le gâteau ne va pas arrêter de grandir. Il va grandir d'une manière que tu ne peux même pas imaginer aujourd'hui. Et la seule chose qui pourrait l'empêcher, c'est exactement ce que les décroissants proposent : arrêter d'innover, arrêter de créer, arrêter de chercher. C'est-à-dire tuer le seul moteur qui nous a sortis de la misère et qui résoudra les problèmes que la misère a créés.
seitnom@seitnom

@brivael La gâteau ne peut pas grandir indéfiniment avec un nombre fini de ressources, avec une écologie cohérente, et visiblement avec un respect de l'humain et du droit international que ça vous plaise ou pas, il va un jour falloir faire autrement

Français
253
960
2.9K
318.9K
Marco Mazevet retweetou
BFM Business
BFM Business@bfmbusiness·
Europe : un 28eme régime pour les entreprises 🏢👨‍💻 "La procédure de création d'une entreprise se fera 100% en ligne, en moins de 24h et avec un capital minimum d'un euro symbolique. Une fois créée, l'entreprise sera de nationalité européenne." 💬 @FodereMargaux
Français
20
37
133
34.4K
Marco Mazevet retweetou
Felix Rieseberg
Felix Rieseberg@felixrieseberg·
We're shipping a new feature in Claude Cowork as a research preview that I'm excited about: Dispatch! One persistent conversation with Claude that runs on your computer. Message it from your phone. Come back to finished work. To try it out, download Claude Desktop, then pair your phone.
English
971
1.5K
17.3K
6.2M
Marco Mazevet retweetou
Joan Larroumec
Joan Larroumec@larroumecj·
Je vous partage ici ce qui est je pense la modélisation la plus ambitieuse que j'ai pu faire et qui existe en matière de démographie. Elle repose sur un concept qui j'espère fera florès : le découplage démographique. L'idée est simple : 1. la tendance mondiale qui frappe tous les pays est à l'effondrement des naissances. 2. l'enjeu est donc de découpler son pays des tendances démographiques mondiales. 3. pour ce faire, des mesures ciblées ne suffisent pas. La baisse des naissances étant multifactorielle, il faut attaquer ces multiples facteurs de front pour créer un environnement pro-naissance suffisamment puissant pour pouvoir se découpler des tendances mondiales. La France des années 2000 étant proche d'atteindre le découplage. Elle peut y arriver. Mon modèle : * intègre la chute mondiale des naissances, et permet de faire varier la force de cette chute * décompose l'effondrement des naissances en 14 facteurs identifiés par la littérature, et estime la part de chaque facteur. Modélise aussi 6 boucles d'interactions entre facteurs (ex : le logement qui repousse l'âge de la première grossesse et freine la mise en couple) * identifie l'impact mesuré dans la littérature des 17 meilleures mesures sur ces 14 facteurs. Et permet donc de définir des politiques publiques les plus efficientes et transverses, et d'optimiser les dépenses. * modélise le vrai coût économique d'une démographie en berne : perte de productivité par quatre canaux (vieillissement direct, ralentissement de l'innovation, éviction fiscale de l'investissement, perte d'effet d'échelle du marché intérieur), fuite des cerveaux par pression fiscale croissante sur les actifs qualifiés, et explosion de la charge vieillesse. * ajoute un modèle de politique migratoire réaliste, qui interagit avec tout le reste du modèle en distinguant différents types d'immigration, avec leurs taux d'emploi et de productivité différenciés, leur impact sur le PIB par habitant, la charge fiscale nette et l'innovation, tout en modélisant l'effet sur la fécondité nationale. Ce modèle permet d'arriver à une conclusion forte : Ceux qui pensent qu'on ne peut rien faire et que l'effondrement est une fatalité ont tort. Ceux qui pensent qu'il suffit de quelques mesures fortes du type "déplafonner le quotient familial", ont tort. La réalité est que nous pouvons relancer la démographie française, mais il nous faut au moins 20 milliards par an, et plutôt 40 milliards. Ça semble cher, mais ce n'est que 6 à 12% de ce que nous mettons aujourd'hui dans les retraites, et le rendement économique d'une telle politique est massive. Ne rien fait au contraire signifie que notre système explose totalement à l'horizon 2050, 2060 au plus tard. Plus nous attendons, plus le coût sera élevé et la situation irréversible. Je vous laisser explorer le modèle ici : #demographie" target="_blank" rel="nofollow noopener">francetdb.com/#demographie (plus pratique sur fixe que sur mobile cependant) La prochaine fois que vous entendez parler d'effondrement démographique, rappelez-vous seulement trois choses : 1. c'est gravissime mais ce n'est pas une fatalité 2. la politique migratoire seule ne nous sauvera pas 3. il ne faut pas quelques mesures, mais un écosystème complet afin de découpler le régime démographique français des tendances mondiales. Si vous voulez plus de détail, la présentation détaillée du modèle est ci-dessous. 👇
Français
18
48
228
78.1K
Marco Mazevet retweetou
andrew chen
andrew chen@andrewchen·
prediction re the end of spreadsheets AI code gen means that anything that is currently modeled as a spreadsheet is better modeled in code. You get all the advantages of software - libraries, open source, AI, all the complexity and expressiveness. think about what spreadsheets actually are: they're business logic that's trapped in a grid. Pricing models, financial forecasts, inventory trackers, marketing attribution - these are all fundamentally *programs* that we've been writing in the worst possible IDE. No version control, no testing, no modularity. Just a fragile web of cell references that breaks when someone inserts a row. The only reason spreadsheets won is that the barrier to writing real software was too high. A finance analyst could learn =VLOOKUP in an afternoon but couldn't learn Python in a month. AI code gen flips that equation completely. Now the same analyst describes what they want in plain English, and gets a real application - with a database, a UI, error handling, the works. The marginal effort to go from "spreadsheet" to "software" just collapsed to near zero. this is a massive unlock. There are ~1 billion spreadsheet users worldwide. Most of them are building janky software without realizing it. When even 10% of those use cases migrate to actual code, you get an explosion of new micro-applications that look nothing like traditional software. Internal tools that used to live in a shared Google Sheet now become real products. The "shadow IT" spreadsheet that runs half the company's operations finally gets proper infrastructure. The interesting second-order effect: the spreadsheet was the great equalizer that let non-technical people build things. AI code gen is the *next* great equalizer, but the ceiling is 100x higher. We're about to see what happens when a billion knowledge workers can build real software.
English
435
290
3.1K
1.3M
Marco Mazevet retweetou
templar
templar@tplr_ai·
We just completed the largest decentralised LLM pre-training run in history: Covenant-72B. Permissionless, on Bittensor subnet 3. 72B parameters. ~1.1T tokens. Commodity internet. No centralized cluster. No whitelist. Anyone with GPUs could join or leave freely. 1/n
English
217
934
6.2K
1.9M
Marco Mazevet retweetou
Claude
Claude@claudeai·
Ads are coming to AI. But not to Claude. Keep thinking.
English
1.7K
4K
51K
5.2M
Marco Mazevet retweetou
vas
vas@vasuman·
This is just sad These kids would’ve been so much happier if they played with Claude Code Max Mode Opus 4.5 operating semi supervised Ralph Wiggum loops generating agentic B2B SaaS in preparation for YC W2038
English
199
1.1K
18.4K
685.7K
Marco Mazevet retweetou
James Zou
James Zou@james_y_zou·
Today in @NatureMedicine we report that AI can predict 130 diseases from 1 night of sleep🛌 We trained a foundation model (#SleepFM) on 585K hours of sleep recordings from 65K people—brain, heart, muscle & breathing signals combined. AI learns the language of sleep🧵
James Zou tweet mediaJames Zou tweet media
English
274
2.1K
11K
912.9K
Marco Mazevet retweetou
Boris Cherny
Boris Cherny@bcherny·
I'm Boris and I created Claude Code. Lots of people have asked how I use Claude Code, so I wanted to show off my setup a bit. My setup might be surprisingly vanilla! Claude Code works great out of the box, so I personally don't customize it much. There is no one correct way to use Claude Code: we intentionally build it in a way that you can use it, customize it, and hack it however you like. Each person on the Claude Code team uses it very differently. So, here goes.
English
1.3K
7K
54.5K
8.1M
Marco Mazevet retweetou
Robert Youssef
Robert Youssef@rryssf·
Holy shit… this might be the most unreal academic-writing upgrade I’ve ever seen 🤯 A team from NUS just dropped PaperDebugger an in-editor, multi-agent system that lives inside Overleaf and rewrites your paper with you in real time. Not copy-paste. Not a sidebar chatbot. Actual agentic editing inside your LaTeX editor. Here’s why this is insane 👇 → You highlight a messy paragraph, and it launches a full critique + rewrite pipeline → Returns clean before–after diffs like Git, then patches your document instantly → Runs Reviewer, Enhancer, Scoring, and Researcher agents in parallel → Uses Kubernetes pods to scale multi-agent reasoning inside the editor → Taps an MCP toolchain for literature search, reference lookup, and section-level enhancement Deep research mode is even crazier: It pulls relevant arXiv papers, summarizes them, compares your method against them, and generates citation-ready tables… all inline while you're writing. It’s basically a mini committee of reviewers embedded in your document rewriting, critiquing, sourcing, and polishing without ever breaking flow. If this scales, Overleaf stops being an editor… and becomes a full AI-assisted research environment.
Robert Youssef tweet media
English
85
549
4K
1.2M
Marco Mazevet retweetou
NEJM
NEJM@NEJM·
For moderate-to-severe plaque psoriasis, biologic therapies are highly effective but are available only by injection, and current oral therapies are often less effective. Research findings from the ICONIC-LEAD phase 3 trial are summarized in a Quick Take video. nej.md/47o15uv
NEJM tweet media
English
0
5
25
12.5K
Marco Mazevet retweetou
Carlos E. Perez
Carlos E. Perez@IntuitMachine·
Anthropic published a new report on Context Engineering. Here are the top 10 key ideas: 1. Treat Context as a Finite Resource Context windows are limited and degrade in performance with length. Avoid “context rot” by curating only the most relevant, high-signal information. Token economy is essential—more is not always better. 2. Go Beyond Prompt Engineering Move from crafting static prompts to dynamically managing the entire context across inference turns. Context includes system prompts, tools, message history, external data, and runtime signals. 3. System Prompts Should Be Clear and Minimal Avoid both brittle logic and vague directives. Use a structured format (e.g., Markdown headers, XML tags). Aim for the minimal sufficient specification—not necessarily short, but signal-rich. 4. Design Tools That Promote Efficient Agent Behavior Tools should be unambiguous, compact in output, and well-separated in function. Minimize overlap and ensure a clear contract between agent and tool. 5. Use Canonical, Diverse Examples (Few-Shot Prompting) Avoid overloading with edge cases. Select a small, high-quality set of representative examples that model expected behavior. 6. Support Just-in-Time Context Retrieval Enable agents to dynamically pull in relevant data at runtime, mimicking human memory. Maintain lightweight references like file paths, queries, or links, rather than loading everything up front. 7. Apply a Hybrid Retrieval Strategy Combine pre-retrieved data (for speed) with dynamic exploration (for flexibility). Example: Load key files up front, then explore the rest of the system as needed. 8. Enable Long-Horizon Agent Behavior Support agents that work across extended time spans (hours, days, sessions). Use techniques like: Compaction: Summarize old context to make room. Structured Note-Taking: Externalize memory for later reuse. Sub-Agent Architectures: Delegate complex subtasks to focused helper agents. 9. Design for Progressive Disclosure Let agents incrementally discover information (e.g., via directory browsing or tool use). Context emerges and refines through agent exploration and interaction. 10. Curate Context Dynamically and Iteratively Context engineering is an ongoing process, not a one-time setup. Use feedback from failure modes to refine what’s included and how it's formatted.
Carlos E. Perez tweet media
English
15
153
1.1K
106.6K
Marco Mazevet retweetou
BURKOV
BURKOV@burkov·
Probably the most important open-weight model release in 2 years. I say probably only because right now the only information available is benchmarks. But previous releases from DeepSeek were as good as advertised. DeepSeek R1 and R1-Zero are 671B parameter MoE models that activate 37B parameters during inference and support 128K context length. R1-Zero was trained using only reinforcement learning without supervised finetuning, while R1 incorporated supervised data before two RL stages focused on reasoning patterns and human preference alignment. DeepSeek R1 outperforms Claude 3.5 Sonnet and OpenAI's o1 on multiple benchmarks, while its distilled version DeepSeek-R1-Distill-Qwen-32B surpasses OpenAI's o1-mini across several benchmarks, setting new state-of-the-art results for dense models of its size. The company released six distilled models: Qwen-based versions at 1.5B, 7B, 14B and 32B parameters, plus Llama-based 8B and 70B versions. The DeepSeek-R1-Distill-Qwen-32B surpasses OpenAI's o1-mini across several benchmarks, setting new state-of-the-art results for dense models of its size. All models are released under MIT license, with distilled versions inheriting Qwen's Apache 2.0 or Llama's original licenses. The models can be run using vLLM or SGLang.
BURKOV tweet mediaBURKOV tweet media
English
5
18
174
8.6K
Marco Mazevet retweetou
Mark Hammond
Mark Hammond@MarkHam80780803·
“They’re eating the frogs.”
Mark Hammond tweet media
English
503
4.2K
46.2K
1.7M
Marco Mazevet retweetou
Epitomax 💊 🐍
Epitomax 💊 🐍@Topiramatee·
Pourquoi le pamplemousse est-il le cauchemar du pharmacien ? Parce qu’il est un inhibiteur enzymatique puissant et à ce titre, il est à l’origine de nombreuses interactions médicamenteuses ! Pamplemousse et médicaments, a thread 🧵👇🏻
Epitomax 💊 🐍 tweet media
Epitomax 💊 🐍@Topiramatee

Cauchemar de pharmacien 😜

Français
93
696
2.2K
623K