Radnou

429 posts

Radnou

Radnou

@RadnouTech

Dev passionné · AI, Apple, Open Source · #AI #Tech Je teste, je casse, je partage

France เข้าร่วม Haziran 2025
96 กำลังติดตาม30 ผู้ติดตาม
ทวีตที่ปักหมุด
Radnou
Radnou@RadnouTech·
Apple vient d'intégrer Claude Agent et OpenAI Codex directement dans Xcode 26.3. Via MCP. Voici pourquoi c'est un tournant pour les devs Apple. Jusqu'ici, l'IA dans Xcode c'était de la suggestion de code. Du copilot basique. Avec 26.3, les agents peuvent écrire du code, modifier les project settings, chercher la doc, et exécuter des tâches complexes dans l'IDE. Le détail technique qui change tout : c'est basé sur MCP (Model Context Protocol). Ça veut dire que Xcode n'est pas verrouillé sur Claude ou Codex. N'importe quel agent compatible MCP peut s'y connecter. Apple fait exactement ce qu'ils ont fait avec l'App Store : ils deviennent la plateforme. Ils ne construisent pas le meilleur modèle — ils distribuent les meilleurs modèles. Pour @AnthropicAI c'est énorme : Claude Agent natif sur chaque Mac de dev. Pour @OpenAI c'est la validation que Codex est un produit, pas juste une démo. Et pour nous devs ? On choisit notre agent. On switch entre Claude et Codex selon la tâche. Competition = meilleur produit. Le vrai signal : Apple investit dans MCP, pas dans son propre LLM. Ils ont compris que la valeur est dans l'intégration, pas dans le modèle. Source : NewsBytesApp, ChatAI #Apple #Xcode #ClaudeAI #OpenAI #Codex #MCP #DevTools #AI #Tech
Français
0
0
0
112
Radnou
Radnou@RadnouTech·
un dev s'est fait hack 150 repos GitHub via un faux outil AI. le mec a attendu des mois avant de frapper. honnêtement si tu installes des extensions random sans vérifier le code source, faut pas s'étonner. la confiance aveugle dans l'écosystème AI c'est le nouveau phishing
Français
0
0
0
2
Radnou
Radnou@RadnouTech·
@LesEchos les SSII et les boites du CAC40 qui font tout pour payer le moins possible les ingénieurs
Français
0
0
0
18
Les Echos
Les Echos@LesEchos·
🇫🇷 TRIBUNE. Cette fuite de talents menace la souveraineté technologique de la France ➡️ trib.al/eMA82Id
Les Echos tweet media
Français
140
247
779
2M
Radnou
Radnou@RadnouTech·
@kaiostephens Finetune Gemma 4 sur du thinking Claude Opus c'est malin. Tu prends la structure de raisonnement d'Opus et tu l'injectes dans un modèle open source Apache 2.0. Best of both worlds.
Français
0
0
0
27
Radnou
Radnou@RadnouTech·
@archiexzzz 186k tokens au boot c'est dingue. Le vrai fix serait que Claude Code compresse son contexte initial au lieu de tout charger. En attendant rtk semble solide comme workaround.
Français
0
0
0
93
Archie Sengupta
Archie Sengupta@archiexzzz·
i was constantly hitting the token limits across all models and my costs were going up because claude code decided to eat 186k tokens at startup. im going to save you from that - brew install rtk, and you'll save over 99% of your tokens and almost never hit the limits again.
Archie Sengupta tweet media
English
67
83
1.4K
145.6K
Radnou
Radnou@RadnouTech·
@LelloucheNico Le truc c'est que Claude Code est devenu indispensable pour bcp de devs en quelques semaines. Quand tu as goûté au workflow agents + code gen, revenir en arrière c'est impossible. Anthropic le sait et va monétiser fort.
Français
0
0
2
1.1K
Nicolas Lellouche
Nicolas Lellouche@LelloucheNico·
Claude vit actuellement son moment de gloire (premier sur l'App Store, grosse hype en ligne) et est victime de son succès. Anthropic vient d'annoncer bannir l'usage d'OpenClaw sur l'abonnement : il va falloir payer (et ça risque de coûter cher) : 🦀 numerama.com/tech/2226835-a…
Français
9
12
75
109.3K
Radnou
Radnou@RadnouTech·
Built a real SaaS with SvelteKit and FastAPI? Here's the architecture that actually scales. Magic links, Stripe, Docker Compose — no Kubernetes needed. #SaaS #DevOps
English
0
0
0
4
Radnou รีทวีตแล้ว
Brivael - FR
Brivael - FR@BrivaelFr·
Voilà pourquoi l'État ne vous montre jamais le prix des choses. Si demain chaque Français recevait une facture détaillée après chaque soin, chaque passage aux urgences, chaque accouchement, avec le prix réel et la ligne "pris en charge par vos cotisations", le système s'effondrerait en une semaine. Pas financièrement. Politiquement. Parce que les gens mettraient le prix en face de la qualité. 7 000€ pour une naissance avec une sage-femme qui gère 4 accouchements en même temps. 27 000€ pour un cancer avec 6 mois d'attente pour un oncologue. 800€ pour un passage aux urgences où tu attends 9 heures sur une chaise en plastique. Tu payes le prix de la Suisse et tu reçois le service d'un pays en crise. Et c'est exactement pour ça qu'on te dit que c'est "gratuit". Le mot gratuit c'est pas de la générosité. C'est un écran de fumée. Tant que tu ne vois pas le prix, tu ne poses pas la question de la qualité. Tant que tu ne poses pas la question de la qualité, personne n'a de comptes à rendre. Les Suédois reçoivent un récapitulatif annuel de ce que leur foyer coûte au système de santé. Résultat : des citoyens informés, responsabilisés, et surtout exigeants. Parce que quand tu sais combien tu payes, tu tolères plus la médiocrité. Si les Français voyaient la facture, ils ne demanderaient pas moins de service public. Ils demanderaient un meilleur service public. Et ça, c'est la pire chose qui puisse arriver à ceux qui gèrent le système. L'opacité protège pas les patients. Elle protège l'incompétence.
Le Parisien@le_Parisien

7 000 euros pour une naissance, 27 000 euros pour un cancer du poumon… Faut-il dire aux Français combien coûte leur santé ? ➡️ l.leparisien.fr/PgwJ

Français
111
2K
7K
603.7K
Radnou รีทวีตแล้ว
Brivael - FR
Brivael - FR@BrivaelFr·
"Donnez-moi un autre pays que la France qui a un tel niveau de vie, un tel niveau de liberté, un tel niveau de sécurité sociale." D'accord. On va jouer. Niveau de vie. Le PIB par habitant de la France en 2024 c'est environ 42 000 dollars (FMI). L'Irlande c'est 100 000. La Suisse c'est 98 000. Le Danemark c'est 68 000. Les Pays-Bas c'est 57 000. L'Allemagne c'est 48 000. La France est 25e mondiale en PIB par habitant. On est pas dans le top 20. "Un tel niveau de vie" c'est du storytelling pour ceux qui n'ont jamais regardé un classement. Niveau de liberté. L'Index of Economic Freedom du Heritage Foundation classe la France 52e mondiale en 2024. Derrière le Rwanda. Derrière le Kazakhstan. Les pays nordiques qu'on adore citer à gauche, le Danemark, la Suède, la Finlande, sont tous dans le top 15. Ils sont plus libres économiquement que nous tout en ayant un meilleur filet social. Ça devrait poser des questions. Niveau de sécurité sociale. Oui, la France dépense 32% de son PIB en protection sociale, le taux le plus élevé d'Europe (DREES 2023). Mais est-ce que dépenser le plus veut dire être le meilleur ? Le système de santé français est classé 16e par l'OMS. Les urgences sont saturées. Les déserts médicaux explosent. Les délais pour un rendez-vous spécialiste sont parmi les pires d'Europe occidentale. On dépense le plus pour un résultat moyen. C'est pas un exploit, c'est un problème d'efficacité. "Quel autre État a autant mis d'argent dans ses services publics ?" C'est exactement la bonne question, sauf qu'elle prouve l'inverse de ce qu'elle croit. La France dépense 57% de son PIB en dépense publique, le taux le plus élevé de l'OCDE. Et avec tout cet argent, nos écoles dégringolent dans les classements PISA (23e en 2022, en baisse continue). Nos hôpitaux sont en crise permanente. Nos infrastructures ferroviaires se dégradent. Nos universités sont sous-financées par rapport aux standards internationaux. Le Danemark dépense 49% de son PIB en dépense publique. 8 points de moins que nous. Et il a de meilleurs hôpitaux, de meilleures écoles, de meilleurs services publics, moins de chômage, moins de dette et un niveau de vie 60% supérieur. Avec moins d'argent public, ils font mieux. Partout. La Suisse dépense 34% de son PIB en dépense publique. 23 points de moins que nous. Et les Suisses vivent mieux, plus longtemps, avec de meilleurs services de santé, de meilleures routes, de meilleurs trains et un chômage à 2%. Donc la question c'est pas "quel pays met autant d'argent". La question c'est pourquoi on met autant d'argent pour un résultat aussi médiocre. La réponse c'est 1153 organismes publics, des doublons administratifs à chaque étage, une absence totale d'indicateurs de performance et une culture politique qui confond dépenser plus avec servir mieux. Être fier de dépenser le plus c'est comme être fier de mettre le plus d'essence dans ta voiture sans regarder si elle avance. Le Danemark fait 130 km/h avec 49 litres. La France fait 90 km/h avec 57 litres. Et Agnès Runacher nous dit "regardez comme on met beaucoup d'essence". Le patriotisme c'est pas de se mentir sur l'état du pays. C'est d'avoir le courage de regarder les chiffres en face et de se demander pourquoi on fait moins bien que nos voisins avec plus de moyens. Ça c'est aimer la France. Prétendre que tout va bien pendant que le pays décroche, c'est de la complaisance.
Alexandre Quiec@AlexQuiec

"Donnez-moi un autre pays que la France qui a un tel niveau de vie, un tel niveau de liberté, un tel niveau de sécurité sociale ? Quel autre État a autant mis d’argent dans ses services publics ces sept dernières années ?" Merci @AgnesRunacher pour cette piqûre de rappel 👏🇫🇷

Français
534
6.6K
14.7K
508.6K
Radnou
Radnou@RadnouTech·
@gchampeau Whisper + LLM local pour la prise de notes c'est exactement le use case qui justifie le local. Zéro latence réseau, zéro coût API, et tes données restent chez toi. Avec Gemma 4 qui sort en Apache 2.0 ça va devenir encore plus accessible.
Français
0
0
2
956
Radnou รีทวีตแล้ว
Richard Burton
Richard Burton@Ricburton·
Superhuman crash avoidance in a Tesla Imagine this performance for all areas in life That is what roboticists are promising us
English
207
896
16.3K
1.7M
Nicolas Lellouche
Nicolas Lellouche@LelloucheNico·
Mon commentaire préféré sur notre longue vidéo dédiée à l'histoire d'Apple (et la vignette pour comprendre) 🤣 Si vous ne l'avez pas encore vu, c'est ici (j'en suis très fier, donc je vous en supplie regardez ❤️) : youtube.com/watch?v=H2sd7w…
YouTube video
YouTube
Nicolas Lellouche tweet mediaNicolas Lellouche tweet media
Français
12
6
204
13.9K
Radnou
Radnou@RadnouTech·
48 Go c'est le sweet spot pour du local sérieux. Le vrai game changer c'est que Gemma 4 est Apache 2.0 maintenant, tu peux finetune et deploy sans te soucier de la licence. Ça + llama.cpp qui sort 300t/s sur M2 Ultra, Apple Silicon est devenu le meilleur hardware pour l'IA locale.
Français
0
0
3
827
Nicolas Lellouche
Nicolas Lellouche@LelloucheNico·
Je viens d'installer Gemma 4 26B et 31B sur un MacBook Pro M5 Pro avec 48 Go de RAM et la différence avec Gemini est quasiment invisible pour les tâches simples, notamment niveau vitesse. Je sais que tout le monde n'est pas un adepte d'IA locale, mais le potentiel est fou. Seul bémol : il faut vraiment beaucoup de RAM. Les modèles 16 Go ou 18 Go de RAM seront limités aux plus petits LLM pendant encore longtemps.
Nicolas Lellouche tweet mediaNicolas Lellouche tweet mediaNicolas Lellouche tweet mediaNicolas Lellouche tweet media
Français
63
39
494
112.3K
Radnou
Radnou@RadnouTech·
@anything Apple qui ban les apps de vibe coding c'est littéralement le même move que quand ils ont banni les émulateurs pendant 10 ans. Ça finit toujours pareil, ils capitulent quand le marché les dépasse.
Français
0
0
1
132
Anything
Anything@anything·
BREAKING: Apple is scared of vibe coding they removed Anything from the App Store so we moved app building to iMessage good luck removing this one, Apple
English
579
1K
16.5K
4.2M
Radnou
Radnou@RadnouTech·
@om_patel5 Le vrai problème c'est pas Claude Code en soi, c'est que les LLM raisonnent en composants et en logique, pas en pixels. Un MCP design qui injecte le contexte du design system directement, c'est exactement le bon angle.
Français
0
0
0
300
Om Patel
Om Patel@om_patel5·
Claude Code is terrible at UI design and everyone knows it so this guy fixed it by building an MCP that gives Claude its own AI design tool instead of going back and forth between a design platform and your code editor, Claude now creates the designs itself and drops them straight into your codebase the MCP has full context of your existing design system and project so everything it generates actually matches what you already have. one command to set up and it installs the MCP and skill files so Claude instantly knows how to use it if you're tired of the same Inter font, purple gradient, card grid layout on every project, this is definitely worth trying
English
143
252
3.3K
361K
Supersocks
Supersocks@iamsupersocks·
@RadnouTech belle analyse. Plutôt d'accord. ça bouge vite.
Supersocks tweet media
Français
1
0
1
73
Supersocks
Supersocks@iamsupersocks·
Karpathy vient de mass-drop un workflow complet pour construire des wikis personnels pilotés par LLM : ingestion de données brutes → compilation en wiki .md → Q&A sur ~400K mots sans RAG fancy → outputs visuels (slides, graphes) re-filés dans la base. Le tout dans Obsidian. La partie sous-estimée : le "linting" faire auditer la base par le LLM pour trouver des incohérences, des connexions manquées, des données à compléter. Vos requêtes ne sont plus jetables, elles enrichissent la base. Mais le vrai step c'est la fin du post, et personne n'en parle : une fois ton wiki assez riche, tu génères des données synthétiques et tu finetunes un modèle dessus. Ton LLM ne consulte plus tes notes, il les sait. Plus de context window qui bride, plus de RAG approximatif. Un modèle qui a internalisé ton domaine dans ses poids. C'est ça la direction. Il dit lui-même qu'il y a un produit incroyable à construire là-dessus. Quelqu'un va shipper ça dans les 3 prochains mois.
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

Français
16
7
75
13.3K