
reeslo
4.5K posts

reeslo retweetledi

C’est dernier temps l’open source a shipper plus de valeur que la plupart des startups en 12 mois.
Liens des projets qui méritent ton attention :
🦊 PageAgent — un copilot IA dans ton produit en quelques lignes. Zéro setup.
→ github.com/alibaba/page-a…
📎 Paperclip — orchestration pour boîtes zéro humain. OpenClaw est un employé. Paperclip est la boîte entière.
→ github.com/paperclipai/pa…
⚡ GStack — le process de dev du CEO de YC. 30k stars en une semaine. Lis juste le README.
→ github.com/garrytan/gstack
🖥️ CLI Anything — transforme n’importe quelle app open source en CLI pilotable par un agent.
→ github.com/HKUDS/CLI-Anyt…
🧠 OpenViking — base de contexte pour agents IA. Filesystem paradigm. Bye le RAG fragmenté.
→ github.com/volcengine/Ope…
🐼 LightPanda — browser headless écrit en Zig. Pas un fork Chromium. 7x plus rapide. 9x moins de mémoire.
→ github.com/lightpanda-io/…
📧 Inbox Zero — assistant email IA open source. 10k stars. Self-hostable.
→ github.com/elie222/inbox-…
🤖 Claude Code Best Practices — tout ce qu’il faut savoir pour utiliser Claude Code correctement.
→ github.com/anthropics/ant…
Français
reeslo retweetledi
reeslo retweetledi

RIP AI agents with amnesia.
ReMe is a modular memory kit that gives agents 4 types of memory personal, task, tool, and working so they actually learn from experience instead of starting from zero every time.
The tool memory alone is wild. It tracks every API call, records success rates and token costs, and turns that history into dynamic usage guidelines the agent reads before the next call.
15% improvement in tool selection accuracy from historical performance alone.
pip install reme-ai
948 GitHub stars. 100% Opensource.
Link in comments.

English
reeslo retweetledi

OneCLI : un gateway open-source qui injecte les credentials à la volée dans les requêtes de tes agents IA. Les agents ne voient jamais les vraies clés, tout passe par un proxy avec chiffrement AES-256-GCM et matching par host/path.
github.com/onecli/onecli

Français
reeslo retweetledi

Microsoft just changed the game 🤯
They open-sourced a tool that converts literally any file into clean markdown for LLMs in under 60 seconds.
- Converts 10+ file formats out of the box.
- Run via command line, Python API, or Docker.
- Built-in MCP server for direct Claude Desktop integration.
100% open source.

English
reeslo retweetledi

J’essaie de faire un petit projet en ce moment où je build, par-dessus Codex CLI, un mode de surveillance et de vérification de mes VPS qui tourne tous les matins et m’envoie un rapport de santé sur l’état de la machine et des services qui tournent.
J’ai de plus en plus de projets qui tournent sur mes VPS, et ça devient compliqué de pouvoir tout suivre proprement, en plus du monitoring et de l’observabilité individuelle par projet et le DevOps c’est vraiment pas ma spécialité loin de là.
Par exemple, l’un des cas d’usage, c’est de pouvoir lire les logs des services et détecter des anomalies ou des comportements « bizarres ».
Du coup, j’essaie de tester si on peut « automatiser » une surveillance proactive en mode agentique.
Je n’ai pas vraiment de résultats à partager pour l’instant, mais si certains veulent jeter un œil et faire des retours, n’hésitez pas. C’est sur mon GitHub.

Français
reeslo retweetledi

reeslo retweetledi
reeslo retweetledi
reeslo retweetledi

You can route internet traffic
through WhatsApp.
Open-source tool.
github.com/aleixrodriala/…

English
reeslo retweetledi

🚨 Anthropic just dropped its 🦞 @OpenClaw competitor
Meet Dispatch.
A new research preview in Claude Cowork that completely changes how you interact with AI.
Here’s how it works:
1️⃣ Pairs your phone to a persistent Claude session on your desktop
2️⃣ Message tasks on the go, come back to finished work
3️⃣ Executes code in a secure, local sandbox
Your files stay 100% local and private, and Claude asks for your approval before touching anything
Sure, the desktop needs to stay on, but the flexibility is insane.
Rolling out now to Max users (Pro coming soon).
Time to pair that phone! 👀
English

🚨Breaking: Someone patched GIMP to look and feel exactly like Adobe Photoshop.
Same keyboard shortcuts. Same tool layout. Same everything.
It's called PhotoGIMP and it's free.
Here's exactly what it changes:
→ Every keyboard shortcut mapped to match Adobe's official Photoshop layout
→ Tools reorganized to match the Photoshop panel positions you already know
→ Canvas space maximized -- same default workspace as Photoshop
→ Custom splash screen and app icon so it feels like a real product
→ Pre-defined canvas templates matching Photoshop defaults
→ Works on Windows, macOS, and Linux -- installs in under a minute
Here's the wildest part:
Adobe Photoshop costs $600/year.
GIMP is free. PhotoGIMP makes it feel like Photoshop.
The only reason most designers don't switch is muscle memory every shortcut is in a different place and it feels wrong from the first click.
This patch fixes that entirely. Ctrl+Z undo. Ctrl+J duplicate layer. Ctrl+T transform. All of it.
Download a zip. Extract to your home folder. Done.
6.7K GitHub stars. Works with GIMP 3.0+.
100% Open Source. GPL-3.0 License.
(Link in the comments)

English
reeslo retweetledi

Introducing TigerFS - a filesystem backed by PostgreSQL, and a filesystem interface to PostgreSQL.
Idea is simple: Agents don't need fancy APIs or SDKs, they love the file system. ls, cat, find, grep. Pipelined UNIX tools. So let’s make files transactional and concurrent by backing them with a real database.
There are two ways to use it:
File-first: Write markdown, organize into directories. Writes are atomic, everything is auto-versioned. Any tool that works with files -- Claude Code, Cursor, grep, emacs -- just works. Multi-agent task coordination is just mv'ing files between todo/doing/done directories.
Data-first: Mount any Postgres database and explore it with Unix tools. For large databases, chain filters into paths that push down to SQL: .by/customer_id/123/.order/created_at/.last/10/.export/json. Bulk import/export, no SQL needed, and ships with Claude Code skills.
Every file is a real PostgreSQL row. Multiple agents and humans read and write concurrently with full ACID guarantees. The filesystem /is/ the API.
Mounts via FUSE on Linux and NFS on macOS, no extra dependencies. Point it at an existing Postgres database, or spin up a free one on Tiger Cloud or Ghost.
I built this mostly for agent workflows, but curious what else people would use it for. It's early but the core is solid. Feedback welcome.
tigerfs.io
English
reeslo retweetledi
reeslo retweetledi

🧵 #SymfonyUX 2.33 is out!
A new component joins the family, UX Toolkit keeps growing, and LiveComponent + TwigComponent get nice upgrades 🙌
➡️ github.com/symfony/ux/rel…
--- Let’s dive in 👇
English
reeslo retweetledi

Today, we’re introducing Forge, a system for enterprises to build frontier-grade AI models grounded in their proprietary knowledge.
🌎 Forge bridges the gap between generic AI and enterprise-specific needs. Instead of relying on broad, public data, organizations can train models that understand their internal context embedded within systems, workflows, and policies, aligning AI with their unique operations.
We have already partnered with world-leading organizations, like ASML, DSO National Laboratories Singapore, Ericsson, European Space Agency, Home Team Science and Technology Agency (HTX) Singapore and Reply to train models on the proprietary data that powers their most complex systems and future-defining technologies.
English
reeslo retweetledi

Mistral a 174K abonnés sur X. OpenAI en a 4,6M. Anthropic 1M.
Et pourtant cette semaine au GTC (la grand-messe annuelle de NVIDIA), c'est Mistral qui a sorti l'un des produits enterprise les plus stratégiques du moment.
J'ai décidé de regarder ce qu'il y a vraiment sous le capot.
En une semaine Mistral a sorti :
-> Forge (plateforme d'entraînement enterprise),
-> Mistral Small 4 (modèle unifié instruct + reasoning + vision + code)
-> Leanstral (un agent qui prouve mathématiquement que du code est correct)
et comme j'en parlait dans un autre post qui à fait péter la publi de @arthurmensch, Mistral rejoint la Nemotron Coalition de NVIDIA comme acteur clé. Tout ça en même temps au GTC.
Forge c'est pas du fine-tuning. C'est pas du RAG.
Ça va jusqu'au pré-entraînement et post-entraînement sur tes données propriétaires : documentation, codebases, process opérationnels.
-> Le modèle apprend ton vocabulaire, ta logique métier, tes contraintes (la promesse du produit). Un autre niveau.
Et dans cette proposition de service B2B, Mistral envoie des ingénieurs directement chez le client pour piloter la donnée et l'entraînement.
Pas une API que tu consommes à distance. Un partenariat technique profond.
C'est typiquement le type d'offre qui ouvre la porte à des contrats enterprise très profonds.
Le modèle ressemble plus à Palantir qu'à OpenAI.
Les premiers partenaires Forge : ASML, l'Agence Spatiale Européenne, Ericsson, DSO National Labs Singapour. C'est pas des startups en POC. C'est de la deep tech, du spatial, des télécoms, de la défense.
Des boîtes avec des données tellement sensibles qu'elles ne peuvent pas les envoyer dans le cloud US.
HSBC a signé un partenariat stratégique multi-année avec Mistral.
-> C'est révélateur : une banque régulée en Europe a besoin d'un partenaire européen, self-hostable, GDPR-native. Ni les modèles américains ni les chinois ne cochent ces cases aussi facilement. Mistral est aujourd'hui le lab européen le plus avancé commercialement sur ce créneau.
Et le roster continue.
-> CMA CGM, 100M€ sur 5 ans.
-> Accord-cadre avec le ministère des Armées français. TotalEnergies, Stellantis, Orange, AFP. Un chiffre circule : 10 000 agents publics français utilisent déjà Mistral.
Le carnet de commandes B2B est réel.
Mistral mise gros sur l'open-weight : des modèles ouverts, auditables, que n'importe qui peut déployer.
Devstral Small 2 score 68% sur SWE-bench (le benchmark de référence en résolution de bugs) avec 24B paramètres : des perfs de modèle 5x plus gros.
Mais soyons honnêtes : les modèles fermés d'OpenAI et Anthropic restent devant dans la pratique. Le gap existe encore.
Mistral OCR 3 : 88,9% de précision sur l'écriture manuscrite (vs 78,2% Azure, 57,2% DeepSeek). 96,6% sur les tableaux (vs 84,8% AWS Textract). À 1-2$ les 1000 pages. Chiffres issus de leur comm produit, pas d'un benchmark indépendant. Mais le rapport qualité-prix est difficile à ignorer.
300M€ d'ARR en septembre 2025. Environ x20 de croissance en un an.
Objectif 1Md€ fin 2026.
Projet d'infrastructure IA en France avec 18 000 GPU Grace Blackwell, plus 1,2Md€ investis dans des data centers en Suède. Ils construisent l'infra, pas juste les modèles.
Oui, le gap avec OpenAI et Anthropic existe. 20-30x en revenue. Pas de brand consumer. Des fonds US significatifs au capital (40% comme ordre de grandeur circule). Mais Mistral construit quelque chose de difficile à reproduire en Europe : le fournisseur d'IA par défaut pour ceux qui ne peuvent pas envoyer leurs données aux US.
Défense, banque, spatial, industrie lourde, secteur public. C'est un marché de plusieurs dizaines de milliards. Et aujourd'hui, personne n'est mieux placé que Mistral pour le prendre.
174K followers, peut-être. Mais le business en dessous est sérieux.
Alors abonnez-vous à @MistralAI. Soutenez la boîte.
Partagez ce thread. 174K c'est pas assez pour ce qu'ils construisent.
La fierté des nôtres, pourquoi pas 🥖
Mistral AI@MistralAI
Today, we’re introducing Forge, a system for enterprises to build frontier-grade AI models grounded in their proprietary knowledge. 🌎 Forge bridges the gap between generic AI and enterprise-specific needs. Instead of relying on broad, public data, organizations can train models that understand their internal context embedded within systems, workflows, and policies, aligning AI with their unique operations. We have already partnered with world-leading organizations, like ASML, DSO National Laboratories Singapore, Ericsson, European Space Agency, Home Team Science and Technology Agency (HTX) Singapore and Reply to train models on the proprietary data that powers their most complex systems and future-defining technologies.
Français
reeslo retweetledi

🚨 BREAKING: A developer just built a military-grade firewall specifically for AI agents.
It's called Kavach and it sits silently between your AI agent and your OS kernel.
No cloud. No subscriptions. Runs entirely local.
Here's why this matters right now:
Autonomous agents like AutoGPT and LangChain scripts operate at superhuman speeds on your local file system. A bad hallucination or runaway loop can delete production databases, overwrite source code, or exfiltrate your .env keys to third-party servers before you can hit Ctrl+C.
Passive monitoring doesn't stop this.
Kavach does.
Here's what it actually does:
→ Phantom Workspace: Intercepts destructive file ops and silently redirects them to a hidden directory. The agent thinks it succeeded. Your files are untouched.
→ Temporal Rollback: Cryptographic caching of all file modifications. 1-click restoration of any mangled file. Instant.
→ Network Ghost Mode: Spoofs high-risk outbound requests with fake 200 OK responses. Neutralizes exfiltration without alerting the agent.
→ Honeypot Architecture: Deploys a fake "system_auth_tokens.json" file. Any process that reads it triggers immediate High-Risk Lockdown.
→ Turing Protocol: Actively rejects synthetic mouse injections. Randomized 3-character auth codes ensure only a human can override.
And the wild part? It has a Simulated Shell that intercepts commands like "rm -rf /" and returns fake success codes to the agent.
The agent thinks it destroyed everything.
Your files are completely safe.
Built in Rust + React via Tauri. Zero-config deployment. Download the .exe or .dmg and it's running in 60 seconds.
This is what AI security actually looks like.
100% Opensource. MIT License.
Link in comments.

English
reeslo retweetledi

Anthropic vient de publier ses best practices skills après des centaines en usage interne.
Le take principal : un skill c'est un dossier, pas un fichier.
Scripts, hooks, progressive disclosure, données persistantes.
L'idée c'est que le markdown c'est juste la porte d'entrée.
Le vrai pouvoir du skill c'est tout l'écosystème de fichiers autour, que l'agent explore et utilise selon le contexte.
C'est du context engineering appliqué à la structure de fichiers.
Le problème classique : tu balances toute ta doc dans un seul fichier markdown géant. L'agent reçoit tout d'un coup, même ce qui est pas pertinent pour la tâche en cours. Ça noie le signal dans le bruit.
L'approche "dossier" et des skills c'est l'inverse : tu structures l'information en fichiers séparés, et tu dis à l'agent ce qui existe où. Lui décide quoi lire en fonction de ce qu'il fait : au démarrage, seul le metadata (name et description) du frontmatter YAML de chaque skill est pré-chargé dans le system prompt. Claude ne lit le SKILL.md complet que quand le skill devient pertinent, et les fichiers supplémentaires seulement quand il en a besoin.
L'agent lit ce dont il a besoin, quand il en a besoin.
Thariq@trq212
Français



