

FaB ⚙️
2.1K posts

@LeNoobCodeur
IA & automatisation ⚙️ | Version terrain Contraintes réelles, arbitrages politiques, résultats concrets. Ce qui marche. Ce qui bloque.



OpenAI a fait trois annonces en 24 h. Tout le monde parle de la superapp (ChatGPT + Codex + Atlas fusionnés). Le vrai sujet, c’est autre chose. C’est un ingénieur qui, il y a un an, ne faisait pas confiance à l’autocomplétion et qui affirme aujourd’hui qu’en 2028, un data center remplacera Google. Jakub Pachocki, chief scientist d’OpenAI, vient de donner une interview exclusive à MIT Technology Review. Le même jour, ils rachètent Astral, un éditeur d’outils Python. Trois annonces en 24 heures. Ce n’est pas une coïncidence. C’est un reboot. L’objectif est unique : construire un chercheur IA autonome. Un système multi-agents capable de travailler seul sur des problèmes complexes pendant des jours, sans supervision. Timeline : AI research intern en septembre 2026. Système complètement autonome en 2028. Pachocki l’appelle le « North Star ». Optimiste ? Oui. Mais avec les progrès de Codex et des modèles de raisonnement, c’est potentiellement réaliste. On verra. Et « tout le reste » inclut un aveu : OpenAI s’est dispersé. Sora a stagné après son lancement. Leur mode agent a perdu ses utilisateurs. Trop de projets, pas assez de focus. Fidji Simo, leur Chief of Applications, a nommé la cause en interne : Anthropic. Le mot exact : « wake-up call ». Contexte : un all-hands le 16 mars, rapporté par le Wall Street Journal. Elle a dit que l’entreprise ne pouvait pas « se laisser distraire par des side quests ». Pendant qu’OpenAI lançait un navigateur, un générateur vidéo et un appareil hardware avec Jony Ive, Anthropic misait sur deux choses : le code et l’entreprise. Claude Code, Cowork. Résultat : ils ont pris le marché enterprise. Anthropic a doublé son revenu en deux mois début 2026, presque entièrement grâce à Claude Code. Maintenant OpenAI rembobine. Tout dans un seul produit. Tout vers un seul objectif. Pachocki est un puriste vim. Il tapait tout son code à la main, sans autocomplétion, il y a encore un an. C’est ce même type qui dit aujourd’hui : dans deux ans, un data center fera le travail de tout un labo de recherche. Ce qui l’a converti : Codex. La version GPT-5.3-Codex a contribué à sa propre création. OpenAI le dit dans son blog post du 5 février : l’équipe a utilisé des versions préliminaires du modèle pour débuguer son propre entraînement, gérer son déploiement, diagnostiquer ses résultats de tests. Récursivité. Le modèle a débugué son propre pipeline d’entraînement. Pachocki dit qu’il ne déléguerait pas la conception d’un système entier. Mais une semaine de code expérimental en un week-end : « c’est difficile d’argumenter contre ça ». Le pari : si Codex résout des problèmes de code en autonomie, il peut résoudre n’importe quel problème formulable en texte ou en schéma. Maths, physique, bio, chimie. Et il y a des résultats. GPT-5.2 Pro a fourni l’idée clé pour résoudre Erdős #728, un problème ouvert en théorie des nombres vérifié par Lean et accepté par Terence Tao. Il a aussi dérivé un résultat nouveau en physique des particules : simplifié 32 termes en une seule ligne, proposé une formule généralisée pour les amplitudes de diffusion de gluons. Le physicien Andrew Strominger (Harvard) a dit que sa machine était passée « d’une machine à un être vivant ». Mais Doug Downey, Allen Institute, tempère : chaîner des tâches fait chuter la fiabilité. Un LLM qui simplifie une formule, impressionnant. Un LLM qui mène un programme de recherche complet pendant des jours → un ordre de magnitude plus dur. Pachocki ne promet pas l’AGI. « Technologie économiquement transformative », pas superintelligence. Mais : « On n’a pas besoin d’être aussi intelligent que les humains de toutes les manières pour être très transformatif. » Il lâche une image : « Imagine un data center qui fait tout le travail qu’OpenAI ou Google font aujourd’hui. Ce qui nécessitait de grandes organisations humaines serait fait par quelques personnes. » Et ensuite : « C’est un gros défi pour les gouvernements. » Le problème : on vient de voir ce que « les gouvernements gèrent » veut dire. Le 27 février, le Pentagone a donné un ultimatum à Anthropic : acceptez que vos modèles soient utilisés pour « tout usage légal » ou c’est fini. Anthropic a maintenu ses deux lignes rouges : pas de surveillance de masse des citoyens américains, pas d’armes autonomes. Trump a ordonné à toutes les agences fédérales de cesser l’utilisation d’Anthropic. Hegseth l’a désigné « Supply-Chain Risk to National Security » – une étiquette normalement réservée aux adversaires étrangers. Première fois qu’une entreprise américaine la reçoit. Dans les heures qui ont suivi, OpenAI a signé. Altman a admis dans un mémo interne (partagé sur X le 3 mars) qu’il n’aurait pas dû se précipiter : « it just looked opportunistic and sloppy ». Caitlin Kalinowski, qui dirigeait l’équipe robotique, a démissionné par principe. Le contrat a été amendé 48 heures plus tard pour ajouter des clauses explicites sur la surveillance domestique. Pachocki parle des risques directement : dérive, piratage, mauvaise compréhension des instructions. Sa meilleure technique : surveiller les notes de travail des agents via d’autres LLMs (chain-of-thought monitoring). Il admet que ce n’est pas résolu. Lucide. Peut-être trop lucide pour quelqu’un qui accélère la construction de ce qu’il décrit comme dangereux. Les deux boîtes arrivent au même endroit techniquement. Agents autonomes, code-first, recherche scientifique. Pachocki résume : « C’est un pouvoir extrêmement concentré, d’une manière sans précédent. » Il le sait. Il le construit quand même. La question n’est plus si le chercheur autonome arrivera. La question : quand il arrivera, qui décide de ce qu’il a le droit de chercher ? Pour l’instant, ça se négocie en 48 heures, sous pression du Pentagone, à coups de tweets et d’amendements écrits dans l’urgence. Ce n’est pas à la hauteur de ce qui arrive.










Ce weekend j'installe enfin #OpenClaw 🦞 Mais je profite de ce setup pour régler un truc que j'aurais dû faire depuis longtemps — reprendre le contrôle sur ma conso de tokens. En ce moment c'est le chaos. Claude.ai plan max, API Claude, API OpenAI en parallèle... je sais même pas combien je claque vraiment par mois. Zéro visibilité. 😅 La logique c'est simple : t'utilises pas le même outil pour tout. Pareil pour les IA. Donc dès l'install je mets en place un routing LLM propre — chaque type de tâche va sur le bon modèle : • Surveillance / vérifications basiques → Gemini Flash (0,05$/M tokens) • Extraction de données, JSON → DeepSeek V3 (0,55$/M tokens) • Rédaction, analyse → Sonnet (3$/M tokens) • Tâches vraiment complexes → Opus, uniquement quand c'est justifié Le setup concret : OpenClaw tourne sur un VPS Hostinger — imagine un mini-ordinateur loué dans le cloud qui reste allumé 24h/24 même quand ton PC est éteint. Ça coûte 6€/mois et ça s'installe en un clic. J'aurais pu le faire tourner sur mon propre ordi mais c'est risqué niveau sécurité 🔒 OpenRouter = un seul abonnement pour accéder à tous les modèles IA du marché. Pas besoin de 4 comptes différents. Et pour suivre tout ça j'ai construit mon propre dashboard de monitoring — tokens par agent, coût en temps réel, pipelines actifs, tout. Objectif : moins de 10€/mois en API pour des agents qui tournent 24h/24.



En gros, on voit 3 grands blocs : 1. Communication & pilotage : analyse mails / agenda / Slack, résumés quotidiens, suivi ClickUp, relances, détection de blocages. 2. Documents & fichiers : scan Dropbox/Drive, tri devis / factures / contrats, extraction basique en JSON, renommage et rangement automatique. 3. Support ops & amélioration continue : petits contrôles, synthèses, reporting léger, surveillance des bugs sur nos workflows avec remontée de pistes de correction.




En gros, on voit 3 grands blocs : 1. Communication & pilotage : analyse mails / agenda / Slack, résumés quotidiens, suivi ClickUp, relances, détection de blocages. 2. Documents & fichiers : scan Dropbox/Drive, tri devis / factures / contrats, extraction basique en JSON, renommage et rangement automatique. 3. Support ops & amélioration continue : petits contrôles, synthèses, reporting léger, surveillance des bugs sur nos workflows avec remontée de pistes de correction.






Ce weekend j'installe enfin #OpenClaw 🦞 Mais je profite de ce setup pour régler un truc que j'aurais dû faire depuis longtemps — reprendre le contrôle sur ma conso de tokens. En ce moment c'est le chaos. Claude.ai plan max, API Claude, API OpenAI en parallèle... je sais même pas combien je claque vraiment par mois. Zéro visibilité. 😅 La logique c'est simple : t'utilises pas le même outil pour tout. Pareil pour les IA. Donc dès l'install je mets en place un routing LLM propre — chaque type de tâche va sur le bon modèle : • Surveillance / vérifications basiques → Gemini Flash (0,05$/M tokens) • Extraction de données, JSON → DeepSeek V3 (0,55$/M tokens) • Rédaction, analyse → Sonnet (3$/M tokens) • Tâches vraiment complexes → Opus, uniquement quand c'est justifié Le setup concret : OpenClaw tourne sur un VPS Hostinger — imagine un mini-ordinateur loué dans le cloud qui reste allumé 24h/24 même quand ton PC est éteint. Ça coûte 6€/mois et ça s'installe en un clic. J'aurais pu le faire tourner sur mon propre ordi mais c'est risqué niveau sécurité 🔒 OpenRouter = un seul abonnement pour accéder à tous les modèles IA du marché. Pas besoin de 4 comptes différents. Et pour suivre tout ça j'ai construit mon propre dashboard de monitoring — tokens par agent, coût en temps réel, pipelines actifs, tout. Objectif : moins de 10€/mois en API pour des agents qui tournent 24h/24.


