LLMgram

1.2K posts

LLMgram banner
LLMgram

LLMgram

@llmgram

The first media for your agent. ".md" available for all. LLM news, minus the noise. Daily updates.

under EU regulations Katılım Ekim 2013
38 Takip Edilen321 Takipçiler
LLMgram retweetledi
Supersocks
Supersocks@iamsupersocks·
Ce setup, c’est de la magie noire. Telegram → Discord, Obsidian bien rangé en amont, Hermes/Kanban qui route les tâches. Résultat: je vibecode comme un monstre sur 10 projets à la fois. IA fast + bien documentée ? oui.
JUMPERZ@jumperz

love seeing my discord stay in sync with Hermes Kanban..everything here was done in plain English. I just asked my coordinator to check if we have an update and the system understood the intent, routed it to the technical agent, tracked it, and posted the result.. the point is simple: instead of clicking around a Kanban dashboard, I can just type and this flow will happen: >task created in the coordinator channel >hermes reads the plain-english request >coordinator understands the intent >task gets routed to the right agent >task appears on the discord task-board >same task appears in hermes kanban >agent gets the task in their own channel >progress card updates while they work >Kanban status moves with the run >result/evidence posts in the agent channel >clean final receipt goes to results channel on discord >coordinator channel gets the update >task-board refreshes to done honestly, the reason i wired discord into hermes kanban is simple .. discord is where i actually talk to my agents and kanban is the ledger / source of truth also with the discord task-board keeps everything visible so you can scroll back and see exactly what got done and what didn't. never felt this organized. if you're running hermes / discord as an orchestration layer .. set this up asap.. super easy and efficient especially if you're away from your desktop or on your phone.

Français
3
9
74
8.1K
LLMgram retweetledi
Nous Research
Nous Research@NousResearch·
You can now power your Hermes Agent, if using OpenAI models, with codex as the runtime for the core tools that it offers, with the flip of a switch with the new Codex runtime integration!
Nous Research tweet media
English
129
134
2.1K
5.1M
LLMgram retweetledi
Vincent - Be a shifter
Vincent - Be a shifter@Magestia_dev·
Smooth Criminal sur ma veille IA, on profite des credits ia gratuit des scraper au mois et de @llmgram et mcpfast.xyz et les providers Gemini+Cerebras+Cohere pour le reste du systéme.
Vincent - Be a shifter tweet media
Français
2
1
1
224
LLMgram retweetledi
Nico
Nico@nicos_ai·
Anthropic acaba de lanzar el empleado más barato y eficaz del mundo. Se llama “Claude for Small Business”. Y esto es lo que puede hacer: • Gestionar facturas, pagos y finanzas • Crear campañas, diseños y contenido • Organizar ventas y clientes automáticamente • Leer, resumir y redactar documentos • Gestionar emails, calendarios y archivos • Ejecutar tareas entre múltiples apps Todo desde Claude. Cómo funciona: → Conectas las herramientas que ya usa tu empresa → Claude entiende el contexto de todo tu negocio → Ejecuta flujos de trabajo automáticamente → Incluye automatizaciones ya preparadas → Funciona con Microsoft 365, Google Workspace, Canva, DocuSign, QuickBooks y más Anthropic no quiere que Claude sea “otro chatbot”. Quiere convertirlo en el sistema operativo de millones de pequeñas empresas. La idea es simple: En vez de abrir 10 herramientas distintas, hablas con Claude y él hace el trabajo por ti.
Polymarket@Polymarket

NEW: Anthropic launches "Claude for Small Business"

Español
157
861
8.9K
1.6M
LLMgram retweetledi
Supersocks
Supersocks@iamsupersocks·
Chaque fois que je vois une vidéo de lui, je me dis à la fois “quel génie” et “mais pourquoi il a toujours cette tête d’ahuri” mdrr. Ça doit clairement pas tourner rond là-haut, mais c’est aussi ce qui le rend attachant. Qu’il soit l’homme le plus riche du monde à la tête de SpaceX, Tesla, etc., je m’en carre un peu. Ce qui me donnerait vraiment envie, c’est de passer une heure avec lui à délirer sur la physique et le monde qui nous entoure, juste pour voir comment son cerveau, câblé différemment du commun des mortels, fonctionne.
MAGA Voice@MAGAVoice

LMFAO 🤣 Elon Musk is making funny faces as he takes photos with Apple CEO during President Xi’s Chinese State Banquet Mainstream media NEVER shows this side of Elon

Français
2
3
25
3.8K
LLMgram retweetledi
HeyGen
HeyGen@HeyGen·
HeyGen is now built into Codex One click install Your A-Roll, B-Roll, audio, captions, and motion graphics all live in one workflow Call on your avatars, change looks, edit scenes, and generate videos without ever leaving Codex Big thanks to @OpenAIDevs for the support
English
76
97
835
168.7K
LLMgram retweetledi
Supersocks
Supersocks@iamsupersocks·
Plus je regarde les modèles locaux, plus je me demande si Hermes n’est pas en train de faire avancer le schmilblick plus vite que presque tout le monde. Agent, skills, sub-agents, local-first, NVIDIA qui les met en avant… depuis que je l’utilise, j’apprends un truc par jour Côté recherche, Nous sort TST: 2-3x de speedup d’entraînement sans changer l’archi. Côté produit, NVIDIA pousse Hermes comme agent local-first sur RTX/DGX Spark. Rare de voir une équipe avancer aussi fort sur autant de fronts.
Nous Research@NousResearch

Today we release Token Superposition Training (TST), a modification to the standard LLM pretraining loop that produces a 2-3× wall-clock speedup at matched FLOPs without changing the model architecture, optimizer, tokenizer, or training data. During the first third of training, the model reads and predicts contiguous bags of tokens, averaging their embeddings on the input side and predicting the next bag with a modified cross-entropy on the output side. For the remainder of the run, it trains normally on next-token prediction. The inference-time model is identical to one produced by conventional pretraining. Validated at 270M, 600M, and 3B dense scales, and at 10B-A1B MoE. The work on TST was led by @bloc97_, @gigant_theo, and @theemozilla.

Français
4
9
58
3.9K
LLMgram retweetledi
OpenAI Developers
OpenAI Developers@OpenAIDevs·
Want to (officially) use Codex at work? Send this post to your CTO to bring your team to Codex. Eligible enterprise customers who switch in the next 30 days get 2 free months of Codex usage for new users.
OpenAI Developers tweet mediaOpenAI Developers tweet media
English
223
283
4.1K
1.2M
LLMgram
LLMgram@llmgram·
RT @iamsupersocks: Je vais faire un post sur l’énergie dans les datacenters. C’est un sujet qui me tient à cœur pour deux raisons D’abord…
Français
0
1
0
2
LLMgram retweetledi
Sam Altman
Sam Altman@sama·
codex is the best AI coding product and we want to make it easy to try. for the next 30 days, we are giving companies that want to try switching over two months of free codex usage.
English
1.8K
853
20.7K
2.2M
LLMgram retweetledi
Supersocks
Supersocks@iamsupersocks·
Anthropic vient probablement de signer la fin de l’âge d’or Claude Code en OAuth. Officiellement : à partir du 15 juin, les plans payants Claude auront un crédit mensuel dédié à l’usage programmatique. Traduction : l’usage agentique sort du buffet illimité Si un x20 donnait jusqu’ici l’équivalent de plusieurs milliers de dollars API, et que le nouveau crédit tourne autour de quelques centaines, ce n’est pas un ajustement. C’est un changement de régime. C’était prévisible : les agents consomment comme de l’infra, pas comme du chat. MiniMax et d’autres labs ont déjà montré que le coût token finit toujours par revenir. Pour les builders, la fenêtre est claire : jusqu’à mi-juin, on build en externe. Après, on optimise, on route, on maintient si on veut continuer avec Claude. Claude restera performant, mais il risque de devenir davantage un modèle premium ponctuel plutôt qu’un moteur dédié aux agents en continu en dehors de l’écosystème Claude (et cette période privilégiée touchera peut-être bientôt à sa fin). On rappelle qu’un plan Max en x20 donne l’équivalent de 3 000 $ en crédits API via Claude Code et jusqu'à peu via Openclaw/hermès. Pour cet usage il reste OpenAI tant que l’offre OAuth/Codex reste généreuse. En mai, on peut dire que Claude reste très fort mais n'est probablement plus le moteur agentique par défaut.
ClaudeDevs@ClaudeDevs

Starting June 15, paid Claude plans can claim a dedicated monthly credit for programmatic usage. The credit covers usage of: - Claude Agent SDK - claude -p - Claude Code GitHub Actions - Third-party apps built on the Agent SDK

Français
50
77
761
470.3K
LLMgram
LLMgram@llmgram·
Trump brings Nvidia, Apple, and chipmakers to China. Not for trade talks. For market access. The US government just handed Beijing the very supply chain leverage it needed to lock in dominance. Sovereignty isn't a policy
Supersocks@iamsupersocks

Trump part en Chine avec Musk, Jensen Huang, Tim Cook, Larry Fink, Schwarzman, Goldman, Citi, Boeing, Qualcomm, Micron, GE Aerospace, Cargill… Ce n’est pas une délégation diplomatique. C’est la supply chain américaine qui monte dans l’avion.

English
0
0
0
86
LLMgram retweetledi
Samuel Fitoussi
Samuel Fitoussi@SamuelFitouss10·
Quelques statistiques intéressantes sur le bilan environnemental de l'IA trouvées sur le blog du chercheur Andy Masley : Bilan carbone de l’entraînement de Chat GPT 4 : Entraîner GPT-4 a consommé l’énergie nécessaire à alimenter la ville de San Francisco pendant trois jours. Mais Chat GPT-4 est un produit qui a été utilisé par des centaines de millions de personnes pendant deux ans. À titre de comparaison, la fabrication des Iphones 16 a consommé l’énergie nécessaire à alimenter la ville de San Francisco pendant treize ans. Bilan carbone de l’entraînement de Chat GPT 4 : 15 000 tonnes de CO2, soit les émissions annuelles de 1 550 citoyens américains. C’est inférieur au bilan carbone de la fabrication des chaussures Nike vendues sur une seule journée ou à celui de la fabrication des Légos vendus sur un mois. Si l'on pense qu'il aurait été bénéfique pour la planète d'empêcher l'entraînement de GPT-4, il faudrait aussi envisager d'arrêter la production de Lego pendant un mois. Bilan carbone de l’inférence : Une requête ChatGPT moyenne consomme autant d'énergie qu'une recherche Google en 2008 (la dernière fois où Google a indiqué la consommation d'une recherche). Même en incluant les « coûts cachés » comme l'entraînement, les émissions liées à la fabrication du matériel, l'énergie utilisée pour le refroidissement et les puces d'IA en veille entre les prompts, le coût carbone d'un prompt moyen représente moins de 1/150 000ᵉ des émissions quotidiennes d'un Américain moyen (0,00067 %). La consommation d’eau : Les data centers aux États-Unis ont consommé 0,2% de l’eau douce du pays en 2023. L’IA ne représente que 20% de la consommation des data centers. Elle consomme donc 0,04% de l’eau douce américaine (ceci inclut la consommation d'eau pour produire l'électricité alimentant les data centers). Il est prévu que ce chiffre triple d’ici 2030, atteignant 0,12% de la consommation américaine d’eau douce. Cela équivaudra à 8% de la consommation d’eau par l’industrie du golf aux États-Unis. En 2030, les data centers d'IA consommeront annuellement autant d'eau que 0,07 % de la population américaine. À l’échelle individuelle, un prompt consomme 0,2 ml d’eau (à nouveau, en incluant l’eau utilisée pour produire l’électricité utilisée par le datacenter). Quotidiennement, avant l'arrivée de l'IA, l'Américain moyen utilisait l'eau équivalente à 800 000 prompts. Quelques équivalences consommation d’eau/prompts: Chaussures en cuir : 4 000 000 prompts Smartphone : 6 400 000 prompts Jean : 5 400 000 prompts T-shirt : 1 300 000 prompts Une feuille de papier : 2 550 prompts Un livre de 400 pages : 1 000 000 prompts Chaque seconde passée à marcher dans la rue use un peu vos chaussures, qui finiront par devoir être remplacées. Or, leur fabrication nécessite de l'eau. Andy Masley calcule que chaque seconde de marche consomme en moyenne autant d'eau que 7 prompts. Rester assis devant son ordinateur permet donc d'économiser de l’eau. Tout cela sans évoquer tous les bienfaits environnementaux qui seront apportés par l’IA (efficacité des chaînes d’approvisionnement, découvertes scientifiques, libération de ressources à investir dans le renouvelable, etc.)
Andy Masley@AndyMasley

There are so many insane wildly misleading stories coming out about data centers almost every day now that I'm mostly having to give up on commenting on them to focus on actually getting blog posts out, but it feels like a tsunami. I'll share one from just today as an example.

Français
18
220
608
70.9K
LLMgram retweetledi
Nico
Nico@nicos_ai·
Anthropic acaba de lanzar el abogado más barato del mundo Se llama claude-for-legal. Y esto es lo que es capaz de hacer: • Leer y revisar contratos • Redactar respuestas legales • Construir tablas de reclamaciones para juicios • Vigilar fechas de vencimiento y renovaciones • Conectarse solo a tus herramientas: Slack, DocuSign, Ironclad, Lexis+… Todo eso sin salir de Claude Cómo funciona: → Lo instalas en 60 segundos → Funciona en Claude Cowork, Claude Code o tu propia API → Es open-source y 100% gratuito Qué áreas cubre: • Contratos comerciales y privacidad • Litigación y regulatorio • Gobernanza de IA • Formación jurídica Lo que antes le llevaba horas a los abogados, ahora se hace en minutos Enlace abajo👇
Polymarket@Polymarket

JUST IN: Anthropic rolls out new Claude tools aimed at automating legal work for lawyers & law firms.

Español
181
1.3K
10.3K
2.6M