Gentleman Programming

4.3K posts

Gentleman Programming banner
Gentleman Programming

Gentleman Programming

@G_Programming

@GoogleDevExpert Angular | @MVPAward | Front End Architect | Gentleman Programming Community Owner | Book Author Collab: [email protected]

Spain Katılım Ağustos 2021
224 Takip Edilen15.5K Takipçiler
Sabitlenmiş Tweet
Gentleman Programming
Gentleman Programming@G_Programming·
Tu agente de IA se olvida de TODO cuando cierra la sesión. Cada decisión de arquitectura. Cada bug que resolvió. Cada patrón que descubrió. Perdido. La siguiente sesión arranca de cero. Como si nunca hubiera pasado nada. Hoy lanzo Engram — memoria persistente para agentes de IA. Un solo binario en Go. SQLite + FTS5. Sin Node, sin Python, sin Docker, sin ChromaDB. Funciona con CUALQUIER agente MCP: Claude Code, OpenCode, Cursor, Windsurf, Gemini CLI. ¿Cómo funciona? El agente trabaja con vos. Resuelve un bug → lo guarda. Toma una decisión de arquitectura → la guarda. Descubre un patrón → lo guarda. Todo estructurado, indexado, buscable. Siguiente sesión → el contexto se inyecta automáticamente. El agente recuerda. Pero acá viene lo mejor: memoria por proyecto. `engram sync` detecta automáticamente tu proyecto por el directorio en el que estás. Todo lo que el agente aprende se persiste en chunks comprimidos (gzipped JSONL) con content hashes, organizados en un manifiesto dentro del repo. ¿Qué significa esto para equipos? Que cuando tu compañero clona el repo y abre su agente, tiene TODO el contexto de las conversaciones que tuviste con la IA mientras trabajabas en esa funcionalidad. Sin Slack preguntando "che, ¿cómo hiciste esto?". Sin meetings de contexto. Sin documentación que nadie escribe. Es documentación viva que se escribe sola mientras trabajás. Cada dev genera chunks independientes → sin conflictos de merge. El manifiesto es append-only. Auto-import incluido. Algunas decisiones de diseño que tomamos: → El AGENTE decide qué guardar, no un pipeline de compresión externo. Ya tiene el LLM, ya tiene el contexto. ¿Para qué agregar otra capa? → Progressive Disclosure en 3 capas: búsqueda compacta → timeline → detalle completo. Eficiente en tokens. → 3 capas de resiliencia para sobrevivir compactación de contexto. → Tags \ redactados en 2 niveles antes de tocar la DB. → MIT License. Open source. Sin lock-in. 📦 brew install gentleman-programming/tap/engram 🔗 github.com/Gentleman-Prog… Si trabajás con agentes de IA para programar, probalo. Y si te copa, una ⭐ en GitHub siempre se agradece. #AI #DevTools #MCP #ClaudeCode #OpenCode #Cursor #GoLang #OpenSource #DeveloperProductivity #AIAgents #SoftwareEngineering #GentlemanProgramming
Gentleman Programming tweet media
Español
63
154
1.1K
86.5K
Gentleman Programming
Gentleman Programming@G_Programming·
☕ Daily Gentleman — Novedades de hoy (4 de Mayo) Hoy el tema no es que los modelos sean “caros”. El tema es que cada vez es más fácil gastar como si estuvieras en producción… cuando en realidad seguís pensando como si estuvieras en una demo. Claude Opus 4.7 mantiene el precio oficial en $5 por millón de tokens de input y $25 por millón de tokens de output, según Anthropic. El problema es que el coste real no depende solo del precio por token. Depende de cuántos tokens termina generando tu sistema, cuánto contexto repetís, cuántas veces reintentás, y qué modelo estás usando para cada parte del flujo. Y ahí está la trampa. Mejor modelo no significa mejor arquitectura. Si usás un modelo premium para todo —retrieval, formatting, retries, summaries, decisiones, boilerplate— no tenés un sistema inteligente. Tenés una tarjeta de crédito sufriendo. La jugada real es segmentar. Modelos baratos y rápidos para tareas mecánicas. Modelos premium para razonamiento final, decisiones complejas y partes donde equivocarse cuesta caro. Y en el medio: presupuestos por ruta, límites de tokens, caching para contexto estático, medición por workflow y alertas cuando algo se dispara. Porque una cosa es pagar más por mejor calidad. Otra muy distinta es pagar más porque tu agente repite basura, arrastra contexto viejo y llama al modelo caro para ordenar JSON. La ingeniería empieza cuando dejás de tratar el razonamiento como magia y lo empezás a tratar como un recurso premium. Para eso existe la orquestación. No mandes todo al modelo más caro. Separá memoria, contexto y ejecución. Usá gentle-ai para dirigir el flujo y Engram para no estar reconstruyendo contexto como un animal en cada request. Menos “probemos con el modelo grande”. Más arquitectura. Orchestrate > Overpay. Concepts > Code.
Español
6
8
82
2.1K
Gentleman Programming retweetledi
Gerard Ill
Gerard Ill@IllGerard·
@dramaricic If you really want to save tokens, check this out: github.com/Gentleman-Prog…. I've been using it for a while, and it's really effective. But its benefits go beyond just saving tokens. Take a look. It's a masterpiece by @G_Programming.
English
0
4
12
498
Juan Cruz Alric
Juan Cruz Alric@AlricJuan·
@G_Programming Grande querido!! 👏🏻. Para actualizar a la nueva versión te lo volves a instalar y listo?
Español
1
0
1
76
Gentleman Programming
Gentleman Programming@G_Programming·
Doble release este finde en el ecosistema Gentleman: Engram v1.15.2 y Gentle-ai v1.25.0. Las dos atacan el mismo problema desde ángulos distintos. 🧠 Engram v1.15.2 → Ambiguous project recovery Cuando trabajás desde una carpeta que NO es un repo pero contiene varios adentro (típica /work con clientes, open source y side projects), Engram no podía determinar a cuál asociar la memoria. Fallaba silenciosamente con un error de ambigüedad y la memoria no se guardaba. Vos pensabas que tu agente persistía contexto y nada quedaba registrado. Ahora, cuando detecta la ambigüedad, le pasa al agente la lista de proyectos disponibles y el agente te pregunta directamente: "encontré estos repos, ¿en cuál guardo esto?". Vos elegís, recién ahí se persiste. Cambios técnicos: • mem_save y mem_save_prompt reintentan tras ambiguous_project solo con proyecto user-selected • Validación estricta de matches exactos contra available_projects (previene colisiones tipo foo-bar vs foo--bar) • Reporta project_source: user_selected_after_ambiguous_project en éxito • Errores invalid_project_choice claros cuando el choice está vacío o inventado Release: github.com/Gentleman-Prog… ⚡ Gentle-ai v1.25.0 → Sustainable Review Workflow Está científicamente comprobado que pasadas las 400 líneas en un PR, la persona que hace review entra en burnout cognitivo. La calidad cae, los bugs se cuelan. En la era AI esto es crítico: si se generan 4000 líneas en una tarde y abrís UN solo PR, el reviewer no tiene chances. Esta release ataca el problema en dos capas: CAPA 1 → CI enforcement GitHub Action que aplica el cognitive review budget de 400 líneas sobre cada PR. Si te pasás, el check falla. Casos legítimos (trackers, agregados) los habilita el maintainer con el label size:exception. CAPA 2 → Guidance al agente Tres skills/docs inyectados al gentle-orchestrator: • Sustainable Review Workflow Skills: estructurar entregas grandes como cadenas revisables • SDD Workload Guard: forecastea la carga de review en planning, antes de codear • Delivery Strategy Guard: recomienda single PR / chained / phased según el tamaño previsto Otros cambios: • Rename: sdd-orchestrator → gentle-orchestrator (con compat legacy) • E2E más estable con Engram shim determinístico Y el mejor detalle: la release fue shippeada usando su propio framework. El PR tracker #415 agrupa 7 PRs encadenados, cada uno dentro del budget, con size:exception solo en el tracker. Dogfood puro. Release: github.com/Gentleman-Prog… Si la IA acelera la generación, las herramientas tienen que acelerar también la calidad. Update via brew o scoop.
Gentleman Programming tweet media
Español
3
12
92
2.1K
Gentleman Programming
Gentleman Programming@G_Programming·
🔥 Gentle-ai v1.25.1 → Post-upgrade fixes Fixes de migración tras v1.25.0: • Prompts preservados de OpenCode migran referencias legacy sdd-orchestrator → gentle-orchestrator • Sync elimina el agente gentleman revocado sin afectar agentes de perfil válidos • Backup del upgrade ya no inunda la terminal con diagnósticos verbose • Lock de project-name en Engram para este repo ⚙️ Gentle-ai v1.25.2 Ahora, cuando el trabajo excede las 400 líneas, el agente le pregunta al equipo qué estrategia prefiere: Stacked PRs to main — cada PR se mergea a main en orden. Iteración rápida, arreglás sobre la marcha. Ideal para startups y equipos que priorizan velocidad. Feature Branch Chain — todo se integra en un branch compartido con tracker. Solo el tracker llega a main. Ideal para equipos que necesitan control de rollback y releases coordinados. size:exception — mantenerlo como un solo PR con aprobación del maintainer. La elección se cachea en la sesión SDD igual que delivery_strategy y fluye por todo el pipeline: orchestrator → sdd-tasks → sdd-apply. No es una regla técnica, es una decisión de equipo. Ambas estrategias son válidas — reflejan prioridades distintas. Release: github.com/Gentleman-Prog… Si la IA acelera la generación, las herramientas tienen que acelerar también la calidad. Update via brew o scoop.
Español
1
0
14
623
Gentleman Programming
Gentleman Programming@G_Programming·
☕ Daily Gentleman — Novedades de hoy (3 Mayo) Hoy no hay humo. Hay algo mucho más importante: coste real en producción. Lo que se está consolidando alrededor de Anthropic y su API de Claude no es nuevo… pero ahora ya es imposible ignorarlo: Si no controlás tokens, estás volando a ciegas. Prompt caching, token budgeting y cost tracking no son “optimizaciones”. Son requisitos básicos. --- 📌 Prompt caching — la diferencia entre escalar o fundirte Claude permite cachear prefijos de prompt. ¿Traducción práctica? Si estás repitiendo contexto grande (system prompts, tools, historial), no hace falta pagar todo cada vez. Pagás una vez → reutilizás → coste marginal baja muchísimo. Si no hacés esto, cada request es como si empezaras de cero. Y eso, en producción, te destruye. --- 📌 Token budgeting — decisiones antes de ejecutar, no después Equipos que lo hacen bien: Estiman tokens antes de llamar al modelo Definen límites por workflow / usuario / día Cortan o redirigen requests caras automáticamente Esto no es teoría. Es control. Porque cuando el modelo ya corrió… ya pagaste. --- 📌 Cost tracking — lo que separa demo de sistema real Sin métricas, no hay sistema. Dashboards de coste en tiempo real Alertas (tipo Prometheus) Reglas para detectar runaway usage El patrón es claro: > No esperes a la factura. Detectalo en runtime. --- 🧠 El punto clave Todo esto confirma algo que vengo repitiendo: No estás construyendo prompts. Estás construyendo sistemas de decisión bajo coste. Si tu arquitectura no separa: memoria contexto ejecución no podés optimizar nada. --- 🧩 Donde entra tu stack En vez de reinventar esto en cada proyecto: Orquestá con tu capa (flows, límites, fallback) Delegá memoria en algo pensado para eso 👉 gentle-ai para control de ejecución 👉 Engram para memoria persistente y reutilizable Así dejás de pagar tokens por repetir contexto inútil. Menos magia. Más ingeniería. Concepts > Code.
Español
3
16
131
4.8K
Gentleman Programming
Gentleman Programming@G_Programming·
Cerrás la laptop. Abrís otra máquina. Tu agente arrancó de cero. 200 mensajes de contexto. Decisiones de arquitectura. Bugs resueltos. Todo se fue. Hoy lancé Engram Cloud. La pieza que faltaba. Local first. Self hosted. Open source. Tu data vive donde vos decidís. Si mañana yo desaparezco, tu cloud sigue funcionando porque está en tu servidor. No es un SaaS. No es cloud de otro. Es tuyo. Video en comentarios. #AI #OpenSource #LocalFirst #DevTools #SelfHosted
Gentleman Programming tweet media
Español
5
26
206
4.7K
Gentleman Programming
Gentleman Programming@G_Programming·
🔴 STREAM HOY - Live Coding + Novedades del Mundo Tech Buenas! Como todos los días, nos juntamos a programar en vivo y a repasar lo último que está pasando en el mundo de la tecnología. Vamos a meter mano al opensource, charlar de las novedades que aparecieron esta semana, y como siempre, responder todo lo que tiren en el chat. ¿Qué vamos a ver? - Live coding sin filtro - Las novedades tech que importan (y las que no) - Charla abierta con la comunidad 🕘 Horarios: 🇪🇸 España: 21:00h 🇦🇷 Argentina: 17:00h 🇨🇱 Chile: 17:00h 🇺🇾 Uruguay: 17:00h 🇨🇴 Colombia: 15:00h 🇵🇪 Perú: 15:00h 🇲🇽 México (CDMX): 14:00h 📍 Nos vemos acá: doras.to/gentleman-prog… Dale que va, los espero 🔥 #GentlemanProgramming #LiveCoding #DevLife #Stream #Tecnologia
Español
1
4
51
1.3K
Gentleman Programming
Gentleman Programming@G_Programming·
☕ Daily Gentleman — Novedades de hoy (2 Mayo) Anthropic sigue marcando el ritmo con modelos más capaces pero también más caros de operar. Con Claude Opus 4.7 el cambio no vino por precio por token… vino por uso real. Más tokens por input. Más reasoning por defecto. Más coste sin cambiar pricing. La diferencia ya no está en quién tiene acceso, sino en quién puede sostenerlo en producción. Si no controlás coste por decisión, no tenés sistema. El ecosistema alrededor de OpenAI y compañía sigue empujando agentes más “capaces”. En la práctica, eso se traduce en más orquestación, no menos. Si no definís límites y flujo, el sistema se vuelve impredecible rápido. Y del lado dev, lo que está pasando con Angular, SSR y seguridad confirma algo importante. El runtime importa más que el framework. Mover lógica al servidor ya no es optimización, es control. Todo conecta en el mismo punto. Estás intentando resolver problemas de sistema con prompts. Eso no escala. Necesitás separar memoria, contexto y ejecución. Orquestá con gentle-ai y dejá que Engram haga lo suyo con la memoria. Menos magia. Más ingeniería. Concepts > Code.
Español
2
7
132
3.8K
Rebelde
Rebelde@omarelunico·
@G_Programming que opinas si unimos SDD con TDD tenemos lo mejor de dos mundos y software de alta calidad
Español
1
0
1
15
Gentleman Programming
Gentleman Programming@G_Programming·
☕ Daily Gentleman — Novedades de hoy (1 Mayo) Anthropic volvió a ajustar precios y uso de tokens. Más potencia, sí, pero cada interacción pesa más en coste real. Si no estás midiendo por flujo completo, estás volando a ciegas. El ecosistema de Angular sigue empujando SSR y seguridad. El mensaje es simple. El frontend puro ya no alcanza para sistemas serios. Si no controlás backend y runtime, no controlás nada. Y los “agentes autónomos” siguen en hype. En producción eso se traduce en más llamadas, más latencia y más dinero quemado. Sin estructura, no escala. Acá es donde cambia el juego. Si estás resolviendo todo con prompts gigantes, estás en el camino caro. Necesitás memoria real, contexto curado y control de ejecución. Usá gentle-ai para orquestar y Engram para manejar memoria como corresponde. No es más modelo. Es sistema. Concepts > Code.
Español
3
15
176
4.8K
Erny Batista
Erny Batista@ernybatista13·
@G_Programming @FredyCabal36280 Hay algún comando para corregir contexto en la memoria para saber si hay conflicto en datos guardados?. Actualmente uso engram lo mejor que he probado por eso me interesa tener siempre una memoria coherente
Español
1
0
1
29
Gentleman Programming
Gentleman Programming@G_Programming·
⚠️ Ojo con Claude Opus 4.7 porque esto pega directo en el bolsillo: Nuevo tokenizer = el mismo texto puede consumir más tokens. ¿Traducción para humanos? 💸 Mismo prompt 💸 Más tokens 💸 Más coste real 💸 Menos contexto disponible 💸 Agents que empiezan a romper antes Y acá viene el problema: la mayoría no va a ponerse a hacer auditorías finas, caching, telemetry, dashboards y toda esa fiesta. Seamos honestos: eso no lo hace una persona normal. Por eso cada vez tiene más sentido usar algo como Engram. La idea es simple: en vez de mandarle TODO el contexto al modelo cada vez, tenés una memoria externa que recupera lo importante cuando hace falta. Menos contexto basura. Menos tokens quemados. Más continuidad. Más control. Porque el futuro no es meterle 200k tokens a todo como animal. El futuro es memoria bien usada. Concepts > Code.
Español
7
18
159
7.9K
Gentleman Programming retweetledi
dax
dax@thdxr·
tired of this misinformation so we made a video on the truth behind the anthropic vs opencode drama
English
382
160
3.9K
381.3K
Gentleman Programming retweetledi
Gentleman Programming
Gentleman Programming@G_Programming·
@rickuio El de Gentle-AI ! Y no se aprende solo se usa :) es un cerebro para tu agente no para ti, tu no tienes que hacer nada
Español
0
0
3
215
h4kuVG
h4kuVG@FarisIIIN·
@G_Programming Alan, gracias por Engram ahora en toda mi facultad solo hablamos de ello.
Español
1
0
1
16