Sabitlenmiş Tweet
Alfredo
10.8K posts

Alfredo
@brolag
🚀 Building in public @_indie_mind | Comparto lo que aprendo sobre AI, agentic engineering y productividad.
Costa Rica 🇨🇷 Katılım Ağustos 2009
1.3K Takip Edilen6.4K Takipçiler

Link al skill:
gist.github.com/brolag/48d98f6…
Configúralo como cron job nocturno (e.g., 2 AM). Está diseñado para correr sin supervisión:
- 1 mutación por ciclo (estabilidad > velocidad)
- Backup automático antes de cada cambio
- Rollback si el score baja
- Cada mutación tiene ID para trazabilidad
- El skill no puede editarse a sí mismo
El agente que usas hoy debería ser peor que el de mañana.
Español

El patrón viene de tres lados:
🤫 Un rumor de que Claude ahora tiene su propio skill de /dream (no me consta).
🧠 Neurociencia: el cerebro dormido revisa el día, fortalece conexiones útiles, poda lo irrelevante y consolida en memoria. Sin ese ciclo, no aprendes.
🔬 autoresearch (Karpathy): un agente modifica su propio código de training, entrena 5 min, mide si mejoró, y decide si conserva o descarta. Loop autónomo toda la noche. github.com/karpathy/autor…
/dream fusiona estas ideas. Pero en vez de optimizar pesos de un modelo, optimiza los prompts y comportamiento del agente.
Español

Los agentes de IA no deberían ser estáticos.
Diseñé /dream: un ciclo nocturno de auto-mejora para agentes autónomos.
Mientras duermes, el agente puede:
1. Medir: Audita sus logs del día y genera un Score (0-10). ¿Dónde falló? ¿Dónde lo corrigió el humano?
2. Mutar: Identifica el gap de mayor impacto y busca mejores patrones para sus prompts.
3. Evaluar: Si el cambio es de bajo riesgo, se auto-parchea con backup. Si es de sistema, genera una propuesta para revisión humana.
4. Rollback: Si el score cae 2+ puntos, revierte automáticamente.
5. Consolidar: Genera un Dream Report con toda la información del proceso.
Interés compuesto aplicado a la inteligencia agéntica.
🧵👇

Español
Alfredo retweetledi

Esto es increíble, modelos de 96GB serán reducidos al menos a 16GB. Modelos más poderosos se podrán ejecutar en máquinas de consumidor sin pérdida . Se reduce el tamaño DESDE 6 veces!
Google Research@GoogleResearch
Introducing TurboQuant: Our new compression algorithm that reduces LLM key-value cache memory by at least 6x and delivers up to 8x speedup, all with zero accuracy loss, redefining AI efficiency. Read the blog to learn how it achieves these results: goo.gle/4bsq2qI
Español
Alfredo retweetledi

WhatsApp is broken in @openclaw 2026.3.22
If WA is your primary channel, do not update yet. The WA plugin completely fails to load, and you'll see the plugin not available across all entry points/onboarding.
Gateway runs fine, but WA is gone.
Report:
github.com/openclaw/openc…

English
Alfredo retweetledi

@brolag Porqué no usar tmux con bash? Pone el todo como un simple txt donde cada línea sea ese ítem y el bash que vaya línea por línea creando tabs dentro de una sesión de tmux?
Español
Alfredo retweetledi
Alfredo retweetledi

@danazkari Puramente.
Si que horror CoffeeScript. Pero que tuanis ponerle CoffeeClaw a alguno de esos harness.
Español

@brolag Me siento como cuando jQuery estaba en su cúspide y estaban empezando a salir frontend frameworks cada 8min en promedio (y salió aquella abominación de CoffeeScript 🤮)
Español
Alfredo retweetledi

Recordatorio: Los MCPs ya no se comen tu contexto como antes lo hacían.
Claude Code implementó Tool Search en enero y hace lazy loading: sólo carga las definiciones que necesita, cuando las necesita.
Resultado: -47% de tokens en uso real. De 51K a 8.5K con 4+ servers.
Cursor lo tiene también. Se llama Dynamic Context Discovery.
Si habías dejado de usar MCPs por miedo al contexto, ahora incluye los que necesitas, sin temor.
Español







