Joe Colunga 🇦🇷 🏳️‍🌈

89.4K posts

Joe Colunga 🇦🇷 🏳️‍🌈 banner
Joe Colunga 🇦🇷 🏳️‍🌈

Joe Colunga 🇦🇷 🏳️‍🌈

@JoseColunga

Ingeniero en Informática 🤓 #digitalNomad #biPride🏳️‍🌈 #Libertario Codeo full IA desde 2023. Amo #gamificación 🏆 (RT != endorse) (retweet NO es coincidir)

가입일 Nisan 2008
395 팔로잉842 팔로워
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
The Startup Ideas Podcast (SIP) 🧃
Every AI agent you build should start with these 2 files. File 1: agents.md (your onboarding doc) This is the context file your agent loads every session. Put in here: - Your role and business info - Working preferences and tools - Communication style File 2: memory.md (your self-improving loop) This is where your agent saves what it learns over time. It stores things like: - "Sign off emails with warm regards, not cheers" - "Client comms stay on email, not Slack" - "No dark mode on the website" The result: agents md = who you are memory md = what the agent has learned One gives context. The other compounds intelligence. Set both up. That's where agents stop being tools and start being employees.
GREG ISENBERG@gregisenberg

In case you missed it... This 58 min video is the clearest introduction to AI agents, agent skills, md files, building AI employees on the internet and it's 100% free

English
3
10
69
5.2K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Felipe R Lahiteau🌈
Felipe R Lahiteau🌈@felipelahiteau·
Qué país maravilloso
Español
24
232
1.9K
36.4K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Priyanka Vergadia
Priyanka Vergadia@pvergadia·
🤯BREAKING: Researchers just mathematically proved that AI layoffs will collapse the economy: and every CEO already knows it. The AI Layoff Trap. A game theory paper from UPenn + Boston University is glaringly important! 100K+ tech layoffs in 2025. 80% of US workers exposed. And no market force can stop it. → Every company fires workers to cut costs → Every fired worker stops buying products → Revenue collapses across every sector → The companies that fired everyone go bankrupt It's a Prisoner's Dilemma with math behind it. Automate and you survive short-term. Don't automate and your competitor kills you. But everyone automating destroys the demand that makes all companies viable. UBI (universal basic income) won't fix it. Profit taxes won't fix it. The researchers found only one solution: a Pigouvian automation tax "robot tax" The AI trap on the economy is here!
Priyanka Vergadia tweet media
English
248
825
3.5K
484.7K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Finanzas Argy 🇦🇷
Finanzas Argy 🇦🇷@FinanzasArgy·
🔴✈️ Por la guerra en Medio Oriente, volar desde la Argentina al exterior cuesta hasta un 30% más caro que hace dos meses, con una suba promedio de 15,6%: el pasaje promedio subió de US$715 a US$824 👉🏻 El combustible explica cerca del 40% de los costos según fuentes del sector.
Español
4
25
420
38.4K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Miguel Ángel Durán
¡Esto es el futuro! El gobierno de Francia ha lanzado un MCP oficial para agentes de IA. Busca, explora y analiza datos públicos. Y todo de código abierto. ¿Para cuando en España? → github.com/datagouv/datag…
Miguel Ángel Durán tweet media
Español
28
91
716
39.9K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Bober_smart
Bober_smart@Bober_smart·
1.Download Obsidian → create a new vault (folder) 2.Download Claude Desktop (Claude Code) 3.Point Claude to the path of your vault 4.Paste the prompt from the article > Just 4 steps and 10 minutes of your time The face I made when I realized I had been suffering all this time, not knowing such simple things
Defileo🔮@defileo

x.com/i/article/2041…

English
101
448
6K
1.6M
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Miguel Ángel Durán
¿Quieres que tu sesión de Claude Code y Codex dure más? Haz que hable como un cavernícola. Esta Skill hace que tu agente responda en modo "unga bunga" pero manteniendo la precisión técnica. Resultado: hasta 75% menos de tokens → github.com/JuliusBrussee/…
Miguel Ángel Durán tweet media
Español
40
142
1.8K
106.6K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Tansu Yegen
Tansu Yegen@TansuYegen·
Former BYD and Huawei engineers made a device that turns any bike electric, reaching 32 km/h ⚡
English
125
717
6.9K
964.8K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
ELDUCK
ELDUCK@elduckpost·
Siempre me pregunté cómo armaban una silobolsa, ahora lo sé:
Español
31
250
2.4K
75.1K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Google Cloud Tech
Google Cloud Tech@GoogleCloudTech·
Go from zero to production-ready agent in 60 seconds with the Agent Starter Pack on @github. Use 𝚞𝚟𝚡 𝚊𝚐𝚎𝚗𝚝-𝚜𝚝𝚊𝚛𝚝𝚎𝚛-𝚙𝚊𝚌𝚔 𝚌𝚛𝚎𝚊𝚝𝚎 and you'll have a fully functional agent project ready for you to explore and customize → goo.gle/3NSj8lK
Google Cloud Tech tweet media
English
14
125
750
39K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Carlos Santana
Carlos Santana@DotCSV·
A la mínima que hayáis leído el análisis hecho por AISLE os daréis cuenta de que la crítica hecha aquí no tiene fundamento. El motivo es que AISLE no ha reproducido realmente la tarea que Mythos ha resuelto (dejar que el LLM escanee proyectos completos hasta encontrar sin intervención humana las vulnerabilidades). En el caso de AISLE se les ha dado como input al sistema las zonas de código más delicadas, ya conocidas previamente a través de los reports de Anthropic, para examinarlas con modelos menos potentes que sí han encontrado las vulnerabilidades que se esperaban. Es decir, no se está evaluando la capacidad de búsqueda real, sino la capacidad de análisis una vez el problema ya ha sido prácticamente aislado. Y de ahí se ha saltado a concluir "los modelos menos potentes hacen la misma labor que Mythos", lo cuál es erróneo. Por hacer una analogía sería como si a mi me ponen a buscar una aguja en un pajar y la encuentro tras mucho trabajo duro. Mientras que a otra persona le señalan la aguja entre toda la paja y le preguntan ¿es aguja o es paja? y al acertar concluyen que nuestras capacidades son iguales. -- Soy el primero que cree (opinión) que Anthropic no saca a Mythos no por miedo, sino por falta de computación para poder desplegarlo. Lo dije en mi vídeo y ya lo dije incluso cuando surgieron las primeras filtraciones hace unas semanas. Pero eso no es incompatible con que el modelo sí representa un salto en capacidades inesperado, al menos por lo visto sobre el papel. Y que gran parte de la gente que trabaja en Anthropic sí se toma muy enserio los riesgos tras estos modelos (en algunos puntos rozando una paranoia exagerada, a mi gusto). Reducirlo todo a "lo hacen porque marketing, porque IPO, porque dinero, porque 2019..." es hacer una sobre-simplificación de la situación que minimiza riesgos reales de desplegar este tipo de modelos al públicos. Por ejemplo, argumentar que porque "George Hotz (hacker famoso) dice que es capaz de encontrar 0days con facilidad, porque no es tan difícil pero que no hay incentivos para buscarlos, y que por tanto lo de la IA no es tan impresionante", es mover el foco de donde está el problema. Es el equivalente a decir que los deepfakes no son un problema porque ya los profesionales de efectos especiales antes lo hacían con software de FX. El problema no es de capacidad sino de escala. Antes sólo unos pocos podían hacer eso y hoy en día con la IA y muy pocos recursos, cualquiera podrá hacerlo. La democratización de estas capacidades es "el problema" al que nos enfrentamos con una incertidumbre total. Quizá no pase nada. Quizá estemos jodidos. O quizá sea algo intermedio. Ya os digo. A día de hoy si yo fuera el líder de una de estas empresas no tendría claro cuál sería la decisión más acertada a la hora de desplegar este tipo de modelos cada vez más potentes en abierto al público.
Diario de un picateclas@devruso

ahora que han pasado unos días desde la "presentación" de Mythos y os habéis calmado, vamos a revisar que es lo que ha pasado exactamente. Anthropic saca Mythos, su nuevo modelo. Ahora ya si que si, AGI. Esta vez si que si de verdad de la buena. Los devs desaparecerán en 6 meses. 99999999% en SWE Benchmark Ultra Hyper Difficult. Es un cuatrillón de veces mas mejor que Slopus 4.6. Novecientos ochenta y cuatro gaziliones de parámetros. Ha encontrado vulnerabilidades en todos los proyectos. Dario está tan aterrorizado que ha decidido no sacar el modelo al público (de momento). Efectivamente, es game over. dep en rip en paz, el shur de forocoches tenían razón. ¿O no? Vamos por partes. "Es que este modelo es tan brutal que no lo vamos a sacar al público porque va a colapsar el mundo". Durísimas declaraciones. Ya las hemos escuchado antes. Mas de una vez. En su momento Dario era el vicepresidente de investigación en OpenAI. Y ya hacía las mismas afirmaciones allá por el 2019. Literalmente. OpenIA dijo exactamente lo mismo, palabra por palabra, para GPT-2. businessinsider.com/openai-text-ge… Hay que entender la situación general para saber el por que de estas declaraciones. A lo mejor habéis leído algo de que Anthropic factura unos cuantos billones. Son cifras "anualizadas". ¿Que significa anualizadas? Significa que han cogido el periodo mas bonito en términos fiscales (ej el mes que mas facturación tenían porque han cerrado varios contratos muy grandes) y han multiplicado por 12. Ta-ta-ta-chaaaaaaaannnnnn... Pero en el mundo real, si yo tengo 10 clientes y les facturo 1000€ anualmente, y da la casualidad de que a todos les facturo en Enero, eso no significa que mi facturación anual va a ser 1000€ * 10 * 12. Pos ea. Un truqui que habéis aprendido. Pero volvamos al tema. Anthropic necesita dinero. Mucho dinero. Muchisimo. No os hacéis una idea del pozo en el que están metidos (ellos, OpenIA y todos los demás jugadores). Necesitan tanto dinero que literalmente la economía yanki (y por extensión, la del resto del mundo) está aguantando la respiración para ver que ocurre, porque como esto pete lo del 2008 va a ser una tarde de relaxing cup of café con leche en la plaza Mayor. ¿Y que hace cualquier empresa grande que necesita dinero y que ya va por la ronda G de financiación y el stock está mas diluido de unas gotas homeopáticas? Una IPO. Pronto. A finales de este año, por ejemplo. Pero para la IPO necesitan crear expectativas. Necesitan hypear a la gente. Necesitan que se hable de Anthropic. No lo estoy explicando bien. Lo intento de nuevo. Dario tiene el *deber fiduciario* (responsabilidad legal) de hacer absolutamente todo lo posible para que la IPO salga de tal manera para maximizar el beneficio económico de los inversores. Y obviamente si a pocos meses de la IPO sacan un modelo que es el game over de todo y para todo, pues... stock go brrrr, expectativas go brrr, IPO go brrrr, Dario go brrrr. Ahora que entendemos la motivación legal y económica de Dario, vamos a analizar el anuncio en sí. red.anthropic.com/2026/mythos-pr… > el modelo es tan avanzado que encuentra vulnerabilidades en todos los proyectos a los que se le ha dado acceso: ffmpeg, firefox, openbsd, el kernel de linux > y por esa misma razón, prefieren guardarlo bajo llave de momento y darle acceso solo a unas cuantas empresas (que, asumo, lo usarán para buscar vulnerabilidades en sus propios productos y parchearlos) Nice. Very nice. Impressive. "Veamos ahora con los modelos que ya tenemos!" Llega AISLE, una empresa que se dedica a la cyberseguridad, y empieza a hacer preguntas. ¿pero este ejercicio cuanto ha costado? ¿se puede replicar? ¿se puede replicar con otros modelos? ¿cual es la severidad real de esas vulnerabilidades? aisle.com/blog/ai-cybers… Oh boy... se va a liar... Pues resulta que de los 8 modelos que probaron, 8 pudieron detectar el mismo fallo que Mythos detectó en openbsd. Ídem con otro fallo de nfs en freebsd. AISLE no refuta que Mythos no sea bueno, que lo es. Lo que refutan es que presente un peligro como el que Anthropic intenta hacer entender. Es decir, AISLE demuestra que lo que Anthropic afirma de Mythos ("puede buscar y encontrar vulnerabilidades en proyectos") ya lo hacen otros modelos. Y lo hacen igual de bien. También es cierto que AISLE es una empresa que se dedica a buscar vulnerabilidades con su sistema de IA. Podríamos argumentar que está en su interés desacreditar las afirmaciones de Anthropic. Vamos a ver que opinan otras personas. Yann LeCun (vicepresidente y científico jefe de IA en Meta): "el drama de Mythos son tonteías producto del autoengaño" x.com/ylecun/status/… Dawid Moczadlo (cto de vidoc security): "llevamos meses encontrando vulnerabilidades en el kernel de linux usando otros modelos. Puede que Mythos sea mejor (que los modelos actuales), pero no es ni de lejos la amenaza que Anthropic hace creer" x.com/kannthu1/statu… George Hotz ("geohot", hacker, famoso por sus jailbreaks de ios y ps3, founder de tinygrad): "encontrar 0days no es tan difícil. No aparecen 0days todos los días porque nadie quiere mirar. Encontrar fallos en el código de mierda de la gente (y lucrarse por ello) es ilegal y los criminales no suelen tener mucha habilidad; de tenerla, no serían criminales" linkedin.com/posts/george-h… Y aquí voy a permitirme hacer un +1 de geohot. Encontrar 0days no es tan difícil. Yo he encontrado unos cuantos (chungos de cojones; x.com/devruso/status…) y la ciberseguridad no es ni de lejos mi área principal. El problema es que encontrar vulnerabilidades no solo no es lucrativo, sino que en España es ilegal (x.com/devruso/status…) y corres el riesgo de meterte en un buen marrón incluso aunque tus intenciones sean buenas. Obviamente si tus intenciones son lucrarte vendiendo 0days, olvídate de hacerlo legalmente. Y este es el punto de Geohot. No salen 0days todos los días porque nadie tiene el incentivo de buscarlos, no porque realmente sean tan difíciles de encontrar. Anyways, que nos desviamos del tema. ¿A donde quiero llegar con todo esto? ¿Que significan todas estas cosas? Significan que no os lancéis a la primera afirmación que suelta alguien. Y menos en este campo en particular, en estos últimos 3-4 años. Es muy probable que os estéis comiendo una (otra más) bola de hype. Hay muchísimos intereses ocultos (y no tan ocultos) y hay muchísimas maneras de decir las verdades a medias para pintar escenarios que dan a entender cosas que no son. ¿Pero todo esto quiere decir que Mythos no va a ser bueno? Obviamente no. Mythos será mejor que Opus (o eso espero, vaya). Pero Mythos no va a ser el fin de los tiempos. No se va a acabar el mundo. Resumiendo, solo os pido que no caigáis (una vez más) en el "ahora ya si que si".

Español
19
33
329
35.4K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Nav Toor
Nav Toor@heynavtoor·
Karpathy's LLM Wiki got 5,000 stars in 48 hours. Now someone extended it with the features it was missing. Memory lifecycle. Confidence scoring. Knowledge graphs. Automated hooks. Forgetting curves. It's called LLM Wiki v2. The original pattern was brilliant. AI builds a wiki instead of re-deriving knowledge from scratch every time. But it treated all knowledge as equally valid forever. In practice, that breaks. Here's what v2 adds: → Confidence scoring. Every fact carries a score. How many sources support it. How recently confirmed. Whether anything contradicts it. Knowledge that decays over time. Not everything is equally true forever. → Memory tiers. Working memory for recent observations. Episodic memory for session summaries. Semantic memory for cross-session facts. Procedural memory for workflows. Each tier more compressed and longer-lived. → Knowledge graph. Not flat pages with links. Typed entities with typed relationships. "A caused B, confirmed by 3 sources, confidence 0.9." Graph traversal catches connections keyword search misses. → Hybrid search. BM25 for keywords. Vector search for semantics. Graph traversal for structure. Fused with reciprocal rank fusion. Replaces the index .md file that breaks past 200 pages. → Automated hooks. On new source: auto-ingest. On session end: compress and file. On schedule: lint, consolidate, decay. The bookkeeping that kills wikis is now fully automated. → Forgetting curves. Facts that haven't been accessed or reinforced in months fade. Not deleted. Deprioritized. Architecture decisions decay slowly. Transient bugs decay fast. → Contradiction resolution. AI doesn't only flag contradictions. It resolves them based on source recency, authority, and supporting evidence. Here's the wildest part: The original LLM Wiki was a flat collection of equally-weighted pages. This turns it into a living system with memory that strengthens, weakens, consolidates, and forgets. Like a real brain. "The Memex is finally buildable. Not because we have better documents or better search, but because we have librarians that actually do the work." Built on lessons from agentmemory, a persistent memory engine for AI agents. Extends Karpathy's original. Open Source.
Nav Toor tweet media
English
44
193
1.5K
106.6K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Chris
Chris@everestchris6·
this OpenClaw bot finds $500k–$1.2M homes without pools, renders a pool into their backyard, and mails the owner a postcard showing the before/after, on autopilot... here's how pool builders can close $50k+ deals with this system: - scans satellite imagery for mid-market homes with empty backyards - filters by lot size, sun exposure & recent ownership change - pulls the homeowner direct from public records (not shared leads) - renders a luxury pool dropped into their actual yard - calculates build cost + home value lift for their specific zip - generates a cinematic video of their backyard with the new pool - prints a personalised postcard with the before/after + QR code - drops it in the mail + hits them with retargeting every step from sourcing to outreach is automated. reply "POOL" + RT and i'll send you the full breakdown so you can build this too (must be following so i can DM)
English
1K
825
7K
1.1M
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Google en español
Google en español@googleespanol·
Pediste una mejor forma de organizar tus proyectos, y te escuchamos. 🛠️✨ Presentamos Gemini Notebooks. Ahora puedes crear libretas directamente en nuestra aplicación para agrupar tus chats, archivos PDF y fotos en un solo lugar. Gemini mantiene el contexto profundo para que retomes tu trabajo donde lo dejaste. 🚀 🔒 Y lo más importante: los documentos que subas no se usan para entrenar nuestros modelos base. Pruébalo ahora: 🔗 gemini.google.com 📌 Disponible por ahora para suscriptores de Google AI Pro y Ultra.
Español
9
47
366
18.4K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Agustín Etchebarne
Agustín Etchebarne@aetchebarne·
Si aún no están al tanto de Anthropic Myth. Como mínimo, no dejen de leer este artículo. Las implicancias son enormes. Argentina no está ni mínimamente preparada para defenderse de ataques cibernéticos y eso es infinitamente más importante que tener F16 o SuperEtendard. En La Fundación lo venimos advirtiendo desde hace 15 años a todos los gobiernos. El Banco Nación no creo que pueda tener un esquema de seguridad comparable al JP Morgan por ej. Esto no es un tema ideológico, es un tema de seguridad nacional.
Agustín Etchebarne tweet media
Español
128
164
1.1K
120.2K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Peter Steinberger 🦞
Yeah folks, it's gonna be harder in the future to ensure OpenClaw still works with Anthropic models.
Peter Steinberger 🦞 tweet media
English
543
246
5.4K
1.4M
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Noah Zweben
Noah Zweben@noahzweben·
Claude now supports dynamic looping. If you run /loop without passing an interval, Claude will dynamically schedule the next tick based on your task. It also may directly use the Monitor tool to bypass polling altogether /loop check CI on my PR
English
58
164
2.3K
268.6K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Browser Use
Browser Use@browser_use·
Supercharge Claude Code with Browser Use! 🍄 Try the Browser Use ecosystem in Claude Code > Browse the web like a human > Free, unlimited cloud browser hours Get started below ↓🔗
English
6
9
139
12.1K
Joe Colunga 🇦🇷 🏳️‍🌈 리트윗함
Thariq
Thariq@trq212·
New in Claude Code: /ultraplan Claude builds an implementation plan for you on the web. You can read it and edit it, then run the plan on the web or back in your terminal. Available now in preview for all users with CC on the web enabled.
English
515
656
10.3K
1.2M