urko

459 posts

urko banner
urko

urko

@urkopa

videmus nunc per speculum in aenigmate, tunc autem facie ad faciem

Bilbao, España Beigetreten Eylül 2021
302 Folgt20 Follower
urko retweetet
Martin Varsavsky
Martin Varsavsky@martinvars·
Solo en China puedes encontrar una guerra entre compañeros de trabajo tan despiadada que necesitó su propia solución tecnológica. Mientras el Partido Comunista lleva décadas hablando de solidaridad obrera, los trabajadores chinos están usando inteligencia artificial para documentar en secreto a sus colegas con un único objetivo: que los despidan antes que a ellos mismos. Así funciona. Las empresas chinas están pidiendo a sus empleados que escriban archivos detallados describiendo cómo trabajan, cómo deciden, cómo se comunican. La excusa es modernizar la empresa con IA. La realidad es que con esa información el jefe puede entrenar un agente de OpenClaw o similar para que haga exactamente lo mismo, sin sueldo, sin vacaciones, sin la molestia de tener opiniones propias. El empleado que entrega su skill con demasiado detalle básicamente está escribiendo su propia carta de despido con buena letra. Dada esta circunstancia, algunos trabajadores decidieron acelerar el proceso para el de al lado. El "colleagues.skill" es una herramienta que circuló en China para documentar no tu propio trabajo sino el del compañero, con suficiente detalle para que la empresa pueda reemplazarlo. "Solidaridad proletaria" en su máxima expresión. China es formalmente comunista y tiene uno de los mercados laborales más brutalmente competitivos del planeta. Un sistema que predica el colectivo y practica la jungla. La respuesta llegó esta semana en GitHub: el "anti-distill" (github.com/leilei926524-t…), una herramienta para entregar a tu empresa una skill que parece completa y profesional pero está vaciada de todo lo que realmente sabes. Una cáscara perfecta. Sabotaje con formato correcto y sin faltas de ortografía. Para los que querían ir más lejos, apareció también esta versión (github.com/Orzjh/anti-dis…).
Español
18
214
648
60.3K
urko retweetet
Juan
Juan@7uanF·
Los proyectos de GitHub que más están explotando este mes (guarda esto💾) 1. openclaw/openclaw (122K ⭐) — Tu asistente de IA personal que corre las 24 horas del día en cualquier sistema operativo. El que yo uso para orquestar todos mis agentes. 2. obra/superpowers (30.7K ⭐) — Framework de habilidades agénticas. Herramientas plug-and-play para potenciar tus agentes de IA al máximo. 3. ruvnet/RuView (30.4K ⭐) — Convierte señales WiFi normales en detección de poses humanas en tiempo real. Sin cámaras. Sin sensores. Solo WiFi. 4. 666ghj/MiroFish (17K ⭐) — Motor de inteligencia de enjambre capaz de predecir prácticamente cualquier cosa. 5. moeru-ai/airi (16K ⭐) — Compañero de IA self-hosted con chat de voz en tiempo real que corre en tu propia máquina. Tú lo controlas todo. 6. shanraisshan/claude-code-best-practice (11.8K ⭐) — El repositorio de buenas prácticas definitivo para construir con Claude Code. 7. badlogic/pi-mono (11.8K ⭐) — Kit completo para agentes de IA: CLI, API unificada para LLMs, interfaz web y bot de Slack incluidos. 8. bytedance/deer-flow (10.4K ⭐) — El SuperAgente open-source de ByteDance. Investiga, programa y crea contenido de forma autónoma. 9. shareAI-lab/learn-claude-code (9K ⭐) — Aprende a construir tu propio clon de Claude Code desde cero. Solo necesitas bash. 10. p-e-w/heretic (7.6K ⭐) — Elimina las restricciones de cualquier modelo de lenguaje de forma automática. El ritmo al que avanza la IA ahora mismo es difícil de procesar. Guarda esta lista — la del próximo mes va a ser completamente diferente.
Juan tweet media
Español
17
163
1.2K
80K
urko retweetet
João Pedro Azevedo
João Pedro Azevedo@jpazvd·
📊 Too much global development data still lives in spreadsheets. But modern analysis requires data acquisition as code. Today I’m pleased to share that the unicefData R package is now available on CRAN, providing direct programmatic access to the UNICEF Data Warehouse. Researchers, policymakers, and analysts can now retrieve 700+ internationally comparable indicators on children and women directly from R — enabling reproducible analytics, transparent workflows, and faster evidence generation. Install install.packages("unicefData") Example library(unicefData) df <- unicefData( indicator = "CME_MRY0T4", countries = c("BRA","USA","IND"), year = "2015:2023" ) Why this matters Reliable evidence depends not only on good data, but also on how easily that data can be accessed, reproduced, and reused. The unicefData package helps bridge the gap between official statistics and modern data science workflows by enabling: • Access to 700+ indicators across countries and years • Integration with reproducible research pipelines • Use of SDMX international statistical standards • Consistent interfaces across R, Python, and Stata Making official statistics more accessible, reproducible, and interoperable is an important step toward strengthening evidence for policies that improve outcomes for children. 📦 CRAN cran.r-project.org/package=unicef… #OpenData #OfficialStatistics #RStats #DataForChildren #ReproducibleResearch
English
11
198
811
39.8K
urko retweetet
Camus
Camus@newstart_2024·
Richard Feynman’s savage takedown of pseudo-science still burns in 2026: “Social science is an example of a science which is not a science. They follow the forms… but they don’t get any laws. They haven’t found out anything.” He goes harder: Experts who “sit at a typewriter and make up” claims — “organic food is better,” “this diet cures everything” — as if it’s settled science, when no rigorous experiments or checks have been done. Feynman: “I know what it means to really know something. How careful you have to be. How easy it is to fool yourself. I see how they get their information… and I can’t believe that they know.” The Nobel physicist calls it straight: most of what passes for “expert” opinion is noise dressed up as knowledge. In an age drowning in TikTok “science,” influencers, and clickbait studies — Feynman’s 1:52 rant feels more relevant than ever. Who’s the biggest pseudo-expert that grinds your gears right now? Clip is timeless fire — watch it and feel the clarity.
English
310
2.4K
9K
525.1K
urko retweetet
Mariluz Congosto (@congosto.bsky.social)
Para transparencia, la publicación de los algoritmos para detectar odio y donde está la raya roja que determina que es odio. Mostrar los resultados no es suficiente
Europa Press@europapress

🔴 Sánchez anuncia la herramienta 'HODIO', que permitirá medir la presencia, evolución y alcance de los discursos de odio en las redes sociales: "Va a ser una herramienta transparente y rigurosa. Cuando algo se mide, deja de ser invisible"

Español
2
15
26
1.3K
urko retweetet
Andrej Karpathy
Andrej Karpathy@karpathy·
Expectation: the age of the IDE is over Reality: we’re going to need a bigger IDE (imo). It just looks very different because humans now move upwards and program at a higher level - the basic unit of interest is not one file but one agent. It’s still programming.
Andrej Karpathy@karpathy

@nummanali tmux grids are awesome, but i feel a need to have a proper "agent command center" IDE for teams of them, which I could maximize per monitor. E.g. I want to see/hide toggle them, see if any are idle, pop open related tools (e.g. terminal), stats (usage), etc.

English
825
834
10.6K
2.4M
urko retweetet
Jaime Gómez-Obregón
Jaime Gómez-Obregón@JaimeObregon·
«Una herramienta» «Un instrumento» «Una huella» Me estoy jajeando al oír las piruetas dialécticas del presi para no decir que lo que está anunciando es, ay, 𝙊𝙏𝙍𝙊 𝙊𝘽𝙎𝙀𝙍𝙑𝘼𝙏𝙊𝙍𝙄𝙊 𝙈𝘼́𝙎. 🤣 ¿Y por qué traga saliva justo cuando dice la palabra «observatorio»? 😂
Español
119
715
2.3K
84.9K
urko retweetet
Bastián Olea 🌸
Bastián Olea 🌸@bastimapache·
Convierte cualquier texto a una tabla de datos con R! Aprende a extraer datos estructurados desde textos usando IA. Convierte entrevistas, reseñas, opiniones, correos, noticias y más en bases de datos con su información ordenada en filas y columnas 🤩 bastianolea.rbind.io/blog/datos_est…
Bastián Olea 🌸 tweet media
Español
0
78
452
14.6K
urko retweetet
Simplifying AI
Simplifying AI@simplifyinAI·
RAG is broken and nobody's talking about it 🤯 Stanford just dropped a paper on "Semantic Collapse," proving that once your knowledge base hits ~10,000 documents, semantic search becomes a literal coin flip. Here is why your RAG is failing: Past 10,000 documents, your fancy AI search basically becomes a coin flip. Every document you add gets turned into a high-dimensional embedding. At a small scale, similar docs cluster together perfectly. But add enough data, and the space fills up. Distances compress. Everything looks "relevant." It’s the curse of dimensionality. In 1000D space, 99.9% of your data lives on the outer shell, almost equidistant from any query. Stanford found an 87% precision drop at 50k docs. Adding more context actually makes hallucinations worse, not better. We thought RAG solved hallucinations… it just hid them behind math. The fix isn’t re-ranking or better chunking. It’s hierarchical retrieval and graph databases.
Simplifying AI tweet media
English
56
118
742
66.6K
urko retweetet
Juan Luis Hortelano
Juan Luis Hortelano@jlhortelano·
Google DeepMind acaba de hacer algo que creo que va a pasar desapercibido para la mayoría pero que tiene implicaciones muy importantes. Han cogido AlphaEvolve (su sistema de IA que "evoluciona" código como si fuese selección natural) y lo han puesto a diseñar algoritmos de teoría de juegos. No a ejecutarlos. No a optimizar parámetros. A inventar algoritmos nuevos desde cero. Y los algoritmos que ha descubierto funcionan mejor que los que los investigadores humanos llevan años perfeccionando. Vamos por partes, que esto tiene miga. Primero, el contexto. En teoría de juegos hay dos grandes familias de algoritmos para resolver juegos de información imperfecta (como el póker): CFR y PSRO. Llevan décadas siendo la base de todo. Los investigadores los mejoran publicando variantes — ajustando pesos, cambiando fórmulas de descuento, probando combinaciones. Es un trabajo lento, basado en intuición y papers de conferencias. Lo que ha hecho DeepMind es tratar el diseño de esos algoritmos como un problema de búsqueda. En vez de que un investigador piense "¿y si ajusto este parámetro?", AlphaEvolve trata el código fuente del algoritmo como un genoma que puede mutar, recombinar y seleccionar. No ajusta números. Reescribe lógica. Puede inventar operaciones nuevas que no existían. ¿El resultado? Dos algoritmos nuevos. El primero, VAD-CFR, introduce algo que ningún investigador humano habría probado: un mecanismo de "calentamiento" que filtra el ruido de las primeras iteraciones y pesos que se adaptan a la volatilidad de cada momento del entrenamiento. Lo probaron en 11 juegos distintos. Lo entrenaron solo en 4. Y los mecanismos funcionaron en los 7 que no había visto nunca. Es decir, no son trucos específicos para un juego — la lógica se generaliza. El segundo, SHOR-PSRO, descubrió por su cuenta algo que a un humano le costaría plantear: que el algoritmo que usas para entrenar y el que usas para evaluar deberían ser diferentes. Arranca explorando de forma agresiva y gradualmente va apretando hacia el equilibrio exacto. Esa asimetría es contraintuitiva (normalmente usas el mismo algoritmo en ambas fases) y sin embargo funciona mejor. Ahora bien, seamos realistas sobre el alcance. Estamos hablando de juegos relativamente pequeños. Variantes de póker, dados, Goofspiel. No es StarCraft. No son sistemas multiagente a gran escala del mundo real. Los algoritmos descubiertos no tienen garantías teóricas de convergencia — funcionan empíricamente, pero no están formalmente demostrados. Y ya había trabajo previo (DDCFR, 2023) que intentaba aprender parámetros de descuento con reinforcement learning. La diferencia es que esos enfoques anteriores ajustaban botones que ya existían. AlphaEvolve puede inventar botones nuevos. Esa distinción es clave: optimizar parámetros encuentra mejores ajustes. Evolucionar código encuentra mejores algoritmos. Y creo que ahí está la idea de fondo que merece la pena retener. El diseño de algoritmos siempre ha sido un proceso artesanal. Un investigador tiene una intuición, la formaliza, la prueba, publica un paper y otro investigador construye encima. Es lento. Es brillante. Y ha funcionado durante décadas. Lo que DeepMind está proponiendo (y demostrando) es que ese espacio de posibles algoritmos es tan enorme que la exploración humana solo araña la superficie. AlphaEvolve no entiende teoría de juegos. No tiene intuición. Pero explora ese espacio a una velocidad y con una amplitud que ningún equipo humano puede igualar. Y ya está encontrando cosas que los humanos no habían visto. Me recuerda a algo que llevo diciendo desde hace tiempo: la IA no va a sustituir al investigador. Pero el investigador que use IA va a dejar atrás al que no la use. Esto no es "la IA reemplaza a los diseñadores de algoritmos." Es que diseñar algoritmos acaba de convertirse en un problema que la IA puede ayudar a resolver. Y eso lo cambia todo... aunque suene menos llamativo que un titular sobre la singularidad. Estoy convencido de que vamos a ver esto en muchos más campos. La IA como herramienta de exploración de espacios de diseño que los humanos no podemos recorrer solos. Fármacos, materiales, arquitectura de redes, logística. El patrón es el mismo: hay un espacio enorme de posibilidades, la intuición humana explora un rincón, y la IA puede explorar el resto. La pregunta es si estamos preparados para aceptar que un algoritmo diseñado por una máquina (que no "entiende" lo que hace) puede ser mejor que el nuestro. Me da que a más de uno le va a costar ;) Paper: arxiv.org/abs/2602.16928
Español
27
166
748
81.6K
urko retweetet
Rosana Ferrero 📈📊🙌
Rosana Ferrero 📈📊🙌@RosanaFerrero·
📅 𝗘𝗹 𝗰𝗮𝗼𝘀 𝗱𝗲 𝗹𝗮𝘀 𝗳𝗲𝗰𝗵𝗮𝘀 𝗲𝗻 𝗮𝗻á𝗹𝗶𝘀𝗶𝘀 𝗱𝗲 𝗱𝗮𝘁𝗼𝘀 (𝘆 𝗰ó𝗺𝗼 𝗱𝗼𝗺𝗶𝗻𝗮𝗿𝗹𝗼) Trabajar con fechas en análisis de datos es una fuente constante de errores. Especialmente cuando el flujo depende de hojas de cálculo. #rstats #datascience #analytics
Rosana Ferrero 📈📊🙌 tweet media
Español
6
20
71
2.4K
urko retweetet
Rosana Ferrero 📈📊🙌
Rosana Ferrero 📈📊🙌@RosanaFerrero·
🚨Las 𝗽𝗿𝘂𝗲𝗯𝗮𝘀 𝗲𝘀𝘁𝗮𝗱𝗶́𝘀𝘁𝗶𝗰𝗮𝘀 que te han enseñado son solo 𝗰𝗮𝘀𝗼𝘀 𝗽𝗮𝗿𝘁𝗶𝗰𝘂𝗹𝗮𝗿𝗲𝘀 𝗱𝗲𝗹 𝗠𝗼𝗱𝗲𝗹𝗼 𝗟𝗶𝗻𝗲𝗮𝗹. Y, si comprendes esto, no necesitarás memorizar pruebas, ganarás claridad conceptual, potencia analítica y flexibilidad metodológica👇
Rosana Ferrero 📈📊🙌 tweet media
Español
1
37
197
5.7K
urko retweetet
Pablo Malo
Pablo Malo@pitiklinov·
Este post hace un estupendo resumen de un artículo que se pregunta si los grandes modelos de lenguaje (LLMs) pueden realmente descubrir ciencia o solo son buenos hablando de ella. Los resultados muestran que los modelos sugieren hipótesis aceptables, pero fallan en lo demás: se aferran a ideas erróneas, confunden correlación con causalidad, alucinan explicaciones y priorizan plausibilidad sobre verdad. La conclusión principal es que la inteligencia científica no es lo mismo que la inteligencia lingüística; requiere memoria, seguimiento de hipótesis, razonamiento causal y admitir errores, capacidades que los LLMs actuales aún no dominan, haciendo prematuras las afirmaciones sobre “científicos IA”
Alex Prompter@alex_prompter

This paper from Harvard and MIT quietly answers the most important AI question nobody benchmarks properly: Can LLMs actually discover science, or are they just good at talking about it? The paper is called “Evaluating Large Language Models in Scientific Discovery”, and instead of asking models trivia questions, it tests something much harder: Can models form hypotheses, design experiments, interpret results, and update beliefs like real scientists? Here’s what the authors did differently 👇 • They evaluate LLMs across the full discovery loop hypothesis → experiment → observation → revision • Tasks span biology, chemistry, and physics, not toy puzzles • Models must work with incomplete data, noisy results, and false leads • Success is measured by scientific progress, not fluency or confidence What they found is sobering. LLMs are decent at suggesting hypotheses, but brittle at everything that follows. ✓ They overfit to surface patterns ✓ They struggle to abandon bad hypotheses even when evidence contradicts them ✓ They confuse correlation for causation ✓ They hallucinate explanations when experiments fail ✓ They optimize for plausibility, not truth Most striking result: `High benchmark scores do not correlate with scientific discovery ability.` Some top models that dominate standard reasoning tests completely fail when forced to run iterative experiments and update theories. Why this matters: Real science is not one-shot reasoning. It’s feedback, failure, revision, and restraint. LLMs today: • Talk like scientists • Write like scientists • But don’t think like scientists yet The paper’s core takeaway: Scientific intelligence is not language intelligence. It requires memory, hypothesis tracking, causal reasoning, and the ability to say “I was wrong.” Until models can reliably do that, claims about “AI scientists” are mostly premature. This paper doesn’t hype AI. It defines the gap we still need to close. And that’s exactly why it’s important.

Español
23
153
523
40.7K
urko retweetet
Rosana Ferrero 📈📊🙌
Rosana Ferrero 📈📊🙌@RosanaFerrero·
🤔Hace poco, Daniel Lakens publicó una sátira brillante sobre lo que él llama el "Trastorno de Bayesianismo Dogmático".Aunque el tono es humorístico, el mensaje de fondo es vital para cualquiera que trabaje con datos: el tribalismo metodológico está frenando el avance científico.
Rosana Ferrero 📈📊🙌 tweet media
Español
3
13
82
4.6K