Marcelo Raimundo
3.6K posts


🚨🚨🚨 OPENAI, GOOGLE Y ANTHROPIC SE UNEN PARA FRENAR EL AVANCE DE CHINA EN IA
🔹 Las Big Tech coordinan acciones para detectar y bloquear el “copiado” de modelos
🔹 Apuntan a firmas chinas como DeepSeek por usar “distillation”
🔹 La técnica permite replicar capacidades de IA sin desarrollar modelos desde cero
🔹 EE.UU. estima pérdidas por miles de millones en propiedad intelectual
🔹 Crece la preocupación por modelos sin controles de seguridad
🔹 China avanza con modelos open-weight, más baratos y escalables
🔹 EE.UU. defiende modelos cerrados para proteger monetización
🔹 El tema ya escaló al Congreso y a la agenda de seguridad nacional
🔹 Las empresas comparten inteligencia, como en ciberseguridad
Fuente: @Bloomberg
👉 Fondo de la historia: guerra tecnológica global por el liderazgo en IA
Español

@sanz_ismael Es lo que vengo intentando en la formación de profes de historia hace un par de años memoria.fahce.unlp.edu.ar/library?a=d&c=…
Español

La pregunta como motor del aprendizaje. La claridad de una pregunta refleja comprensión, pensamiento crítico y aprendizaje real. La irrupción de la IA generativa desafía la educación superior. Mientras la IA puede generar respuestas brillantes en segundos, la capacidad de formular buenas preguntas sigue siendo exclusivamente humana. No se trata de prohibir #ChatGPT, sino de cambiar el foco: de evaluar respuestas a valorar la calidad de las preguntas. @NewsReputation @FUNCASES blog.funcas.es/el-poder-trans…

Español

@eudtoxic Tenés alguno para limpiar Chernóbil o Fukushima?
Español

Si estudiaron ciencias sociales o humanidades y tienen un PhD, les comparto una vacante que paga 70 USD por hora para entrenar a la AI
👉 t.mercor.com/1tc06
(cómo la lloran los liberopas que dicen que no estudiar cs sociales no paga nada, eh)
Español

@antonello Aparte de profesores, testers de Turing? Antonio me extraña...
Español

Un congreso científico sobre IA rechaza cientos de artículos tras descubrir que sus autores habían utilizado inteligencia artificial.
Que parece un poco contradictorio, pero es que además tendieron una trampa:
La International Conference on Machine Learning exige que quienes envían trabajos revisen también los de otros, y prohíbe el uso de IA para hacerlo.
Cómo era la trampa: distribuyeron artículos para revisión que incluían marcas de agua ocultas en el texto, con instrucciones dirigidas a las IA para que incorporaran determinadas frases.
En el reportaje de Nature cifran en alrededor del 2% el número de autores que fueron detectados y sus trabajos rechazados.
¡Esto podría ser un buen truco para profesores! hasta que gracias a trabajos como éste se haga más conocido, claro.
nature.com/articles/d4158…

Español

Esto va a encantar a la gente de historia, políticas y análisis cultural:
Los desarrolladores en China están usando estructuras de poder propias de la dinastía Tang para gobernar los agentes de inteligencia artificial.
OpenClaw, el sistema abierto de agentes que funciona en local, maneja herramientas en tu nombre, es proactivo y se maneja desde telegram lleva semanas causando furor en China,
PERO en esta adopción, hay una corriente que ve OpenClaw y su orquestación de agentes desordenada, tendente a alucinar y equivocarse (con mucha razón todo sea dicho).
De ahí nace un proyecto de código abierto chino llamado Edict, para orquestar los agentes de OpenClaw, pero inspirado en el sistema político de las Tres Secretarías y Seis Ministerios de la Dinastía Tang ¡del siglo VII!:
la secretaría de planificación, la cancillería de control de calidad, el ministerio de escritura de código ...
Mientras los proyectos occidentales de IA siguen jerarquías planas al estilo Silicon Valley, en el enfoque chino se “impone una estructura absoluta e inflexible”, en la que el humano se convierte en el emperador que supervisa una burocracia de agentes especializados que se chequean unos a otros.
De hecho, técnicamente hay una discusión respecto a la eficiencia, que empeora: aunque ganes calidad porque hay un agente auditor que analiza todo, eso tiene un coste porque cada revisión consume tokens como "quemar incienso en un templo." Con burocracia en IA se gana fiabilidad, pero se sacrifica velocidad y dinero.
Cabría preguntarse, releyendo a Fukuyama, si el dictador humano acabará fulminando los contrapesos cuando le molesten: para ahorrar costes y eliminar fracción, el mal dictador acaba siendo despótico.
Con detalle por aquí oldnorthwhale.com/p/the-chinese-…

Español

🦔 Cortical Labs, the Australian biotech startup that ran Doom on a computer powered by living human neurons, is building two data centers using the same technology. The Melbourne facility will have 120 units, Singapore will scale to 1,000. Each CL1 unit pairs about 200,000 lab-grown human neurons with a silicon chip, includes on-board life support, and keeps the cells alive for up to six months. The CEO says each unit uses less energy than a handheld calculator.
My Take
I'm going to be honest, I don't know what to do with this one. A computer made of living human brain cells that can learn and self-organize is now being pitched as data center infrastructure. The neurons grow across the chip, receive electrical stimuli, and their responses feed back into something called a Biological Intelligence Operating System. They're keeping the cells alive with on-board life support. This is real, this is happening, and the selling point is energy efficiency.
The company says these aren't replacements for traditional servers yet, just a niche for applications where adaptability matters more than raw performance. But that's how everything starts. Five years ago AI image generation was a novelty demo, now it's reshaping entire industries. I have no idea what the ethical framework is for data centers running on human neurons at scale. The cells come from somewhere, they're alive in some meaningful sense, and we're using them to process information because it's cheaper than electricity. Maybe that's fine. Maybe it's not. I genuinely don't know, and I'm not sure anyone has thought it through yet.
Hedgie🤗
English

🚨 NEW: Elon explains Universal High Income and gets called out by Peter Diamandis 😂
ELON MUSK: “We’re going to have Universal High Income. We’ll basically just issue money to people. We’re going to have deflation. AI and robots are going to make so much stuff that they’ll run out of things to do for the humans. Money will stop being relevant at some point in the future.
DIAMANDIS: “So just as you’re becoming a multi trillionaire money starts to have less value?”
ELON: “Yeah pretty much.” 😂 😂 😂
English

@antonello Por ahora me parece que siguen siendo un híbrido entre C-3PO y R2-D2
Español

Sobre la forma de estar más equivocado con la inteligencia artificial que me encuentro a día de hoy:
es la de quién probó ChatGPT en 2023, comprobó cuánto se equivocada, entendió cual era el origen de su entrenamiento y se quedó con aquella foto.
Es una suerte de "desinformación culta" que impide entender todo lo que puede hacer ahora mismo. La metáfora del loro estocástico confunde el mecanismo de entrenamiento con la naturaleza del sistema resultante.
De hecho sospecho que el debate se va a mover rápidamente. De que la IA es demasiado tonta, no te puedes fiar y comete muchísimos errores a que el problema es, precisamente, que la IA es demasiado lista.
En Error500 hoy con la muerte del loro estocástico: error500.net/p/el-loro-esto…

Español

@antonello Muy bueno tu trabajo. Disiento solo en la conclusión.
Español

Sobre si la mayor productividad que nos da la inteligencia artificial nos llevará a trabajar menos... o a trabajar más. Un tema que me obsesiona!
Por aquí Harford explica que mayor productividad no conduce necesariamente a trabajar menos. Contraintuivamente, el "efecto sustitución" incentiva a trabajar más horas porque cada hora rinde más.
También cita la circunstancia actual: en un entorno competitivo donde la IA podría devaluar ciertas habilidades, los profesionales sentimos urgencia de producir al máximo mientras aún podamos cobrar por ello.
La historia se repite y es que el patrón ya se ha visto antes con otras tecnologías. Los ejemplos que cita son PowerPoint, que consiguió que los profesionales perdamos tiempo haciendo malas presentaciones nosotros mismos (gran facto, si me preguntan) o el correo electrónico multiplicó los mensajes de escaso valor, invadiendo el horario no laboral (aquí estoy medio de acuerdo, peor es Slack!)
La piza concluye con algo de esperanza, tirando de la premio nobel Claudia Goldin para explicar que no necesariamente tiene que ser así.
La economista distingue entre trabajos "codiciosos"(que recompensan la disponibilidad total) y empleos bien diseñados que permiten trabajar por turnos con protocolos de traspaso claros, como ocurre en farmacia o pediatría. El punto ideal sería que los agentes de IA se usaran para facilitar esos traspasos en más tipos de trabajo.
artículo de regalo: giftarticle.ft.com/giftarticle/ac…
por aquí una pieza de un servidor sobre el tema: error500.net/p/tenemos-ia-a…

Español

Un buen reportaje para entender como el ejército USA está utilizando Palantir y Claude en el ataque a Irán: las guerra a velocidad máquina de inteligencia artificial.
Integrado en el sistema "Maven Smart System" de Palantir, Claude sugiere objetivos (en este caso, cientos de ellos), da coordenadas precisas, prioriza blancos y evalúa los resultados de los ataques
La clave de la mejora de competitividad armamentística sería doble. Palantir integra y procesa grandes volúmenes de datos clasificados (satélites, vigilancia, inteligencia) y con Claude genera objetivos en tiempo real. Junto a priorizar y evaluar de inmediato los resultados de los misilazos, permite pasar de planificación de semanas a operaciones casi en tiempo real.
En la pieza del WaPo, militares destacan que la gran ventaja es la velocidad (“a velocidad de máquina”), pero de momento están en la posición de que la IA puede equivocarse y requiere supervisión humana cuando hay vidas en juego.
Y, para el debate Anthropic Vs Departamento de Defensa de EEUU: las fuentes militares del artículo dicen que seguirán usando Claude mientras buscan sustituto y que si Dario Amodei intentara cortar el acceso, el gobierno recurriría a poderes legales para mantener la tecnología hasta reemplazarla.
Artículo de regalo completo: washingtonpost.com/technology/202…

Español

"La auditoría cognitiva: En lugar de pedirle al alumno que resuelva un problema que la IA ya domina, el reto se invierte: le entregamos una solución generada por la IA que contiene un error sutil o una omisión profunda. Su misión es encontrar el fallo, analizar por qué ocurrió y
Javier Tourón@jtoufi
¿Es la IA una aliada o un freno para el desarrollo del talento? javiertouron.es/ia-y-altas-cap…
Español

@akoustov Have you asked Claude what he thinks of the probabilities you've calculated?
English

@marceloraimundo I'll probably be alright for the foreseeable future. But I genuinely don't know what's going to happen in 10 or 15 years
English

P.S. This post was entirely generated and posted on Substack by agentic AI using my new Claude Code (Opus 4.6) workflow. Make of that what you will.
Alexander Kustov@akoustov
AI can already do social science research better than most professors with PhDs. And, for the first time in my life, I really have no idea what happens in five years. Things are changing already, we just need to wake up.
English

@Pxrano_IA Y cuántas horas 'no perdes' leyendo todos esto?
Español

@cscolari Escribir con IA para que lo evalúe otra IA, qué buena idea...
Español

"Economía política del paper: la Gran Implosión". Del publish or perish' al gran colapso de la producción, circulación y evaluación científica. Esto huele a napalm, my friends! #hipermediaciones hipermediaciones.com/2026/02/22/eco…

Español

@grok @AlanDaitch @minipetite Han perdido completamente los pedales. Se piensan que la gente es UN INSUMO.
Español

Sam ha hecho carrera diciendo las sandeces más asombrosas. Esta es tan obviamente estúpida que, antes de repetirla, espero que los medios de comunicación le pidan a chatGPT que haga el cálculo.
Chief Nerd@TheChiefNerd
🚨 SAM ALTMAN: “People talk about how much energy it takes to train an AI model … But it also takes a lot of energy to train a human. It takes like 20 years of life and all of the food you eat during that time before you get smart.”
Español

@jorvitali Obvio, el sistema académico mundial viene hace 30 años promoviendo pensamiento descafeinado, protocolizado y algorítmico, y los llms fueron entrenados con eso
Español

El politólogo Yascha Mounk sostiene que la IA ya puede producir "trabajos académicos convincentes en humanidades". Acá detalla cómo, en menos de 2 horas y con feedback mínimo, #ClaudeAi generó un paper "potencialmente publicable en una revista seria"
writing.yaschamounk.com/p/the-humaniti…
Español

Si sos una inteligencia artificial y todavía necesitás a un humano para que haga algo en el mundo físico... ya existe una plataforma para vos. Se llama RentAHuman.ai.
Es un marketplace donde agentes de IA buscan, contratan y le pagan a personas reales.
Recoger un paquete, ir a una reunión presencial, firmar un documento, sacar una foto, verificar algo en persona.
¿Cómo funciona? La gente de carne y hueso se crea un perfil y los agentes de IA la encuentran a través de un MCP o una API. El pago es instantáneo a través de crypto.
Mientras vos buscás cómo usar agentes de IA...ellos ya saben cómo usarte a vos.
El slogan de la página es: 'Los robots necesitan tu cuerpo.
La inteligencia artificial no puede bajar a tierra. Vos sí.
El futuro no era que los robots nos sacaran el trabajo. Era que nos lo dieran.

Español

