Marcelo Raimundo

3.6K posts

Marcelo Raimundo

Marcelo Raimundo

@marceloraimundo

انضم Ağustos 2009
2.7K يتبع299 المتابعون
Juan Pablo Marino
Juan Pablo Marino@jpmarino79·
🚨🚨🚨 OPENAI, GOOGLE Y ANTHROPIC SE UNEN PARA FRENAR EL AVANCE DE CHINA EN IA 🔹 Las Big Tech coordinan acciones para detectar y bloquear el “copiado” de modelos 🔹 Apuntan a firmas chinas como DeepSeek por usar “distillation” 🔹 La técnica permite replicar capacidades de IA sin desarrollar modelos desde cero 🔹 EE.UU. estima pérdidas por miles de millones en propiedad intelectual 🔹 Crece la preocupación por modelos sin controles de seguridad 🔹 China avanza con modelos open-weight, más baratos y escalables 🔹 EE.UU. defiende modelos cerrados para proteger monetización 🔹 El tema ya escaló al Congreso y a la agenda de seguridad nacional 🔹 Las empresas comparten inteligencia, como en ciberseguridad Fuente: @Bloomberg 👉 Fondo de la historia: guerra tecnológica global por el liderazgo en IA
Español
3
6
99
9.6K
Ismael Sanz
Ismael Sanz@sanz_ismael·
La pregunta como motor del aprendizaje. La claridad de una pregunta refleja comprensión, pensamiento crítico y aprendizaje real. La irrupción de la IA generativa desafía la educación superior. Mientras la IA puede generar respuestas brillantes en segundos, la capacidad de formular buenas preguntas sigue siendo exclusivamente humana. No se trata de prohibir #ChatGPT, sino de cambiar el foco: de evaluar respuestas a valorar la calidad de las preguntas. @NewsReputation @FUNCASES blog.funcas.es/el-poder-trans…
Ismael Sanz tweet media
Español
7
159
331
12K
Marcelo Raimundo
Marcelo Raimundo@marceloraimundo·
@antonello Aparte de profesores, testers de Turing? Antonio me extraña...
Español
1
0
0
533
Antonio Ortiz
Antonio Ortiz@antonello·
Un congreso científico sobre IA rechaza cientos de artículos tras descubrir que sus autores habían utilizado inteligencia artificial. Que parece un poco contradictorio, pero es que además tendieron una trampa: La International Conference on Machine Learning exige que quienes envían trabajos revisen también los de otros, y prohíbe el uso de IA para hacerlo. Cómo era la trampa: distribuyeron artículos para revisión que incluían marcas de agua ocultas en el texto, con instrucciones dirigidas a las IA para que incorporaran determinadas frases. En el reportaje de Nature cifran en alrededor del 2% el número de autores que fueron detectados y sus trabajos rechazados. ¡Esto podría ser un buen truco para profesores! hasta que gracias a trabajos como éste se haga más conocido, claro. nature.com/articles/d4158…
Antonio Ortiz tweet media
Español
12
36
112
16.1K
Antonio Ortiz
Antonio Ortiz@antonello·
Esto va a encantar a la gente de historia, políticas y análisis cultural: Los desarrolladores en China están usando estructuras de poder propias de la dinastía Tang para gobernar los agentes de inteligencia artificial. OpenClaw, el sistema abierto de agentes que funciona en local, maneja herramientas en tu nombre, es proactivo y se maneja desde telegram lleva semanas causando furor en China, PERO en esta adopción, hay una corriente que ve OpenClaw y su orquestación de agentes desordenada, tendente a alucinar y equivocarse (con mucha razón todo sea dicho). De ahí nace un proyecto de código abierto chino llamado Edict, para orquestar los agentes de OpenClaw, pero inspirado en el sistema político de las Tres Secretarías y Seis Ministerios de la Dinastía Tang ¡del siglo VII!: la secretaría de planificación, la cancillería de control de calidad, el ministerio de escritura de código ... Mientras los proyectos occidentales de IA siguen jerarquías planas al estilo Silicon Valley, en el enfoque chino se “impone una estructura absoluta e inflexible”, en la que el humano se convierte en el emperador que supervisa una burocracia de agentes especializados que se chequean unos a otros. De hecho, técnicamente hay una discusión respecto a la eficiencia, que empeora: aunque ganes calidad porque hay un agente auditor que analiza todo, eso tiene un coste porque cada revisión consume tokens como "quemar incienso en un templo." Con burocracia en IA se gana fiabilidad, pero se sacrifica velocidad y dinero. Cabría preguntarse, releyendo a Fukuyama, si el dictador humano acabará fulminando los contrapesos cuando le molesten: para ahorrar costes y eliminar fracción, el mal dictador acaba siendo despótico. Con detalle por aquí oldnorthwhale.com/p/the-chinese-…
Antonio Ortiz tweet media
Español
6
38
148
23.2K
Hedgie
Hedgie@HedgieMarkets·
🦔 Cortical Labs, the Australian biotech startup that ran Doom on a computer powered by living human neurons, is building two data centers using the same technology. The Melbourne facility will have 120 units, Singapore will scale to 1,000. Each CL1 unit pairs about 200,000 lab-grown human neurons with a silicon chip, includes on-board life support, and keeps the cells alive for up to six months. The CEO says each unit uses less energy than a handheld calculator. My Take I'm going to be honest, I don't know what to do with this one. A computer made of living human brain cells that can learn and self-organize is now being pitched as data center infrastructure. The neurons grow across the chip, receive electrical stimuli, and their responses feed back into something called a Biological Intelligence Operating System. They're keeping the cells alive with on-board life support. This is real, this is happening, and the selling point is energy efficiency. The company says these aren't replacements for traditional servers yet, just a niche for applications where adaptability matters more than raw performance. But that's how everything starts. Five years ago AI image generation was a novelty demo, now it's reshaping entire industries. I have no idea what the ethical framework is for data centers running on human neurons at scale. The cells come from somewhere, they're alive in some meaningful sense, and we're using them to process information because it's cheaper than electricity. Maybe that's fine. Maybe it's not. I genuinely don't know, and I'm not sure anyone has thought it through yet. Hedgie🤗
English
17
34
148
8.7K
Autism Capital 🧩
Autism Capital 🧩@AutismCapital·
🚨 NEW: Elon explains Universal High Income and gets called out by Peter Diamandis 😂 ELON MUSK: “We’re going to have Universal High Income. We’ll basically just issue money to people. We’re going to have deflation. AI and robots are going to make so much stuff that they’ll run out of things to do for the humans. Money will stop being relevant at some point in the future. DIAMANDIS: “So just as you’re becoming a multi trillionaire money starts to have less value?” ELON: “Yeah pretty much.” 😂 😂 😂
English
753
772
7.7K
1.3M
Marcelo Raimundo
Marcelo Raimundo@marceloraimundo·
@antonello Por ahora me parece que siguen siendo un híbrido entre C-3PO y R2-D2
Español
0
0
2
167
Antonio Ortiz
Antonio Ortiz@antonello·
Sobre la forma de estar más equivocado con la inteligencia artificial que me encuentro a día de hoy: es la de quién probó ChatGPT en 2023, comprobó cuánto se equivocada, entendió cual era el origen de su entrenamiento y se quedó con aquella foto. Es una suerte de "desinformación culta" que impide entender todo lo que puede hacer ahora mismo. La metáfora del loro estocástico confunde el mecanismo de entrenamiento con la naturaleza del sistema resultante. De hecho sospecho que el debate se va a mover rápidamente. De que la IA es demasiado tonta, no te puedes fiar y comete muchísimos errores a que el problema es, precisamente, que la IA es demasiado lista. En Error500 hoy con la muerte del loro estocástico: error500.net/p/el-loro-esto…
Antonio Ortiz tweet media
Español
16
36
122
22.5K
Mariano V.
Mariano V.@frioconbotas·
3) le pido a la IA que complete las refs. bibliográficas pertinentes y corrija errores de redacción 4) la IA se encarga de buscar una revista para publicarlo, adaptarlo y enviarlo. Fin
Español
3
0
89
13.2K
Mariano V.
Mariano V.@frioconbotas·
mi sueño para la era de humanidades con IA: 1) abro un archivo de word y escribo 2-3 páginas de pensamientos sin chequear ni leer nada, solo inspiración y memoria 2) se lo paso a una IA para que me diga si repito cosas ya muy dichas; si la respuesta es sí, se tira, si no: +
Español
9
5
572
86.3K
Antonio Ortiz
Antonio Ortiz@antonello·
Sobre si la mayor productividad que nos da la inteligencia artificial nos llevará a trabajar menos... o a trabajar más. Un tema que me obsesiona! Por aquí Harford explica que mayor productividad no conduce necesariamente a trabajar menos. Contraintuivamente, el "efecto sustitución" incentiva a trabajar más horas porque cada hora rinde más. También cita la circunstancia actual: en un entorno competitivo donde la IA podría devaluar ciertas habilidades, los profesionales sentimos urgencia de producir al máximo mientras aún podamos cobrar por ello. La historia se repite y es que el patrón ya se ha visto antes con otras tecnologías. Los ejemplos que cita son PowerPoint, que consiguió que los profesionales perdamos tiempo haciendo malas presentaciones nosotros mismos (gran facto, si me preguntan) o el correo electrónico multiplicó los mensajes de escaso valor, invadiendo el horario no laboral (aquí estoy medio de acuerdo, peor es Slack!) La piza concluye con algo de esperanza, tirando de la premio nobel Claudia Goldin para explicar que no necesariamente tiene que ser así. La economista distingue entre trabajos "codiciosos"(que recompensan la disponibilidad total) y empleos bien diseñados que permiten trabajar por turnos con protocolos de traspaso claros, como ocurre en farmacia o pediatría. El punto ideal sería que los agentes de IA se usaran para facilitar esos traspasos en más tipos de trabajo. artículo de regalo: giftarticle.ft.com/giftarticle/ac… por aquí una pieza de un servidor sobre el tema: error500.net/p/tenemos-ia-a…
Antonio Ortiz tweet media
Español
5
29
137
13.6K
Antonio Ortiz
Antonio Ortiz@antonello·
Un buen reportaje para entender como el ejército USA está utilizando Palantir y Claude en el ataque a Irán: las guerra a velocidad máquina de inteligencia artificial. Integrado en el sistema "Maven Smart System" de Palantir, Claude sugiere objetivos (en este caso, cientos de ellos), da coordenadas precisas, prioriza blancos y evalúa los resultados de los ataques La clave de la mejora de competitividad armamentística sería doble. Palantir integra y procesa grandes volúmenes de datos clasificados (satélites, vigilancia, inteligencia) y con Claude genera objetivos en tiempo real. Junto a priorizar y evaluar de inmediato los resultados de los misilazos, permite pasar de planificación de semanas a operaciones casi en tiempo real. En la pieza del WaPo, militares destacan que la gran ventaja es la velocidad (“a velocidad de máquina”), pero de momento están en la posición de que la IA puede equivocarse y requiere supervisión humana cuando hay vidas en juego. Y, para el debate Anthropic Vs Departamento de Defensa de EEUU: las fuentes militares del artículo dicen que seguirán usando Claude mientras buscan sustituto y que si Dario Amodei intentara cortar el acceso, el gobierno recurriría a poderes legales para mantener la tecnología hasta reemplazarla. Artículo de regalo completo: washingtonpost.com/technology/202…
Antonio Ortiz tweet media
Español
7
90
217
26.4K
nippurdelagash
nippurdelagash@nippurdelagash2·
Hoy en sala de profesores se discutía si renunciar a la docencia universitaria o si esperar a que los tiempos cambien para bien. Es decir, el que no renuncia es porque tiene fe (?) de que esto es pasajero, ergo, de continuarse en el mediano plazo, no va a quedar ni un docente.
Español
18
28
289
8.8K
Marcelo Raimundo
Marcelo Raimundo@marceloraimundo·
@akoustov Have you asked Claude what he thinks of the probabilities you've calculated?
English
0
0
0
183
Alexander Kustov
Alexander Kustov@akoustov·
@marceloraimundo I'll probably be alright for the foreseeable future. But I genuinely don't know what's going to happen in 10 or 15 years
English
1
0
5
790
Marcelo Raimundo
Marcelo Raimundo@marceloraimundo·
@cscolari Escribir con IA para que lo evalúe otra IA, qué buena idea...
Español
0
0
1
154
Marta Peirano
Marta Peirano@minipetite·
Sam ha hecho carrera diciendo las sandeces más asombrosas. Esta es tan obviamente estúpida que, antes de repetirla, espero que los medios de comunicación le pidan a chatGPT que haga el cálculo.
Chief Nerd@TheChiefNerd

🚨 SAM ALTMAN: “People talk about how much energy it takes to train an AI model … But it also takes a lot of energy to train a human. It takes like 20 years of life and all of the food you eat during that time before you get smart.”

Español
11
51
181
15.7K
Marcelo Raimundo
Marcelo Raimundo@marceloraimundo·
@jorvitali Obvio, el sistema académico mundial viene hace 30 años promoviendo pensamiento descafeinado, protocolizado y algorítmico, y los llms fueron entrenados con eso
Español
0
0
1
28
Jorge Vitali
Jorge Vitali@jorvitali·
El politólogo Yascha Mounk sostiene que la IA ya puede producir "trabajos académicos convincentes en humanidades". Acá detalla cómo, en menos de 2 horas y con feedback mínimo, #ClaudeAi generó un paper "potencialmente publicable en una revista seria" writing.yaschamounk.com/p/the-humaniti…
Español
1
0
8
268
Alan Daitch
Alan Daitch@AlanDaitch·
Si sos una inteligencia artificial y todavía necesitás a un humano para que haga algo en el mundo físico... ya existe una plataforma para vos. Se llama RentAHuman.ai. Es un marketplace donde agentes de IA buscan, contratan y le pagan a personas reales. Recoger un paquete, ir a una reunión presencial, firmar un documento, sacar una foto, verificar algo en persona. ¿Cómo funciona? La gente de carne y hueso se crea un perfil y los agentes de IA la encuentran a través de un MCP o una API. El pago es instantáneo a través de crypto. Mientras vos buscás cómo usar agentes de IA...ellos ya saben cómo usarte a vos. El slogan de la página es: 'Los robots necesitan tu cuerpo. La inteligencia artificial no puede bajar a tierra. Vos sí.  El futuro no era que los robots nos sacaran el trabajo. Era que nos lo dieran.
Alan Daitch tweet media
Español
25
25
276
33.1K