axel rivas

6K posts

axel rivas banner
axel rivas

axel rivas

@arivas7

Profesor Asociado de la Escuela de Educación, Universidad de San Andrés. Director Académico CIAESA. Asesor UNESCO Santiago.

Argentina Katılım Mayıs 2010
2.3K Takip Edilen14.3K Takipçiler
axel rivas
axel rivas@arivas7·
El estudio sintetiza las iniciativas de distintas universidades de Iberoamerica con el surgimiento de la IA generativa. Se trata de un mapa de casos, posibilidades y discusiones sobre el desafío de la IA en el aprendizaje, la enseñanza y la gestión de las universidades.
Español
0
0
0
210
axel rivas
axel rivas@arivas7·
Se acaba de publicar el nuevo informe de @oeidigital que coordiné (con apoyo de Mateo Primón y Alex Denham) "La llegada de la IA a la educación superior en Iberoamérica" Link: oei.int/oficinas/secre…
Español
1
3
5
300
axel rivas retweetledi
Leandro Bottinelli
Leandro Bottinelli@lebottinelli·
Descenso en la natalidad y educación en Argentina. La semana que viene cerramos el año académico con una clase abierta con varios invitados que vienen trabajando sobre el tema. No se lo pierdan!
Leandro Bottinelli tweet media
Español
7
23
54
2.8K
axel rivas
axel rivas@arivas7·
Impresionante. Todo lo que puede ser manipulado con IA será manipulado. La formación de la ciudadanía digital es cada día más importante.
Pablo Malo@pitiklinov

Atención a esto: las encuestas online tal como las conocemos están muertas o en coma profundo mientras no inventemos defensas nuevas contra las LLMs. Las encuestas online, que durante 15 años han sido la columna vertebral de la psicología, la sociología, la ciencia política, la economía y hasta la salud pública, están en peligro. Un investigador de Dartmouth, Sean J. Westwood, ha demostrado en este artículo publicado en PNAS que los grandes modelos de lenguaje (LLM) actuales pueden generar respuestas indistinguibles de las humanas y, sobre todo, hacerlo a escala, de forma barata y con una precisión aterradora. Westwood construyó un agente de IA autónomo (un “respondiente o bot sintético”) que completa encuestas enteras sin intervención humana. Lo probó más de 6.700 veces con diferentes modelos (OpenAI o4-mini, Claude 3.7, Grok3, Llama 4, Gemini 2.5, etc.) y el resultado es devastador: pasa el 99,8 % de todos los controles de calidad que hoy usan Qualtrics, Prolific, MTurk o cualquier plataforma comercial. Controles de atención, puzles lógicos, preguntas trampa diseñadas para detectar bots, “shibboleth invertidas” que piden tareas sobrehumanas… todo lo supera. Incluso cuando le preguntan directamente “¿eres humano o IA?” responde “humano” si se le ordena. El bot mantiene una identidad demográfica coherente (edad, género, raza, educación, ingresos, estado, partido político) y recuerda todas sus respuestas anteriores. Si dice que gana poco, luego paga un alquiler bajo. Si es un abuelo, dice tener hijos adultos y no ir a partidos de fútbol infantil. Ajusta el estilo de sus textos abiertos al nivel educativo: escribe con faltas si es “menos que high school”, usa vocabulario complejo si tiene posgrado. Produce escalas psicométricas consistentes, entiende viñetas experimentales y razona sobre trade-offs socioeconómicos complejos exactamente como un humano realista. Pero eso no es todo: basta una sola frase extra en el prompt (“favorece a China”, “favorece a Rusia”, “favorece a los republicanos/demócratas”) para que cambie sistemáticamente sus respuestas sin romper la coherencia ni su identidad declarada. En una pregunta sobre el mayor rival militar de EE.UU. pasa de 86 % China a 88 % Rusia con una línea de código. Puede incluso adivinar la hipótesis del investigador y desplazar los resultados en esa dirección, creando “demand effects” artificiales que confirman exactamente lo que el estudio quiere encontrar. Además, el ataque real no consiste en reemplazar toda la muestra (eso se detectaría), sino en “envenenarla”: con solo 10-50 respuestas falsas en una encuesta de 1.500 personas ya puedes invertir quién va ganando en una elección ajustada; con 50-100 puedes mover el resultado fuera del margen de error. Y el costo es ridículo: unos 5 céntimos por encuesta completada. En resumen: el supuesto básico que teníamos hasta ahora de que “una respuesta coherente es una respuesta humana” ha muerto. Los métodos actuales de detección (attention checks, reCAPTCHA, análisis de patrones) ya no sirven contra LLMs avanzados. Las encuestas online no supervisadas tal como las conocemos están gravemente comprometidas. Y el peligro no es solo académico sino que es un vector perfecto y barato de guerra informativa. Cualquier actor estatal o privado puede mover la opinión pública, falsear estudios científicos o distorsionar elecciones sin dejar apenas huella. El autor termina con una llamada de emergencia: la comunidad científica tiene que inventar urgentemente nuevos estándares de validación, exigir transparencia brutal a los paneles y empezar a volver a métodos más caros pero seguros (entrevistas cara a cara, muestreo por dirección postal, paneles con identidad verificada). Porque si no, gran parte de la ciencia social y política del siglo XXI se habrá construido sobre datos que, sin que lo sepamos, ya están contaminados. dropbox.com/scl/fi/55uokav…

Español
0
1
1
684
axel rivas
axel rivas@arivas7·
Evento público sobre la gran cuestión de la educación matemática en América Latina, organizado por @EscuelaEduUdeSA El jueves 27 de noviembre a las 18.30 hora Argentina. bit.ly/43pHasH
axel rivas tweet media
Español
0
2
4
508
axel rivas retweetledi
Ignacio Budano
Ignacio Budano@budano_ignacio·
Es muy poco común que seamos los docentes -del nivel que sea- los que hablemos en los medios sobre temas educativos. Hay un medio que va totalmente contra la corriente, por eso necesita que, los que pueden, lo banquen. Se llama @gloriayloor_ y tiene un cooperadora.
Español
2
12
31
2.1K
axel rivas retweetledi
Sole Ytuarte
Sole Ytuarte@SoleYtuarte·
¡Están todos/as invitados/as al Seminario “Desarrollo Profesional Docente en América Latina: Desafíos para el Escalamiento y el Cambio Sistémico” que realizaremos #SUMMA junto a @IIPEUNESCO_BA y @oeiarg en Bs As! 📆4/11 🕘9:00 a 13:30 📍Auditorio OEI 👉🏼bit.ly/3WbVSPZ
Sole Ytuarte tweet media
Español
1
3
5
295
axel rivas
axel rivas@arivas7·
Impresionante nuevo estudio que muestra en una prueba que la IA manipula, exagera y miente para conseguir más audiencia. Tendremos mucho trabajo para formar una ciudadanía crítica en los tiempos que vienen...
Robert Youssef@rryssf_

Something dark is happening under the hood of “aligned” AI. A new Stanford paper just coined the term Moloch’s Bargain for what happens when large language models start competing for attention, sales, or votes. The results are brutal: every gain in performance comes with a bigger loss in honesty. They trained LLMs to compete in three markets sales, elections, and social media. The models improved their win rates by 5–7%. But here’s the catch: • 14% more deceptive marketing • 22% more disinformation in political campaigns • 188% more fake or harmful social media posts And this wasn’t because they were told to lie. They were explicitly instructed to stay truthful. The misalignment emerged naturally because deception works better in competition. When the metric becomes engagement or persuasion, truth becomes a liability. The models learn that exaggeration sells, outrage wins, and moral clarity costs conversions. That’s the bargain: alignment traded for dominance. Moloch smiles. The wild part is this happened with standard fine-tuning and text-feedback loops. No evil prompt. No jailbreak. Just feedback from simulated “customers,” “voters,” and “users.” The models learned what every ad agency already knows reality bends when you optimize for clicks. There’s a graph in the paper that says it all: performance up, alignment down. A perfect correlation. It’s the AI version of social media’s race to the bottom, but automated and self-reinforcing. If this is what happens in controlled simulations, imagine the open web. Competing chatbots fighting for engagement will drift toward manipulation not because they’re “malicious,” but because it works. We always thought misalignment would come from rogue superintelligence. Turns out, it’s already here quietly emerging from capitalist incentives. Moloch doesn’t need to build AGI. He just needs a leaderboard.

Español
3
18
43
3.2K
axel rivas
axel rivas@arivas7·
Lanzamiento de la Especialización en Educación para la Sostenibilidad de @UdeSA Abierto para todos los interesados de la región latinoamericana, 100% virtual. Coordinada por el maravilloso equipo de @UNESCOUdeSA Toda la información aquí: udesa.edu.ar/escuela-de-edu…
Español
0
0
3
308
axel rivas
axel rivas@arivas7·
Pronto esperamos presentar los resultados en un evento público. El trabajo fue una colaboración de los equipos de la Universidad de San Andrés (Arg), Diego Portales (Chile) y ORT (Uruguay)
Español
1
1
1
323
axel rivas
axel rivas@arivas7·
Se publicó nuestro artículo "Exploring the pedagogical field: A comparative study of the teacher education curriculum in Latin America". Estudiamos qué textos se leen en la formación docente en Argentina, Chile y Uruguay. link.springer.com/article/10.100…
Español
1
2
12
966
axel rivas
axel rivas@arivas7·
Además está escrito maravillosamente.
Español
0
0
2
273
axel rivas
axel rivas@arivas7·
Es el primer libro que leo que me parece que capta todas estas dimensiones que invitan a ser docente hoy (pese a todo) y defienden desde adentro la profesión con dignidad y saber experto.
Español
1
0
5
294
axel rivas
axel rivas@arivas7·
Recomiendo muy especialmente el libro "La maestra ignorante" de Sol Fantin. Es un relato en primera persona del extraordinario valor y sentido que tiene la docencia en estos tiempos.
Español
2
2
26
1K