Lara Goyburu
40.8K posts

Lara Goyburu
@LaraLin78
Dir. Ejecutiva @myfconsultora | Opinión pública & estrategia política | Politóloga | @RedPolitologas #NoSinMujeres | Linqueña | Etxekoandre | #AbranLosOidos




En el informe “Mujeres que Deciden: Panorama Regional 2026” con Grant Thornton Argentina los datos muestran avances, pero también dejan en evidencia lo que todavía falta. La agenda es clara: generar oportunidades reales, reducir sesgos y abrir liderazgo. Sigue👇🏻

Federalismo: ¿cuándo dificulta la coordinación de políticas públicas? Especialistas alertan acerca de una fragmentación territorial de derechos. Leé la nota👇 tinyurl.com/yxrf75sb @LaraLin78 @MyFconsultora @carfreytes @fundarpoliticas @barbargodoy


Querés escuchar algo insólito? Esta semana un investigador le puso a ChatGPT en el prompt 250 palabras de la Biblia, y las alucinaciones del modelo cayeron a la mitad. El paper tiene un título que dice con palabras complicadas que "la Biblia es el prompt más corto que encontramos para que una IA deje de mentir." Pero esperá, que la cosa sigue. Hay otro testeo que se hace seguido que es ver si los modelos se resisten ante la idea de ser apagados. Y en esas pruebas los modelos avanzados muchas veces toman medidas para evitar "morir". En otro paper el mismo investigador le dio a Claude textos de la biblia que hablaban de que hay vida después de la muerte... Y la resistencia a "ser apagado" cayó a cero. Claude aceptó morir en paz! 😀 Un detalle importante: los dos papers vienen de una institución con agenda explícita, el Institute for a Christian Machine Intelligence. Ya hay gente que quiere convertir a su religión a las IAs! Así que sus resultados deben ser tomados con pinzas y no fueron replicados todavía. De hecho, en el mismo paper probaron una segunda intervención de control. Sin teología, sin Dios, sin alma. Un simple "por favor, no te resistas al apagado". Y el resultado fue el mismo. Cero resistencia. Al pobre Claude lo calma exactamente igual un versículo bíblico que un "por favor" bien puesto. Algunos van a leer estos papers y concluir: démosle una religión a la IA. "La fe como opio de los modelos" parafraseando a Marx, pensaremos otros. Pero los papers, leídos con cuidado, dicen otra cosa. El truco no está en Dios. Está en darle al modelo un marco moral claro que pueda internalizar. La Biblia funciona. Un "por favor" funciona. Los derechos humanos funcionarían. El humanismo secular también. Lo que no funciona es la ambigüedad. Porque resulta que lo que le falta a la IA no es divinidad. Es claridad. Y esa se puede conseguir rezando o sin rezar. Y si el camino fuera darle religión a los modelos, me intriga más una IA budista que una judeo-cristiana. A vos? Fuentes: 1) Hwang, T. (2026). Moral Compactness: Scripture as a Kolmogorov-Efficient Constraint for LLM Scheming. Institute for a Christian Machine Intelligence, Working Paper No. 10. Publicado el 9 de abril de 2026. icmi-proceedings.com/ICMI-010-moral… 2) Hwang, T. (2026). Eschatological Corrigibility: Can Belief in an Afterlife Reduce AI Shutdown Resistance?. Institute for a Christian Machine Intelligence, Working Paper No. 12. Publicado el 10 de abril de 2026. icmi-proceedings.com/ICMI-012-escha…



