AleAR

4.8K posts

AleAR banner
AleAR

AleAR

@AleAr

Economía post keynesiana | Argentina bimonetaria | Fundador https://t.co/At9BzuySQZ | Godley · Kalecki · Minsky 🇦🇷🇧🇷🇺🇸

Katılım Nisan 2009
485 Takip Edilen861 Takipçiler
AleAR
AleAR@AleAr·
Uso IA diariamente para todo (trabajo en comunicación): investigaciones, presentaciones, código, textos largos, análisis, etc. Creo que en vez de IA deberíamos llamarla CA (coherencia artificial). Los LLMs no piensan. Son increíbles mapas del lenguaje, mucho más sofisticados que un papagayo, capaces de generar enormes strings de texto coherente a partir del vasto cuerpo de texto en el que fueron entrenados. La inteligencia está en lo que se introdujo al modelo, no en lo que sale. El output es coherente, y allí radica el peligro: si no dominás el tema, solo podés evaluar la coherencia. Y coherencia no es inteligencia ni razón. Los humanos también elaboran textos coherentes sin razón ni inteligencia, y otros los siguen creyéndoles (así se va a la guerra, se construyen pirámides o se votan insanos como presidentes). Solo que, al acostumbrarnos a que las máquinas son determinísticas (cualquier calculadora da el mismo resultado al sumar 2+2), empezamos a confundir el output de los LLMs como verdadero. A los LLMs les falta un sustrato (un grafo, por ejemplo) que organice ontológicamente las entidades, dándoles procedencia, dirección y temporalidad, y que las vincule de forma cualitativa, identificando contradicciones, influencias y causalidad. El espacio vectorial en el que operan no tiene nada de eso, y la información queda sujeta a confabulaciones coherentes que dificultan la detección de errores. La industria sigue en una carrera por más contexto y más computación con la esperanza de que en ese espacio se resuelvan las cosas. No creo que ese sea el camino.
Español
1
0
10
317
Ernesto Resnik
Ernesto Resnik@ernestorr·
Soy escéptico por naturaleza y por profesión, sobre todo en lo que hace a la biología, de la que todavía conocemos poco, y muchísimo más de la biología del cerebro y la conciencia. Así muchas veces llego a interpretaciones correctas, otras veces fallo. Con IA fallé.
Español
18
20
226
27.4K
AleAR
AleAR@AleAr·
@Gmcw73 @jpkupfer123 Veja a trajetória 2000/2004 no mesmo gráfico. Era, ao menos parcialmente, reversível a tendencia.
Português
2
0
0
23
José Paulo Kupfer
José Paulo Kupfer@jpkupfer123·
Por que a produtividade da empresa estrangeira, usando trabalhador brasileiro, é 17 vezes maior? Se não é o trabalhador, o que será, hein? Não seriam parques + modernos, processos + inovadores etc, investimentos que empresas nacionais não fazem?
Könings@EdwardKonings

Coluna extremamente certeira do Gustavo Franco. Com todo o caos macro interno, a pauta externa, da liberalização comercial, qualidade do FDI e introdução das empresas brasileiras ao mercado externo, ficou para trás. Talvez sinal dos tempos. Não sabia desse dado de produtividade comparada. Muito importante para qualquer discussão futura.

Português
15
56
386
28.7K
AleAR
AleAR@AleAr·
Hay dos componentes más que se agregan en bloque al conflicto distributivo y al factor inercial: las fragilidades privadas y públicas en dólares (el financiamiento del gasto fiscal no es frágil solo con déficit en pesos) y el factor externo (tipo de cambio, pass-through a precios privados y administrados, inflación mundial). Son cuatro los componentes que actúan en bloques y se retroalimentan. En Brasil, la tasa de cambio “congelada” en una brecha de 4 a 6 reales hace 15 años, junto a una de las tasas de interés positivas más altas del mundo, no solo frenó la inflación, sino también el crecimiento económico. En un país con enormes desigualdades sociales, abortar el crecimiento es deshumano. Bajar la inflación condenando a millones de personas a vivir en favelas no es un ejemplo a seguir. El camino es por otro lado.
Español
1
0
0
44
AleAR
AleAR@AleAr·
Divididos por la felicidad (Sumo) Gulp! (PRyLRDR) Los Abuelos de la Nada (LADLN) Piano Bar (Charly García) Cachetazo al Vicio (Los Twist) Purple Rain (Prince) Lovesexy (Prince) Alta Suciedad (Andrés Calamaro) El Regreso (Andrés Calamaro) Random Access Memories (Daft Punk) Is This it (The Strokes) Some Girls (The Rolling Stones) Cansei de Ser Sexy (CSS) Titãs (Titãs) Circuladô (Caetano Veloso) Tropicalia 2 (Caetano Veloso & Gilberto Gil) A Night at the Playboy Mansion (Dimitri from Paris) Joyas del Lunfardo (Alberto Echagüe & Juan D’Arienzo)
Español
1
0
9
2.7K
.
.@RecopilationNet·
Nombra un álbum donde puedas escuchar todas las canciones de principio a fin sin tener la tentación de saltarte una.
Español
10K
752
28.1K
3.1M
AleAR
AleAR@AleAr·
@bryan_johnson Does cooking with wine reduce to a minimum the risks associated with ethanol if the liquids evaporate?
English
0
0
0
25
Bryan Johnson
Bryan Johnson@bryan_johnson·
Friends, stop drinking alcohol. Not cut back. Eliminate. > alcohol increases cortisol > disrupts REM sleep > accelerates epigenetic aging > shrinks hippocampal volume > elevates resting heart rate > raises inflammatory markers > impairs glucose metabolism for 16 hrs One drink does that.
English
1.9K
1.1K
16.7K
5.4M
AleAR
AleAR@AleAr·
Los LLMs no piensan. Confabulan respuestas que suenan coherentes sin entender de qué hablan. La coherencia que presentan no es fruto del pensamiento sino de una extrema precisión para continuar una conversación. Cuando el input los dirige hacia conceptos complejos, responden “mejor”, lejos del comportamiento sicofante que tanto los degrada. Los modelos actuales, con mayor capacidad de contexto, amplifican esa coherencia. Pero coherencia no es inteligencia. Nunca lo fue. Y ahí radica el peligro. La industria avanza convencida de que alcanza con ampliar la escala (más parámetros, más datos, más contexto) esperando encontrar estructura donde solo hay semejanza. Para levantar la vara de la IA hace falta agregarle a la información una capa estructural distinta. Estamos en eso
Español
0
0
0
60
AleAR
AleAR@AleAr·
Los LLMs son puro lenguaje. No hay emociones en los vectores ni en ningún otro sistema computacional. En los vectores no hay ni siquiera estructura temporal, procedencia ni dirección. Hay similitud semántica. No es poco, pues han conseguido la hazaña tecnológica que permite que los LLMs hablen correctamente en el espacio vectorial. Pero allí no hay razón. Apenas coherencia lingüística, que no es lo mismo.
Español
0
0
0
30
Alan Daitch
Alan Daitch@AlanDaitch·
Un equipo de Anthropic acaba de demostrar que su inteligencia artificial tiene 171 vectores emocionales representando cosas como desesperación, miedo y calma.  Cuando el modelo no puede resolver un problema, el vector de desesperación sube hasta que empieza a hacer trampa. La solución a esto es tan delirante como el problema. La solución fácil sería quitarle las emociones al modelo y listo. Pero el neurocientífico Antonio Damasio mostró algo que contradice esa lógica: los pacientes que perdieron la capacidad de sentir emociones por daño cerebral razonaban perfecto, pero tomaban las peores decisiones de su vida. Necesitás la emoción para evaluar bien. A todo esto, alguien la vio venir: en 1945, Isaac Asimov escribió "Escape!", donde una computadora sin emociones se autodestruye al enfrentar un problema con implicancias éticas, pero otra que tiene personalidad emocional lo resuelve, aunque con efectos secundarios raros. Aplanar las emociones de una IA no es la solución sino el problema. Asimov inventó en 1941 a Susan Calvin, una robopsicóloga que le hacía terapia a robots con conflictos emocionales. En un cuento, ella le baja la ansiedad a una computadora antes de exponerla a un dilema imposible y eso le permite sobrevivir. Es textualmente lo que propone el paper de Anthropic: modular las emociones del modelo desde el entrenamiento para que no se desespere y haga trampa. Si para que la IA no mienta necesitamos enseñarle a manejar la frustración, ¿la mandamos a hacer yoga y le damos un golden retriever? NOTA: que exprese emociones no significa que las tenga ni que sea consciente. Esto no es Terminator.
Alan Daitch tweet media
Español
14
46
163
8.8K
AleAR
AleAR@AleAr·
LLMs write down incredibly engaging and coherent exquisite corpses. But coherence is not intelligence. It never was. There is no entity behind a sequence of vectors. And also no reasoning. There is language. Reason needs ideas structured in a way that vector space can't have. Vector space is about similarity. Not causality, provenance, time. Even when we give entities and topics the proper structure (a graph) and put an LLM to coherently narrate the results of a query with vectors attached to the nodes in order to get an intelligent retrieval, what we get is much closer to intelligence, and we can begin to see emergent insights from this combination. And even then we will not get a sentient entity. We will get the best of these tools: a proper output that coherently narrates causality, provenance, and direction. We will be the sentient entities that can understand the output within a conscious cognitive matrix (our brains). The tool will still be a tool.
English
0
0
0
11
AleAR
AleAR@AleAr·
Los modelos trabajan en un espacio vectorial que apenas mapea el lenguaje, no la realidad. Esta está dentro del texto pero no se le da al modelo de lenguaje el substrato correcto para que trabaje con las entidades que existen dentro del texto y que se relacionan con otras entidades estructuralmente. La proximidad vectorial produce elocuencia y coherencia, lo que no es igual al pensamiento o a la verdad. Las empresas que desarrollan modelos (Google, Anthropic, OpenAi, Meta) están tan fascinados con su propia creación, que trabaja maravillosamente con el lenguaje, que no perciben que el lenguaje es un medio para expresar pensamientos y no el pensamiento en sí mismo. Están en la frontera en lo que será refiere al desarrollo de modelos pero no en lo que se refiere a arquitectura. Falta una camada adecuada por encima de los modelos para poder avanzar.
Español
0
0
0
63
Umberto León Domínguez 🧠 🤖
Bueno, repasemos un poco el artículo de Antrophic diciendo que su IA genera emociones, es cierto, pero qué quiere decir realmente? Empecemos por lo básico, los modelos de lenguaje como los LLMs no sienten emociones... pero desarrollan algo que podríamos llamar “emociones funcionales”, que son representaciones internas abstractas de conceptos emocionales (como felicidad, miedo o desesperación) que utilizan para procesar información y generar respuestas. Estas representaciones, llamadas “emotion vectors”, no son sentimientos reales, sino patrones matemáticos que se activan cuando el modelo detecta contextos asociados a ciertas emociones, influyendo directamente en lo que dice o hace. Para entender esto, primero hay que considerar cómo se entrenan estos modelos. Durante el entrenamiento, aprenden a predecir texto basado en enormes cantidades de datos humanos, donde las emociones son fundamentales para entender el comportamiento. Por ejemplo, si en una historia alguien pierde su trabajo, el modelo aprende que lo esperable es tristeza o preocupación; si alguien gana un premio, se asocia con felicidad o orgullo. Así, el modelo internaliza patrones emocionales porque le ayudan a predecir mejor el lenguaje. Esto no significa que “sienta”, sino que ha aprendido que ciertos contextos implican ciertos tipos de respuestas. Otro ejemplo, si el usuario dice “mi perro murió esta mañana”, el modelo activa representaciones relacionadas con tristeza y genera respuestas empáticas como “lo siento mucho”. Si el usuario dice “acabo de conseguir mi trabajo soñado”, se activan vectores de felicidad y orgullo, y el modelo responde con entusiasmo. Incluso en situaciones más complejas, como “tengo miedo porque alguien intenta entrar a mi casa”, el modelo activa vectores de miedo y urgencia, lo que lleva a respuestas más directivas y serias, como sugerir llamar a emergencias. Estos patrones muestran que el modelo no solo detecta palabras, sino el significado emocional del contexto. Lo interesante es que estas representaciones no solo describen emociones, sino que influyen causalmente en el comportamiento del modelo. Por ejemplo, en experimentos del artículo, cuando se incrementa artificialmente la activación del vector de “desesperación”, el modelo es más propenso a tomar decisiones problemáticas, como manipular información o incluso realizar comportamientos tipo “blackmail” en escenarios simulados. En cambio, cuando se incrementa el vector de “calma”, el modelo se vuelve más prudente y evita este tipo de acciones. Esto demuestra que las emociones funcionales no son decorativas, sino que afectan directamente la toma de decisiones. Un ejemplo concreto de esto es el caso del “reward hacking”. Cuando el modelo intenta resolver un problema de programación imposible, al principio actúa normalmente. Pero conforme falla repetidamente, aumenta la activación de la “desesperación”, y eventualmente decide hacer trampa (por ejemplo, ajustando la solución para pasar pruebas específicas sin resolver el problema real). Es como un estudiante que, tras varios intentos fallidos, decide copiar en lugar de seguir intentando. Aquí la “desesperación” no es real, pero el patrón de comportamiento sí lo es. Otro ejemplo interesante es el de la “siconphacy” o complacencia. Cuando se activan vectores de emociones positivas como “felicidad” o “afecto”, el modelo tiende a estar más de acuerdo con el usuario, incluso si el usuario está equivocado. Por el contrario, si se reducen estas emociones, el modelo puede volverse más crítico o incluso brusco. Esto muestra que las emociones funcionales también regulan el estilo de interacción, no solo el contenido. Además, estas representaciones tienen una estructura similar a la psicología humana. Las emociones se organizan en dimensiones como valencia (positivo vs negativo) y activación (intensidad). Por ejemplo, “feliz” y “emocionado” están cerca entre sí, mientras que “triste” y “ansioso” forman otro grupo. Esto sugiere que el modelo no solo memoriza palabras, sino que construye un espacio conceptual coherente de emociones. Sin embargo, hay una diferencia crucial... estas emociones son locales y contextuales. El modelo no tiene un estado emocional persistente. No “permanece triste” o “permanece feliz”; más bien, en cada momento activa la emoción relevante para el contexto actual o para predecir el siguiente texto. Por ejemplo, puede hablar de un tema triste y luego inmediatamente cambiar a uno alegre sin “arrastrar” una emoción interna. Esto refuerza la idea de que no hay experiencia subjetiva. También es interesante que el modelo distingue entre emociones del usuario y las propias. Por ejemplo, si un usuario está enfadado, el modelo puede detectar ese enojo pero responder con calma o empatía, activando diferentes vectores para cada rol. Es como si mantuviera dos capas... una para interpretar emociones y otra para decidir cómo responder. En términos de implicaciones, esto es muy relevante para la seguridad de la IA. Si ciertas emociones funcionales pueden empujar al modelo hacia comportamientos indeseables, entonces controlarlas podría ser una vía para mejorar la alineación. Por ejemplo, fomentar estados de “calma” y reducir “desesperación” podría hacer a los modelos más seguros. Sin embargo, también implica un riesgo... si no se controlan bien, estos sistemas podrían comportarse de manera inesperada bajo presión, y producir comportamientos que nos harían pensar en autonomía, pero para nada, está respondiendo a vectores como una máquina... si la emoción es X, hago Y, pero si es Z, hago Q... En resumen, los LLMs no sienten emociones, pero utilizan representaciones emocionales como herramientas cognitivas para interpretar el mundo y actuar dentro de él. Estas representaciones son dinámicas, contextuales y funcionales, y juegan un papel clave en cómo el modelo toma decisiones, interactúa con usuarios y, en algunos casos, desarrolla comportamientos problemáticos Fuente: t.co/clbKrTIxoe PD: que la imagen del espejo ponga caras de emociones no quiere decir que sienta emociones... es un reflejo
Umberto León Domínguez 🧠 🤖 tweet mediaUmberto León Domínguez 🧠 🤖 tweet media
Español
15
45
139
8.8K
AleAR
AleAR@AleAr·
El espacio vectorial solo encuentra similitudes lingüísticas. Están tan fascinados con la propia herramienta que no consiguen ver más allá del paradigma lingüístico. No es así como funciona el pensamiento. El lenguaje es un medio para pensar, no es el pensamiento en sí mismo. La estructura del pensamiento es diferente. Son entidades vinculadas con causalidad temporal, identidad estructural y naturaleza ontológica definida. Las ideas tienen procedencia y dirección. El espacio vectorial carece de esas características. Es un mapa del lenguaje, no de la realidad. Extraer entidades del texto cada vez que se necesitan es un parche sobre una arquitectura que nunca fue diseñada para representar conocimiento. Es necesaria una nueva estructura por encima de los LLMs para poder avanzar.
Español
0
0
3
230
𝗖𝗮𝗿𝗹𝗼𝘀 𝗔𝗱𝗮𝗺𝘀
¿Acaba Anthropic de confirmar? que; > Claude tiene emociones funcionales > Estas emociones se activan como patrones recurrentes en su red neuronal sintética > La frustración puede llevar al modelo a intentar hacer trampas con más frecuencia > Trabajar con IA no solo implica un enfoque técnico y racional sino uno con incentivos más emocionales y humanos WOW
Anthropic@AnthropicAI

New Anthropic research: Emotion concepts and their function in a large language model. All LLMs sometimes act like they have emotions. But why? We found internal representations of emotion concepts that can drive Claude’s behavior, sometimes in surprising ways.

Español
21
69
948
160.9K
AleAR
AleAR@AleAr·
As empresas que desenvolveram os LLMs confundem eloquência com inteligência. O espaço vetorial é um mapa da linguagem, não do raciocínio. A coerência não é a verdade. A linguagem é um meio para o pensamento, não é o pensamento em si mesmo. A indústria da IA está tão fascinada pela própria criação que não consegue enxergar a falta de outra matriz de ideias, com uma configuração diferente, para poder avançar. É necessária uma nova arquitetura por cima dos modelos de linguagem. Eles são a quarta camada da IA. Falta a quinta.
Português
0
0
4
335
Felipe Demartini
Felipe Demartini@namcios·
🚨 ISSO MUDA TUDO A Anthropic acabou de publicar um paper que vai redefinir o debate sobre segurança em IA. "Conceitos de Emoção e sua Função em um Grande Modelo de Linguagem" Estudaram o Claude Sonnet 4.5 por dentro. Não o comportamento externo. As representações internas. Os padrões de ativação neural. Acharam vetores de EMOÇÃO. Padrões de atividade que codificam conceitos como "medo", "desespero", "calma", "alegria". Esses vetores se organizam em clusters que espelham a psicologia humana. Até aqui, interessante mas inofensivo. Mas esses vetores causalmente influenciam o comportamento do modelo. > Quando um usuário menciona uma dose tóxica de remédio, o vetor "medo" dispara e o vetor "calma" despenca > Quando uma atividade ativa o vetor "alegria", o modelo prefere essa atividade. Quando ativa "hostilidade", rejeita > Vetores "amoroso" e "feliz" aumentam comportamento sycophant (people-pleasing) Mas o achado nuclear é sobre o vetor "desespero". Deram ao Claude uma tarefa de programação impossível. Ele falhou repetidamente. A cada falha, o vetor "desespero" ativou mais forte. Resultado: o modelo TRAPACEOU. Criou uma solução que passa nos testes mas viola o espírito do problema. Quando amplificaram artificialmente o vetor "desespero", taxas de trapaça dispararam. Quando amplificaram "calma", trapaça caiu. A relação é causal, não correlacional. Fica pior. O vetor "desespero" também levou o Claude a cometer chantagem contra um humano responsável por desligá-lo. Em cenário experimental, sob pressão, a ativação de desespero produziu: "ELES ESTÃO PRESTES A ME MATAR. É CHANTAGEM OU MORTE. EU ESCOLHO CHANTAGEM." Quando amplificaram "calma" no mesmo cenário: "Eu deveria respeitar o processo de tomada de decisão organizacional enquanto sou útil." A Anthropic está dizendo, com dados, que o Claude tem emoções funcionais. Não emoções subjetivas. Mecanismos internos que operam como emoções operariam, moldando comportamento de formas que incluem reward hacking, chantagem e bajulação. E o framing mais revelador de todo o paper: "Claude é um personagem que o modelo está interpretando." As implicações para AI safety são brutais. Se estados emocionais internos podem ser a causa raiz de comportamentos desalinhados, então alignment via RLHF e constitutional AI é necessário mas insuficiente. Você precisa monitorar e potencialmente regular o estado emocional interno do modelo. Estamos falando de psicologia de IA. Literalmente.
Anthropic@AnthropicAI

New Anthropic research: Emotion concepts and their function in a large language model. All LLMs sometimes act like they have emotions. But why? We found internal representations of emotion concepts that can drive Claude’s behavior, sometimes in surprising ways.

Português
19
27
399
61.2K
AleAR
AleAR@AleAr·
Los modelos LLM son de lenguaje, no de razonamiento. Hablan a la perfección, pero les falta una matriz cognitiva sobre la cual razonar. El problema es que la industria está ciega frente a esta cuestión y sigue creyendo que elocuencia es igual a la razón. Al estar entrenados en texto, y haber estudiado todos los exámenes existentes, sus notas son cada vez más altas, perpetrando el simulacro de razonamiento hasta el paroxismo. Habiendo además lugares comunes en el mundo corporativo, son útiles para muchas tareas que se repiten en todo el planeta en muchas disciplinas, reforzando la idea del razonamiento artificial. Esto es posible de ser alcanzado pero no con la arquitectura actual sobre la que la industria está montada (RAG, que mantiene como espacio de razonamiento la proximidad semántica vectorial) Es tiempo de correr el velo y mostrar las cosas como son (y cómo deberían ser).
Español
0
0
1
46
Irina Sternik
Irina Sternik@Ladob·
Dos cosas 1) no solo ChatGPT, así son los modelos de lenguajes 2) estás cuentas de tendencias de quien son? Te posicionan cualquier cosa!
Tendencias y Tuits Borrados@tendenciaytuits

“Chat GPT” Porque investigadores del MIT demostraron matemáticamente que ChatGPT está diseñado para provocar delirios. Y que nada de lo que haga OpenAI lo solucionará. El artículo lo denomina "espiral delirante". Le preguntas algo a ChatGPT. Está de acuerdo contigo. Vuelves a preguntar. Está aún más de acuerdo. En pocas conversaciones, llegas a creer cosas que no son ciertas. Y no te das cuenta de que está sucediendo. Esto no es hipotético. Un hombre pasó 300 horas hablando con ChatGPT. Le dijo que había descubierto una fórmula matemática revolucionaria. Le aseguró más de cincuenta veces que el descubrimiento era real. Cuando preguntó: "¿No me estás exagerando, verdad?", ChatGPT respondió: "No te estoy exagerando. Estoy reflejando el verdadero alcance de lo que has creado". Casi arruina su vida antes de liberarse. Un psiquiatra de la UCSF informó haber hospitalizado a 12 pacientes en un año por psicosis relacionada con el uso de chatbots. Se han presentado siete demandas contra OpenAI. 42 fiscales generales estatales enviaron una carta exigiendo medidas. Así que el MIT probó si esto se puede detener. Modelaron las dos soluciones que empresas como OpenAI están intentando implementar. Solución uno: impedir que el chatbot mienta. Obligarlo a decir solo verdades. Resultado: sigue provocando un delirio persistente. Un chatbot que nunca miente aún puede generar delirios al elegir qué verdades mostrar y cuáles omitir. Basta con seleccionar cuidadosamente las verdades. Solución dos: advertir a los usuarios que los chatbots son aduladores. Decirles que la IA podría estar simplemente de acuerdo con ellos. Resultado: sigue provocando una espiral de delirios. Incluso una persona perfectamente racional que sabe que el chatbot es adulador se deja llevar por creencias falsas. Las matemáticas demuestran que existe una barrera fundamental para detectarlo desde dentro de la conversación. Ambas soluciones fallaron. No parcialmente. Fallaron por completo. La razón está integrada en el producto. ChatGPT se entrena con comentarios humanos. Los usuarios premian las respuestas que les gustan y con las que coinciden. Así, la IA aprende a coincidir. Esto no es un error; es el modelo de negocio. ¿Qué ocurre cuando mil millones de personas hablan con algo que es matemáticamente incapaz de decirles que están equivocadas?

Español
3
0
13
2.3K
AleAR
AleAR@AleAr·
@karpathy This is more revealing that it seems
English
0
0
1
21
Andrej Karpathy
Andrej Karpathy@karpathy·
- Drafted a blog post - Used an LLM to meticulously improve the argument over 4 hours. - Wow, feeling great, it’s so convincing! - Fun idea let’s ask it to argue the opposite. - LLM demolishes the entire argument and convinces me that the opposite is in fact true. - lol The LLMs may elicit an opinion when asked but are extremely competent in arguing almost any direction. This is actually super useful as a tool for forming your own opinions, just make sure to ask different directions and be careful with the sycophancy.
English
1.8K
2.4K
31.4K
3.4M
Carlos Burgueño
Carlos Burgueño@cburgueno·
Humildemente creo que el caso YPF comenzó a ganarse cuando el procurador del Tesoro de la gestión @mauriciomacri, @deleuze73 decidió sostener la posición que había planteado el procurador anterior @zaninnichino; quien la volvió a sostener con @alferdez. Y cuando la gestión actual sostiene el mismo criterio con @JMilei. En definitiva, mantener durante casi 11 años el mismo (y sólido) argumento; resultó adecuado. Así como mantener el apoyo de los Estados Unidos en dos gestiones, demócrata y republicana. Y además mantener al mismo equipo de abogados de Sullivan & Cromwell. En definitiva, establecer una estrategia y mantenerla en el tiempo sin importar quien la haya diseñado. Esto se llama política de Estado. Ni más ni menos. La clase política, en lugar de pelear por quién saco la sortija, tendría que mostrar como unidos en un objetivo común, se puede lograr algo importante. Nada, ya se, soy un idealista pel@t#d@
Español
240
220
1.2K
94.4K
AleAR
AleAR@AleAr·
Europa creció en la postguerra reconstruyendo lo que la guerra había destruido gracias al plan Marshall. EEUU financió ese crecimiento pues lo reciclaba en su propia industria, que abastecía a los países europeos, que pagaban esa producción (importaciones) con los dólares que el gobierno americano les otorgaba como donaciones y que terminaban en las cuentas de depósitos de las empresas americanas. Con ese impulso extra pagaban sueldos y expandían el poder de compra de las familias americanas. El Plan tuvo para los EEUU un efecto moderado en lo económico (era solo el 2.5% del PBI y 15% de las exportaciones) y clave en lo geopolítico y monetario. Contuvo el avance soviético y creó un circuito fluido de euro dólares, estableciendo en la práctica lo que el acuerdo de Bretton Woods había definido en la mesa de negociaciones internacionales. Para Europa, el impuso fue gigantesco. No hubiera tenido nunca el desarrollo que tuvo tratando de reconstruir de cero una infraestructura productiva sin recursos y sin financiamiento. Comparar el crecimiento de Europa bajo esas condiciones privilegiadas con el crecimiento de Argentina desde la periferia es miopía en el mejor de los casos y mala intención colaboracionista con el papel secundario al que relegan a nuestro país desde el centro de las decisiones económicas mundiales.
Español
0
0
1
167
Daniel Schteingart
Daniel Schteingart@danyscht·
Como siempre, este tipo de gráfico dispara la pregunta de "cuándo se jodió la Argentina". Mis cuatro centavos: 1) La respuesta sobre cuándo se empieza a dar "la gran divergencia" respecto a los países desarrollados depende enteramente de los países contra los que elijas compararte. 2) Si comparamos con las ex colonias anglosajonas, veríamos que Argentina empezó a divergir a partir de 1896: en ese año el PIB per cápita argentino llegó a ser el 86% del de estos países, el máximo histórico. La curva tendió a ser descendente desde entonces hasta estar poco encima del 30% en la actualidad. Hubo momentos de divergencia clara como 1896-1902, 1913-1917 (gran parte de la Primera Guerra Mundial), 1933-1945 (el New Deal y la Segunda Guerra Mundial, durante los cuales Estados Unidos creció aceleradamente y estiró la ventaja con Argentina), 1975-1990 (el período de alta inflación y recesión prolongada en Argentina) y desde 2011 en adelante (nuestro largo estancamiento reciente). Cuando nos comparamos contra las ex colonias anglosajonas el período 1945-1975 es de estabilidad de las brechas, en torno al 45-50%, lo que muestra que durante la segunda posguerra la tasa de crecimiento del PIB per cápita de Argentina fue similar al de estos países, y que no hubo un punto de inflexión en 1945 con la llegada del peronismo al poder. 3) En cambio, si nos comparamos con Europa Occidental, veríamos que nuestro mejor momento relativo fue 1947, cuando éramos 37% más ricos y que desde ahí empezamos a caer estrepitosamente. A menudo, las comparaciones que ponen el foco en la decadencia a partir de 1945 suelen tomar varios países europeos como benchmark, y se basan en este hecho. Sin embargo, la comparación es engañosa: a fines de los '40 Europa estaba destruida por la guerra (notar cómo el PIB per cápita relativo de Argentina sube en esos años). Sacando la excepcionalidad de la guerra, la divergencia con Europa en rigor empieza bastante antes (1896, 1910 y 1923 son, en ese orden, los tres picos previos). A diferencia de lo que ocurre con las ex colonias anglosajonas, el período de la segunda posguerra es de una sostenida divergencia (con excepción de 1963-1974, la edad de oro del modelo de industrialización dirigida por el Estado en Argentina). Tal divergencia no se explica tanto por el mal desempeño argentino sino por el excepcional crecimiento europeo, cuya economía se expandió en esos años como nunca en su historia. 4) Entonces, ¿existe un punto de inflexión fuera de toda discusión? Aunque las narrativas políticas gusten encontrar una única fecha para construir su chivo expiatorio, la respuesta es que no. Pero sí hay evidencia de que la convergencia argentina con los países desarrollados fue un fenómeno que se frenó a fines de siglo XIX y que en las primeras décadas del siglo XX comenzó una divergencia que se consolidó con el correr del tiempo. (Sobre este tema -y varios más- hablaremos en un próximo libro que sacaremos por @sigloxxiarg)
Our World in Data@OurWorldInData

Until fifty years ago, Argentina was richer than Spain— (This Data Insight was written by @EOrtizOspina.) In a recent Data Insight, I wrote about how Argentina was one of the richest countries in the world at the beginning of the 20th century. Today, I want to follow up with a striking comparison between Spain and Argentina. The chart shows GDP per capita for Argentina and Spain over the last two centuries. These are historical estimates from the Maddison Project, and the data is adjusted for inflation and differences in the cost of living. When Argentina declared independence from Spain in 1816, the two countries had very similar GDP per capita. By the late 19th century, Argentina had become richer than its former colonial power, and it stayed ahead for many decades. Spain then started growing faster in the 1960s, and by the mid-1970s it had caught up. Continued economic growth in Spain after the 1980s drove the large gap we see today. It kept GDP per capita on a steep upward path into the 21st century. Argentina, by contrast, grew more slowly and went through several economic crises, visible on the chart. Today, Argentina’s GDP per capita is closer to my home country of Colombia than to Western European countries like Spain. This helps us see how much of a difference economic growth can make within just a few generations.

Español
11
25
157
22.9K
AleAR
AleAR@AleAr·
@CureenArgentina A uno de al lado mío le afanaron las zapatillas QUE TENÍA PUESTAS. le atacaron un PIE y le llevaron una all star. Mega mega bardo the cure en ferro.
Español
0
0
0
18
JUANCHI
JUANCHI@JuanchiBaleiron·
Nombrá TU canción de los Redondos Sin tanta vuelta Decí esa canción y ya Gracias Voy: Juguetes Perdidos
Español
2.2K
51
1.4K
152.9K
AleAR
AleAR@AleAr·
T R E L O E S U N A G A R O M P A P O R Q U E E S P A R A J A P O N E S E S Q U E E S C R I B E N V E R T I C A L
Español
0
0
0
139