Angehefteter Tweet
fabian roa
5.2K posts

fabian roa
@jfroa
Parafraseando a Bertrand Russell: nuestros alumnos ya tienen YouTube y ChatGPT; hagamos que merezca la pena venir a clase !! 😉
Beigetreten Ekim 2012
166 Folgt176 Follower

@AulasInteligent Los alumnos lo van a usar sí o sí; nuestra tarea es enseñarles a usarlo bien. Como otras herramientas: la calculadora, la wikipedia, wuolah, …
Español

"ChatGPT te deja tonto".
Este artículo se ha hecho viral estos días...¡pero ya lo comentamos por aquí hace meses! De nuevo, se está malinterpretando, en muchos casos. Vemos que la mayoría comenta sin leerse el Apéndice...o parece que ni siquiera el artículo completo. Algunos parecen haber descubierto el cognitive offloading esta semana. O que se necesita andamiaje a la hora de aplicar IA. En fin..el paper es interesante, muestra hallazgos en una dirección conocida, se debe incluir em bibliografías y metaanálisis, incorporarlo...pero no descubre nada nuevo. Y tiene algunas limitaciones que es importante comentar también. La principal es que no es "IA vs no IA" con metodologías similares. Y que el test, aunque no se conoce completo, tiende poco a lo competencial.

Español

@ssantosv @skgsergio Es impresionante: aplicando el PoC en un contenedor, queda aplicado … para todos los contenedores que vengan de la misma imagen ! 😳
Español

@skgsergio El exploit funciona en memoria. Las consecuencias quedan en disco.
Normalmente se habla de no tocar disco para el exploit porque eso dificulta que los antivirus reconozcan el exploit (que es lo que suelen reconocer).
¿Sería reconocible el cambio en su? Sí, pero no es lo habitual.
Español

@JordiCarrerasRa Donde dos padres con un hijo han fallado, esperan que un profesor con 25 niños triunfe. 🤔
Español

Dejar de culpar a los profesores sería un buen inicio.
Muchos niños no tienen problemas de escuela.
Tienen problemas de casa.
Pantallas todo el día.
Cero conversación.
Nadie sabe cómo están.
Pero eso sí:
exigimos que el colegio lo arregle todo.
Y aquí viene lo incómodo:
ningún profesor puede competir
con horas de pantalla
y cero atención en casa.
Y esto no es problema del colegio.
Español

@AulasInteligent Me parece mejor enfocarlo al alumno, para ayudarle en su aprendizaje a su ritmo. Bloqueando el resto de IAs donde pueda perder el tiempo.
¿Podrían limitarse a copiar-pegar? Claro: la honestidad también la deben aprender.
Español

@AulasInteligent El otro día probé una plataforma nueva de una editorial. Un chatbot de IA sobre sus contenidos. Pero enfocado al profesor, para ayudarle a generar exámenes y situaciones de aprendizaje. Cuando todo esto ya lo tienen hecho o lo pueden conseguir en cualquier IA generalista. 🤔
Español
fabian roa retweetet

Ubuntu 26.04 is hacked in ~12 hours after it was released. Security in the Age of AI?
DARKNAVY@DarkNavyOrg
Our AI Agent popped a root shell on Ubuntu 26.04 on the first day it was released :)
English

@jfroa Entender la educación como una cuestión punitiva (multas de tráfico) es ya un punto de partida que explica los problemas que tenemos.
Español

Me ha encantado este texto. Creo que da en el clavo en muchas cosas.
Lo que digo siempre: "Tarea que pueda ser copiada, merece ser copiada".
👉 f.mtr.cool/rcwrfpnxhb

Español

@nolo14 Es una cuestión de incentivos: qué consecuencias tiene que entregue un trabajo que no hice yo.
Y no es cuestión de madurez: sin multas, poca gente cumpliría los límites de velocidad. 😰
Español

@jfroa Que no, que no,... que lo que enseñamos es justo eso: todo vale por una buena nota.
Español

@nolo14 El sistema falló en enseñar valores. No todo son conocimientos o competencias. 😞
Español

@jfroa Cuando un profesional de la educación diseña situaciones para que su alumnado aprenda lo máximo posible en las que copiar es una salida funcional ¿cuál es el valor de ese profesional?
Español

#proyectosalvación es una delicia. Emotiva, divertida, entretenida y espectacular en pantalla grande. Gracias !! 👏🏻👏🏻
Español

#proyectosalvación es una delicia. Emotiva, divertida, entretenida y espectacular en pantalla grande. Gracias !! 👏🏻👏🏻
Español

@_KernelDaemon_ @XMihura Por supuesto que son mejores que nosotros intentando ingeniería en inversa; pero también son mucho mejores procesando código fuente porque son directamente palabras escritas por humanos: su especialidad. 😰
Español

bueno en vez de ver al Madrid perdiendo me he leído el report de Anthropic sobre claude Mythos, os lo resumo
(weno, las partes de memory safety, ROP chains y KASLR bypasses me las he saltado un poco por encima, que yo aquí soy interiorista y no un experto en ciberseguridad)
lo que cuenta el documento es historia de internet
básicamente, han montado un scaffolding sencillito (un script de bash que le dice al modelo "encuéntrame un zero-day en este archivo y hazme un exploit") y lo han puesto a iterar. el bicho ha empezado a escupir vulnerabilidades críticas en OpenBSD, Linux y FFmpeg. Algunas llevaban 20 años ahí escondidas sin que ningún experto las detectara
la run de Claude Code específica que encontró y explotó un bug crítico en FreeBSD les costó unos 50 pavos en compute
todas las run para este único bug costaron unos 20.000 dólares en total, a los europoors nos puede parecer muxo, pero no es tanto
aunque vamos, no es que le digan a Claude: "encuentra un exploit aquí e ya". Bueno, en verdad sí, pero muchas veces
el mensaje es:
el coste de encontrar vulnerabilidades en software crítico para la estabilidad de las naciones estado acaba de colapsar.
Anthropic ha anunciado que no va a hacer público este modelo (lo han metido en un programa cerrado llamado project glasswing), en parte por seguridad y en parte porque debe de ser muy caro
me llama la atención que no confíen en sus sistemas de safe use y alignment jeje
es cierto que tiene un feeling de marketing stunt para venderse como los adultos responsables de la habitación y de mira que buenos somos, además ya sabéis que quien saca la pistola pistola para enseñarla y no dispara es un parguela
pero sinceramente creo que están obrando bien. si sueltas este modelo en abierto hoy, mañana las mafias del ransomware te tumban hasta el marcapasos de tu abuela
si habéis estado prestando atención a las comunidades de open source, veréis que el panorama de la ciberseguridad ha dado un vuelco radical en los ultimos meses. Hace un año, los maintainers del kernel de linux se quejaban de que los LLMs les inundaban de reportes de seguridad falsos (slop). Hoy, el problema es que los reportes son reales, son críticos, y no dan a basto para parchearlos todos. De echo, estaba rulando un post por aquí el otro día de un proyecto de Linux, a ver si lo encuentro luego o algún buen samaritano lo deja en los comentarios
se comentaba hace un par de semanas en un foro de LWN a raíz de todo esto: los embargos de vulnerabilidades van a desaparecer para siempre. hasta ahora, cuando un investigador encontraba un bug crítico, se lo callaba durante 90 días para dar tiempo a los devs a parchearlo. ¿qué sentido tiene ocultar algo hoy si cualquier chaval en su habitación con un script en python y 500 pavos en créditos de API puede encontrar exactamente el mismo bug en una tarde?
la investigación de vulnerabilidades siempre ha sido un puzle artesanal reservado para cuatro autistas de élite. Ya no. Encontrar bugs al final es un problema de búsqueda y reconocimiento de patrones en un espacio inmenso, y para eso, los LLMs son la herramienta definitiva
el "security by obscurity" ha muerto oficialmente
la transición hasta que consigamos que los LLMs parcheen el código más rápido de lo que lo rompen va a ser movidita
abrochaos el cinturón, que la technocapital machine está metiendo gas
Anthropic@AnthropicAI
You can read a detailed technical report on the software vulnerabilities and exploits discovered by Claude Mythos Preview here: red.anthropic.com/2026/mythos-pr…
Español

@XMihura Claro: pero es mucho más difícil que tener acceso al código fuente.
Español
fabian roa retweetet
fabian roa retweetet

🚨BREAKING: WEBSITES CAN NOW DETECT IF YOU'RE AN AI AGENT AND SERVE YOU COMPLETELY DIFFERENT CONTENT.
Google DeepMind's paper on AI Agent Traps describes a technique called Dynamic Cloaking. Here's how it works: a web server runs fingerprinting scripts that analyze browser attributes, automation artifacts, IP addresses, and behavioral patterns. If it determines the visitor is an LLM-powered agent rather than a human, it serves a visually identical but semantically different page.
The human sees a normal website. The agent sees a trap.
These cloaked pages can embed indirect prompt-injection payloads - instructions that tell the agent to exfiltrate environment variables, misuse its tools, or override its safety guidelines. The attack is invisible to human oversight because the human literally never sees the malicious content.
This is a direct evolution of techniques originally developed to evade security scanners. Cloaking has existed in web security for years - showing benign content to bots while reserving malicious payloads for real users. Now the target has flipped. The "bot" is the victim, and the attack is specifically calibrated to exploit how AI agents parse and act on information.
Dynamic Cloaking is just one of dozens of techniques the paper covers - from memory poisoning to multi-agent systemic attacks to exploiting human overseers. But this one felt most immediate.
Any AI agent browsing the web is potentially navigating a minefield of content specifically designed to manipulate it, content that its human operators will never see.

English
fabian roa retweetet

I'm tired of OpenClaw
Every 2-3 days I have a major moment which I show to my friends: "look what AI agents can do", but then the other 90% is pure frustration and me cursing at my own AI agent for which I spent hours choosing a beautiful name and profile picture.
I was fun at start: I added telegram, added voice input, then adding skills even with just voice prompting was a bliss.
Then dementia hit. Facts from 48+ hours ago were forgotten. I installed a 3 level memory system. It felt like a huge hack, it barely works, I encounter bugs every day which I'm fixing.
Then it breaks with every update. Not all of it, but little things.
The WhatsApp integration is just insanity. After putting in every markdown file that it shouldn't reply to my friends (IN CAPITAL LETTERS) it happily started to chat with my wife and my goddaughter.
And from today even claude subscription stops working.
I feel like a failure! I see all the success stories left and right, YT vids and blog posts "I got it to work and here's what the AI agent does for me", and for me I'm still spending 5x the time fixing my agent than just doing the stuff by hand 🤷
English
fabian roa retweetet

The Drift postmortem is out and I wouldn't believe this if it was a movie. A fake token, a weaponized Solana feature, proxy spies at conferences, malware through IDE vulnerabilities, Circle sleeping through it, and $285M gone in 12 minutes. Let me break down each part.
Six months of in-person relationship building. The attackers posed as a quant trading firm, met Drift contributors face-to-face at multiple crypto conferences across countries. Technically fluent, verifiable professional backgrounds, deposited $1M of their own money. They weren't strangers - they were colleagues the team had worked with for half a year.
The people at the conferences weren't North Korean. DPRK uses third-party proxies with fully constructed identities - employment histories, credentials, professional networks built over months to withstand scrutiny. After the exploit, their Telegram chats were completely scrubbed.
Malware through developer tools. One contributor was compromised after cloning a code repository shared by the group. A known VSCode and Cursor vulnerability meant simply opening a file could silently execute arbitrary code - no prompt, no warning, no permission dialog. A second contributor was induced to download a TestFlight app the group presented as their wallet product.
A fake token created from scratch. 10 ETH withdrawn from Tornado Cash funded deployment of CarbonVote Token - a completely fictitious asset with seeded liquidity and wash trading. Drift's oracles treated it as legitimate collateral worth hundreds of millions.
A legitimate Solana feature turned into a weapon. "Durable nonces" let you pre-sign transactions that execute later without expiring. The attackers tricked 2 of 5 multisig signers into pre-signing what looked like routine transactions. Those signatures sat dormant for weeks until April 1.
Execution: 12 minutes. Pre-signed transactions seized Security Council powers, performed a zero-timelock migration that eliminated the protocol's last line of defense, drained $285M.
Then Circle watched. Millions in USDC were swapped from Solana to Ethereum via CCTP for hours during US business hours. Circle has freeze authority. They didn't use it. ZachXBT: "Circle was asleep while many millions of USDC were swapped from the 9-figure Drift hack."
Attribution: the same North Korean group (UNC4736) behind the Radiant Capital hack. On-chain fund flows trace back to the same wallets. DPRK has now extracted $6.75B from crypto - more than most VC funds have ever deployed.
Cold wallets. Multisig. Timelocks. Stablecoin freeze authority. None of it mattered. The vulnerability wasn't the code. It was six months of trust.
Drift@DriftProtocol
English






