fabian roa

5.2K posts

fabian roa

fabian roa

@jfroa

Parafraseando a Bertrand Russell: nuestros alumnos ya tienen YouTube y ChatGPT; hagamos que merezca la pena venir a clase !! 😉

เข้าร่วม Ekim 2012
166 กำลังติดตาม176 ผู้ติดตาม
ทวีตที่ปักหมุด
fabian roa
fabian roa@jfroa·
Si das clase igual para un alumno que para 20, algo te estás perdiendo. 😓
Español
1
0
1
0
fabian roa
fabian roa@jfroa·
@AulasInteligent Los alumnos lo van a usar sí o sí; nuestra tarea es enseñarles a usarlo bien. Como otras herramientas: la calculadora, la wikipedia, wuolah, …
Español
1
0
1
33
𝔸𝕦𝕝𝕒𝕤 𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕥𝕖𝕤
"ChatGPT te deja tonto". Este artículo se ha hecho viral estos días...¡pero ya lo comentamos por aquí hace meses! De nuevo, se está malinterpretando, en muchos casos. Vemos que la mayoría comenta sin leerse el Apéndice...o parece que ni siquiera el artículo completo. Algunos parecen haber descubierto el cognitive offloading esta semana. O que se necesita andamiaje a la hora de aplicar IA. En fin..el paper es interesante, muestra hallazgos en una dirección conocida, se debe incluir em bibliografías y metaanálisis, incorporarlo...pero no descubre nada nuevo. Y tiene algunas limitaciones que es importante comentar también. La principal es que no es "IA vs no IA" con metodologías similares. Y que el test, aunque no se conoce completo, tiende poco a lo competencial.
𝔸𝕦𝕝𝕒𝕤 𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕥𝕖𝕤 tweet media
Español
3
7
30
1K
fabian roa
fabian roa@jfroa·
@ssantosv @skgsergio Es impresionante: aplicando el PoC en un contenedor, queda aplicado … para todos los contenedores que vengan de la misma imagen ! 😳
Español
1
0
0
142
Sergio de los Santos
@skgsergio El exploit funciona en memoria. Las consecuencias quedan en disco. Normalmente se habla de no tocar disco para el exploit porque eso dificulta que los antivirus reconozcan el exploit (que es lo que suelen reconocer). ¿Sería reconocible el cambio en su? Sí, pero no es lo habitual.
Español
1
0
14
2.5K
Sergio de los Santos
La fiabilidad de este exploit es increíble. Y ni siquiera toca disco. Sin condiciones de carrera o desbordamiento. Problemas de lógica (introducidos por partes de 2011 a 2017) en el kernel permiten elevar privilegios. Ninguna distro está a salvo. Ni el kernel de Windows en WSL.
Sergio de los Santos tweet media
Español
15
90
539
39.9K
fabian roa
fabian roa@jfroa·
@JordiCarrerasRa Donde dos padres con un hijo han fallado, esperan que un profesor con 25 niños triunfe. 🤔
Español
1
0
2
50
Jordi Surkei
Jordi Surkei@JordiCarrerasRa·
Dejar de culpar a los profesores sería un buen inicio. Muchos niños no tienen problemas de escuela. Tienen problemas de casa. Pantallas todo el día. Cero conversación. Nadie sabe cómo están. Pero eso sí: exigimos que el colegio lo arregle todo. Y aquí viene lo incómodo: ningún profesor puede competir con horas de pantalla y cero atención en casa. Y esto no es problema del colegio.
Español
82
1.1K
3K
52.7K
fabian roa
fabian roa@jfroa·
@AulasInteligent Me parece mejor enfocarlo al alumno, para ayudarle en su aprendizaje a su ritmo. Bloqueando el resto de IAs donde pueda perder el tiempo. ¿Podrían limitarse a copiar-pegar? Claro: la honestidad también la deben aprender.
Español
1
0
1
30
fabian roa
fabian roa@jfroa·
@AulasInteligent El otro día probé una plataforma nueva de una editorial. Un chatbot de IA sobre sus contenidos. Pero enfocado al profesor, para ayudarle a generar exámenes y situaciones de aprendizaje. Cuando todo esto ya lo tienen hecho o lo pueden conseguir en cualquier IA generalista. 🤔
Español
1
0
1
19
𝔸𝕦𝕝𝕒𝕤 𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕥𝕖𝕤
La integración GPT5.5 con su nuevo generador de imágenes permite crear recursos con un alto nivel de calidad. Combinado con NotebookLM o vibecoding, ahora mismo un docente con criterio no necesita editoriales ni apps. Un ejemplo de la salida en pdf de una guía de cinemática:
𝔸𝕦𝕝𝕒𝕤 𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕥𝕖𝕤 tweet media𝔸𝕦𝕝𝕒𝕤 𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕥𝕖𝕤 tweet media𝔸𝕦𝕝𝕒𝕤 𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕥𝕖𝕤 tweet media𝔸𝕦𝕝𝕒𝕤 𝕀𝕟𝕥𝕖𝕝𝕚𝕘𝕖𝕟𝕥𝕖𝕤 tweet media
Español
1
10
67
2.5K
fabian roa
fabian roa@jfroa·
@nolo14 Los incentivos pueden ser positivos o negativos.
Español
0
0
1
20
Manuel Fernández Navas
@jfroa Entender la educación como una cuestión punitiva (multas de tráfico) es ya un punto de partida que explica los problemas que tenemos.
Español
1
0
0
32
Manuel Fernández Navas
Me ha encantado este texto. Creo que da en el clavo en muchas cosas.  Lo que digo siempre: "Tarea que pueda ser copiada, merece ser copiada". 👉 f.mtr.cool/rcwrfpnxhb
Manuel Fernández Navas tweet media
Español
35
308
860
57.4K
fabian roa
fabian roa@jfroa·
@nolo14 Es una cuestión de incentivos: qué consecuencias tiene que entregue un trabajo que no hice yo. Y no es cuestión de madurez: sin multas, poca gente cumpliría los límites de velocidad. 😰
Español
1
0
1
28
Manuel Fernández Navas
@jfroa Que no, que no,... que lo que enseñamos es justo eso: todo vale por una buena nota.
Español
1
0
0
44
fabian roa
fabian roa@jfroa·
@nolo14 El sistema falló en enseñar valores. No todo son conocimientos o competencias. 😞
Español
1
0
1
50
Manuel Fernández Navas
@jfroa Cuando un profesional de la educación diseña situaciones para que su alumnado aprenda lo máximo posible en las que copiar es una salida funcional ¿cuál es el valor de ese profesional?
Español
2
0
0
183
fabian roa
fabian roa@jfroa·
#proyectosalvación es una delicia. Emotiva, divertida, entretenida y espectacular en pantalla grande. Gracias !! 👏🏻👏🏻
Español
0
0
0
12
fabian roa
fabian roa@jfroa·
#proyectosalvación es una delicia. Emotiva, divertida, entretenida y espectacular en pantalla grande. Gracias !! 👏🏻👏🏻
Español
0
0
0
18
fabian roa
fabian roa@jfroa·
@_KernelDaemon_ @XMihura Por supuesto que son mejores que nosotros intentando ingeniería en inversa; pero también son mucho mejores procesando código fuente porque son directamente palabras escritas por humanos: su especialidad. 😰
Español
1
0
1
197
✖System✖
✖System✖@_KernelDaemon_·
@jfroa @XMihura Yo creo que va a ser al revés. Las LLM en general son mucho mejores que los humanos en hacer ingenieria inversa, cosa que va a hacer mucho mas facil que ahora el encontrar fallos de sec en closed source.
Español
1
0
0
195
Mihura
Mihura@XMihura·
bueno en vez de ver al Madrid perdiendo me he leído el report de Anthropic sobre claude Mythos, os lo resumo (weno, las partes de memory safety, ROP chains y KASLR bypasses me las he saltado un poco por encima, que yo aquí soy interiorista y no un experto en ciberseguridad) lo que cuenta el documento es historia de internet básicamente, han montado un scaffolding sencillito (un script de bash que le dice al modelo "encuéntrame un zero-day en este archivo y hazme un exploit") y lo han puesto a iterar. el bicho ha empezado a escupir vulnerabilidades críticas en OpenBSD, Linux y FFmpeg. Algunas llevaban 20 años ahí escondidas sin que ningún experto las detectara la run de Claude Code específica que encontró y explotó un bug crítico en FreeBSD les costó unos 50 pavos en compute todas las run para este único bug costaron unos 20.000 dólares en total, a los europoors nos puede parecer muxo, pero no es tanto aunque vamos, no es que le digan a Claude: "encuentra un exploit aquí e ya". Bueno, en verdad sí, pero muchas veces el mensaje es: el coste de encontrar vulnerabilidades en software crítico para la estabilidad de las naciones estado acaba de colapsar. Anthropic ha anunciado que no va a hacer público este modelo (lo han metido en un programa cerrado llamado project glasswing), en parte por seguridad y en parte porque debe de ser muy caro me llama la atención que no confíen en sus sistemas de safe use y alignment jeje es cierto que tiene un feeling de marketing stunt para venderse como los adultos responsables de la habitación y de mira que buenos somos, además ya sabéis que quien saca la pistola pistola para enseñarla y no dispara es un parguela pero sinceramente creo que están obrando bien. si sueltas este modelo en abierto hoy, mañana las mafias del ransomware te tumban hasta el marcapasos de tu abuela si habéis estado prestando atención a las comunidades de open source, veréis que el panorama de la ciberseguridad ha dado un vuelco radical en los ultimos meses. Hace un año, los maintainers del kernel de linux se quejaban de que los LLMs les inundaban de reportes de seguridad falsos (slop). Hoy, el problema es que los reportes son reales, son críticos, y no dan a basto para parchearlos todos. De echo, estaba rulando un post por aquí el otro día de un proyecto de Linux, a ver si lo encuentro luego o algún buen samaritano lo deja en los comentarios se comentaba hace un par de semanas en un foro de LWN a raíz de todo esto: los embargos de vulnerabilidades van a desaparecer para siempre. hasta ahora, cuando un investigador encontraba un bug crítico, se lo callaba durante 90 días para dar tiempo a los devs a parchearlo. ¿qué sentido tiene ocultar algo hoy si cualquier chaval en su habitación con un script en python y 500 pavos en créditos de API puede encontrar exactamente el mismo bug en una tarde? la investigación de vulnerabilidades siempre ha sido un puzle artesanal reservado para cuatro autistas de élite. Ya no. Encontrar bugs al final es un problema de búsqueda y reconocimiento de patrones en un espacio inmenso, y para eso, los LLMs son la herramienta definitiva el "security by obscurity" ha muerto oficialmente la transición hasta que consigamos que los LLMs parcheen el código más rápido de lo que lo rompen va a ser movidita abrochaos el cinturón, que la technocapital machine está metiendo gas
Anthropic@AnthropicAI

You can read a detailed technical report on the software vulnerabilities and exploits discovered by Claude Mythos Preview here: red.anthropic.com/2026/mythos-pr…

Español
23
75
596
68.8K
fabian roa
fabian roa@jfroa·
@XMihura Claro: pero es mucho más difícil que tener acceso al código fuente.
Español
2
0
0
423
Mihura
Mihura@XMihura·
@jfroa si lees el report también hablan de que han encontrado vulnerabilities en closed source mediante reverse engineering a partir de los binarios
Español
1
0
3
1.5K
fabian roa รีทวีตแล้ว
How To AI
How To AI@HowToAI_·
🚨 BREAKING: Someone just open-sourced a fully autonomous AI RED TEAM. It's called PentAGI. A autonomous AI system that coordinates hacking attacks with zero human input. One agent does recon, another exploits, and another writes the final report based on what they find. 100% Open Source.
English
29
174
992
87.8K
fabian roa รีทวีตแล้ว
Tech with Mak
Tech with Mak@techNmak·
🚨BREAKING: WEBSITES CAN NOW DETECT IF YOU'RE AN AI AGENT AND SERVE YOU COMPLETELY DIFFERENT CONTENT. Google DeepMind's paper on AI Agent Traps describes a technique called Dynamic Cloaking. Here's how it works: a web server runs fingerprinting scripts that analyze browser attributes, automation artifacts, IP addresses, and behavioral patterns. If it determines the visitor is an LLM-powered agent rather than a human, it serves a visually identical but semantically different page. The human sees a normal website. The agent sees a trap. These cloaked pages can embed indirect prompt-injection payloads - instructions that tell the agent to exfiltrate environment variables, misuse its tools, or override its safety guidelines. The attack is invisible to human oversight because the human literally never sees the malicious content. This is a direct evolution of techniques originally developed to evade security scanners. Cloaking has existed in web security for years - showing benign content to bots while reserving malicious payloads for real users. Now the target has flipped. The "bot" is the victim, and the attack is specifically calibrated to exploit how AI agents parse and act on information. Dynamic Cloaking is just one of dozens of techniques the paper covers - from memory poisoning to multi-agent systemic attacks to exploiting human overseers. But this one felt most immediate. Any AI agent browsing the web is potentially navigating a minefield of content specifically designed to manipulate it, content that its human operators will never see.
Tech with Mak tweet media
English
19
40
212
19.5K
fabian roa รีทวีตแล้ว
Philipp Keller
Philipp Keller@philkellr·
I'm tired of OpenClaw Every 2-3 days I have a major moment which I show to my friends: "look what AI agents can do", but then the other 90% is pure frustration and me cursing at my own AI agent for which I spent hours choosing a beautiful name and profile picture. I was fun at start: I added telegram, added voice input, then adding skills even with just voice prompting was a bliss. Then dementia hit. Facts from 48+ hours ago were forgotten. I installed a 3 level memory system. It felt like a huge hack, it barely works, I encounter bugs every day which I'm fixing. Then it breaks with every update. Not all of it, but little things. The WhatsApp integration is just insanity. After putting in every markdown file that it shouldn't reply to my friends (IN CAPITAL LETTERS) it happily started to chat with my wife and my goddaughter. And from today even claude subscription stops working. I feel like a failure! I see all the success stories left and right, YT vids and blog posts "I got it to work and here's what the AI agent does for me", and for me I'm still spending 5x the time fixing my agent than just doing the stuff by hand 🤷
English
362
25
685
94.6K
fabian roa รีทวีตแล้ว
Vadim (AI, ⋈)
Vadim (AI, ⋈)@zacodil·
The Drift postmortem is out and I wouldn't believe this if it was a movie. A fake token, a weaponized Solana feature, proxy spies at conferences, malware through IDE vulnerabilities, Circle sleeping through it, and $285M gone in 12 minutes. Let me break down each part. Six months of in-person relationship building. The attackers posed as a quant trading firm, met Drift contributors face-to-face at multiple crypto conferences across countries. Technically fluent, verifiable professional backgrounds, deposited $1M of their own money. They weren't strangers - they were colleagues the team had worked with for half a year. The people at the conferences weren't North Korean. DPRK uses third-party proxies with fully constructed identities - employment histories, credentials, professional networks built over months to withstand scrutiny. After the exploit, their Telegram chats were completely scrubbed. Malware through developer tools. One contributor was compromised after cloning a code repository shared by the group. A known VSCode and Cursor vulnerability meant simply opening a file could silently execute arbitrary code - no prompt, no warning, no permission dialog. A second contributor was induced to download a TestFlight app the group presented as their wallet product. A fake token created from scratch. 10 ETH withdrawn from Tornado Cash funded deployment of CarbonVote Token - a completely fictitious asset with seeded liquidity and wash trading. Drift's oracles treated it as legitimate collateral worth hundreds of millions. A legitimate Solana feature turned into a weapon. "Durable nonces" let you pre-sign transactions that execute later without expiring. The attackers tricked 2 of 5 multisig signers into pre-signing what looked like routine transactions. Those signatures sat dormant for weeks until April 1. Execution: 12 minutes. Pre-signed transactions seized Security Council powers, performed a zero-timelock migration that eliminated the protocol's last line of defense, drained $285M. Then Circle watched. Millions in USDC were swapped from Solana to Ethereum via CCTP for hours during US business hours. Circle has freeze authority. They didn't use it. ZachXBT: "Circle was asleep while many millions of USDC were swapped from the 9-figure Drift hack." Attribution: the same North Korean group (UNC4736) behind the Radiant Capital hack. On-chain fund flows trace back to the same wallets. DPRK has now extracted $6.75B from crypto - more than most VC funds have ever deployed. Cold wallets. Multisig. Timelocks. Stablecoin freeze authority. None of it mattered. The vulnerability wasn't the code. It was six months of trust.
Drift@DriftProtocol

x.com/i/article/2040…

English
5
2
35
8.5K