Xopsy

12.9K posts

Xopsy banner
Xopsy

Xopsy

@Xopsy

Bienvenido a XopsyLandia !!!

เข้าร่วม Eylül 2012
435 กำลังติดตาม96 ผู้ติดตาม
Xopsy
Xopsy@Xopsy·
@MoureDev Y lo guay que es cagarla: fallar también es aprender. Hoy me partí 😂 Salí un momento y dejé a Claude Code con una tarea. Me avisó por la app, le mandé un prompt vago desde el móvil y lo que habíamos arreglado lo volvió a romper 🤣🤪
Español
0
0
1
251
Brais Moure
Brais Moure@MoureDev·
En 5 días he reescrito y mejorado desde cero una app (iOS + Android) con KMP. Nueva tecnología, arquitectura, UI... Un proyecto con años en producción cuya primera versión me llevó casi 2 meses construir. Podría decir que ha sido gracias a la IA (que, por supuesto, ha acelerado muchísimo el proceso), pero el resultado no sería el mismo sin una base sólida como programador. Definir bien los requisitos, establecer guardarraíles y reglas claras, conocer bien las herramientas/modelos, interpretar correctamente los outputs y orquestar a los agentes con criterio técnico es lo que realmente permite exprimir la tecnología y construir software de nivel profesional. Que no te vendan la moto de que los fundamentos no hacen falta.
Español
7
26
347
28.8K
Xopsy
Xopsy@Xopsy·
@Manz @evrtrabajo Lo vi en youtube y total razón Mientras tanto viendo todo el percal 😅 Cualquier aprendizaje es bueno pero sin volverse loco
GIF
Español
0
0
0
5
Manz 🇮🇨⚡👾
Mi realidad actual: 🤖 Digo algo crítico sobre IA → IA bros y Claude Boys me linchan: «es que estás obsoleto» 📚 Digo algo crítico sobre no adaptarse a la IA → Negacionistas de la IA y programadores conservadores me linchan: «la IA comete muchos errores y te vuelve idiota» Hay que normalizar estar en un punto no extremista: Se puede criticar la IA sabiendo usarla, y se puede estar a favor de la IA sin ser un IA bro.
Español
20
6
101
4.8K
Xopsy รีทวีตแล้ว
Andrej Karpathy
Andrej Karpathy@karpathy·
Software horror: litellm PyPI supply chain attack. Simple `pip install litellm` was enough to exfiltrate SSH keys, AWS/GCP/Azure creds, Kubernetes configs, git credentials, env vars (all your API keys), shell history, crypto wallets, SSL private keys, CI/CD secrets, database passwords. LiteLLM itself has 97 million downloads per month which is already terrible, but much worse, the contagion spreads to any project that depends on litellm. For example, if you did `pip install dspy` (which depended on litellm>=1.64.0), you'd also be pwnd. Same for any other large project that depended on litellm. Afaict the poisoned version was up for only less than ~1 hour. The attack had a bug which led to its discovery - Callum McMahon was using an MCP plugin inside Cursor that pulled in litellm as a transitive dependency. When litellm 1.82.8 installed, their machine ran out of RAM and crashed. So if the attacker didn't vibe code this attack it could have been undetected for many days or weeks. Supply chain attacks like this are basically the scariest thing imaginable in modern software. Every time you install any depedency you could be pulling in a poisoned package anywhere deep inside its entire depedency tree. This is especially risky with large projects that might have lots and lots of dependencies. The credentials that do get stolen in each attack can then be used to take over more accounts and compromise more packages. Classical software engineering would have you believe that dependencies are good (we're building pyramids from bricks), but imo this has to be re-evaluated, and it's why I've been so growingly averse to them, preferring to use LLMs to "yoink" functionality when it's simple enough and possible.
Daniel Hnyk@hnykda

LiteLLM HAS BEEN COMPROMISED, DO NOT UPDATE. We just discovered that LiteLLM pypi release 1.82.8. It has been compromised, it contains litellm_init.pth with base64 encoded instructions to send all the credentials it can find to remote server + self-replicate. link below

English
1.3K
5.4K
27.8K
65M
Xopsy
Xopsy@Xopsy·
@carlosazaustre Que si te interesa, hace unos días vi esto, pero hay que ver cuánto es real y cuánto no. Si quieres echarle un vistazo 🙂 x.com/i/status/20351…
Erick@ErickSky

🚨 UN DEV JUNTO A CLAUDIO ESTÁN DESQUICIANDO A TODOS EN APPLE Contexto: Tu Mac tiene un chip especial llamado ANE (Apple Neural Engine). Es un monstruo diseñado específicamente para inteligencia artificial. Apple siempre nos dijo lo mismo: “Este chip solo sirve para ejecutar modelos de IA (inferencia). Entrenarlos (hacer que aprendan) es imposible aquí. Usa la GPU o paga en la nube.” Spoiler: Era mentira. Un solo desarrollador llamado @maderix hizo lo que Apple no quería que nadie hiciera: reverse-engineereó las APIs privadas ocultas del sistema y logró que el Neural Engine haga entrenamiento completo. Forward pass + backpropagation + actualización de pesos… todo corriendo directo en el ANE. Sin CoreML. Sin Metal. Sin GPU. Puro silicio de Apple. Los resultados en un M4 son brutales: • Modelo de 109 millones de parámetros → 91 milisegundos por paso de entrenamiento • Modelo de 596 millones de parámetros (Qwen3-0.6B) → 412 milisegundos por paso Y cuando usa cuantización INT8 (8 bits), se pone 1.88 veces más rápido. ¿Por qué esto es algo lokísimo? Porque hasta ahora, si querías entrenar un modelo decente de IA tenías que: - Gastar miles de dólares en GPUs en la nube. - O usar la GPU de tu Mac y quedarte sin batería en poco tiempo. Este man está permitiéndonos entrenar modelos de IA localmente en tu laptop Mac, de forma privada, sin mandar tus datos a nadie, gastando muy poca energía y a una velocidad impresionante. Esto significa que cualquier persona con una Mac buena podrá: - Crear sus propios modelos personalizados. - Fine-tunear LLMs con sus propios datos. - Experimentar con IA sin depender de empresas externas. Es como descubrir que tu auto familiar en realidad tenía modo carrera escondido desde fábrica. El proyecto todavía está en etapa de investigación (no es un producto pulido), pero ya funciona y está creciendo rapidísimo (más de 6.300 estrellas en GitHub). Serie completa: “Inside the M4 Apple Neural Engine” Parte 1: Reverse Engineering(Cómo crackeó las APIs privadas y habló directo con el hardware) → maderix.substack.com/p/inside-the-m… Parte 2: ANE Benchmarks(Mediciones reales de rendimiento, sin CoreML, y por qué Apple subestima los 38 TOPS) → maderix.substack.com/p/inside-the-m… Parte 3: Training(Lo más fuerte: cómo logró el entrenamiento completo con forward + backprop) → maderix.substack.com/p/inside-the-m… REPOOO👇

Español
1
0
0
34
Xopsy
Xopsy@Xopsy·
@carlosazaustre En mi caso, investigando RAG para varios casos de uso concretos, especialmente para trabajar con documentación y conocimiento específico del dominio. Y, por otro lado, cómo integrar IA en proyectos con datos sensibles
Español
1
0
5
1.7K
Carlos Azaustre
Carlos Azaustre@carlosazaustre·
Mi stack como AI Fullstack JavaScript Developer en 2026. La diferencia con hace 2 años es que la capa de IA ya no es opcional 🧵👇
Español
7
17
211
32.7K
Jaime Mellado
Jaime Mellado@jaimemellado_·
HILO PARA PEDIR DISCULPAS A @Labrov12 "Pero qué hiciste Labrov" 🤩🥹🏆
Español
37
149
3.7K
91.1K
Xopsy รีทวีตแล้ว
Erick
Erick@ErickSky·
🚨 UN DEV JUNTO A CLAUDIO ESTÁN DESQUICIANDO A TODOS EN APPLE Contexto: Tu Mac tiene un chip especial llamado ANE (Apple Neural Engine). Es un monstruo diseñado específicamente para inteligencia artificial. Apple siempre nos dijo lo mismo: “Este chip solo sirve para ejecutar modelos de IA (inferencia). Entrenarlos (hacer que aprendan) es imposible aquí. Usa la GPU o paga en la nube.” Spoiler: Era mentira. Un solo desarrollador llamado @maderix hizo lo que Apple no quería que nadie hiciera: reverse-engineereó las APIs privadas ocultas del sistema y logró que el Neural Engine haga entrenamiento completo. Forward pass + backpropagation + actualización de pesos… todo corriendo directo en el ANE. Sin CoreML. Sin Metal. Sin GPU. Puro silicio de Apple. Los resultados en un M4 son brutales: • Modelo de 109 millones de parámetros → 91 milisegundos por paso de entrenamiento • Modelo de 596 millones de parámetros (Qwen3-0.6B) → 412 milisegundos por paso Y cuando usa cuantización INT8 (8 bits), se pone 1.88 veces más rápido. ¿Por qué esto es algo lokísimo? Porque hasta ahora, si querías entrenar un modelo decente de IA tenías que: - Gastar miles de dólares en GPUs en la nube. - O usar la GPU de tu Mac y quedarte sin batería en poco tiempo. Este man está permitiéndonos entrenar modelos de IA localmente en tu laptop Mac, de forma privada, sin mandar tus datos a nadie, gastando muy poca energía y a una velocidad impresionante. Esto significa que cualquier persona con una Mac buena podrá: - Crear sus propios modelos personalizados. - Fine-tunear LLMs con sus propios datos. - Experimentar con IA sin depender de empresas externas. Es como descubrir que tu auto familiar en realidad tenía modo carrera escondido desde fábrica. El proyecto todavía está en etapa de investigación (no es un producto pulido), pero ya funciona y está creciendo rapidísimo (más de 6.300 estrellas en GitHub). Serie completa: “Inside the M4 Apple Neural Engine” Parte 1: Reverse Engineering(Cómo crackeó las APIs privadas y habló directo con el hardware) → maderix.substack.com/p/inside-the-m… Parte 2: ANE Benchmarks(Mediciones reales de rendimiento, sin CoreML, y por qué Apple subestima los 38 TOPS) → maderix.substack.com/p/inside-the-m… Parte 3: Training(Lo más fuerte: cómo logró el entrenamiento completo con forward + backprop) → maderix.substack.com/p/inside-the-m… REPOOO👇
Erick tweet media
Español
64
481
3.9K
264.4K
Xopsy รีทวีตแล้ว
Pau
Pau@paumrch·
LARENTA .es es ahora open source. Una webapp con Astro 6, React 19 y Tailwind v4. SSG en Vercel, OG dinámicas con Satori, informes en PDF. Si te interesa contribuir datos o código: → github.com/paumrch/larenta Y de antemano, GRACIAS ☺️
Pau tweet media
Español
11
89
413
44.1K
Sergio RSaez ᴷᴼᴵ 🎺
Ver a @IbaiLlanos castear así, solo, en su setup, con la camiseta de G2, me da vibes de 2020 cuando salía con mascarilla a comprar tabaco y a dar un paseo de 20 a 22.
Español
37
315
7.6K
447.9K
Xopsy
Xopsy@Xopsy·
@ArturoZarzalejo @carlosazaustre Lo que no me mola es lock in con la IA, se que está open code pero dependemos de LLM privativo aún, por un lado tengo datos privados que no puedo exponer, y también hay proyectos que no se puede usar en herramientas o modelos privados
Español
1
0
1
17
Xopsy
Xopsy@Xopsy·
@ArturoZarzalejo @carlosazaustre Nope, se está invirtiendo en currar a cualquier hora, lugar y medio. Eso es bueno pero también malo A mi me mola, sobre todo los que estamos metido en muchos fregados pero habrá gente que va acabar muy quemada 👇
Español
2
0
2
18
Ibai
Ibai@IbaiLlanos·
LOS MILAGROS EXISTEN.
Español
273
458
18.2K
820.9K
Xopsy รีทวีตแล้ว
Expo
Expo@expo·
👐 We've been talking a lot about hiring lately. Our vision for the future of app development is ambitious. We know what we need in order to get there. The roles are listed on our careers page and we'd love for you all to take a look. If you're passionate about Expo and you see a role that fits your skills please apply: expo.dev/careers
English
8
16
148
41.6K
Xopsy
Xopsy@Xopsy·
@midudev Ni el de arriba ni el de abajo, soy este 🤪😅
GIF
Español
0
0
3
214
Miguel Ángel Durán
Los dos tipos de programador que existen. ¿Cuál eres tú?
Miguel Ángel Durán tweet media
Español
41
39
1K
24.5K
Xopsy รีทวีตแล้ว
Alex Xu
Alex Xu@alexxubyte·
Writing code is easy now, but testing code is hard. Let’s take a look at where different types of tests fit. How do you test your code?
Alex Xu tweet media
English
10
148
786
39K
Xopsy
Xopsy@Xopsy·
@macjosan @RubenSanchezTW @IdiazAyuso @IsabelDuran_ Con todo el respeto que te tengo, sería lo mismo que falsificar un DNI de verdad, nadie pasa el DNI físico por una maquina para ver que es real El problema es lo de siempre,lo digital es "más fácil de crear" que algo físico. Pero estamos igual, sea con la app o con medio físico
Español
0
0
0
58
Rubén Sánchez
Rubén Sánchez@RubenSanchezTW·
El mayor bulo fue difundir que el PSOE estaba preparando un gran pucherazo falsificando DNI digitales en masa. Es lo que hizo @IdiazAyuso citando tu información, @IsabelDuran_. Y tú la retuiteaste.
Isabel Durán@IsabelDuran_

RTVE me aparta tras publicar la investigación sobre la grieta en la identificación digital en las urnas. No es un bulo. Es una información verificada y publicada en @eldebate_com Abro hilo👇 eldebate.com/espana/2026031…

Español
104
2K
5.6K
64.2K
Xopsy รีทวีตแล้ว
Pablo Fuente
Pablo Fuente@PabloFuente·
¿La tecnología nos libera? Este domingo, en directo, conversación a fondo con @JaimeObregon, una de las voces más lúcidas de nuestro país sobre tecnología, ciudadanía y lo público. No te lo pierdas. youtube.com/live/yCpq83oEh…
YouTube video
YouTube
Pablo Fuente tweet media
Español
2
32
79
15.6K
Xopsy
Xopsy@Xopsy·
@4K4N1VM @JaimeObregon @alexisclerel @GDomenechP Antes de correr hay que andar y primero se gateaba Se que nuestro tiempo es limitado, por ejemplo, has oído hablar de Geoffrey Hinton y Yann LeCun O en el mundo de la programación, sabes quien es Ada Lovelace y Grace Hopper 🙂 Hoy el pensamiento crítico es más fundamental q nunca
Español
0
0
2
28
4K4N1VM
4K4N1VM@4K4N1VM·
@JaimeObregon @alexisclerel @GDomenechP ¿Alguna recomendación para aprender sobre los temas que citas más de cómo se entrena o ajusta una red neuronal o sus inferencias? 👀 Es difícil encontrar material fiable con todo cambiando tan rápido
Español
2
0
1
477
Xopsy รีทวีตแล้ว
Jaime Gómez-Obregón
Jaime Gómez-Obregón@JaimeObregon·
¡Qué interesante, amigos! 😃 El hallazgo de @GDomenechP expone cómo —probablemente, no es seguro— una máquina ha generado una argumentación fundamentalmente errónea pero tan formalmente coherente que ha sorteado el control del autor que la remite, de la editorial que la publica y —no me extrañaría— buena parte del público lector. Y es que ahora, por primera vez, consumir una obra intelectual o artística supone una inversión mayor que producirla con medios automáticos. Leer requiere más esfuerzo que escribir. ¡El mundo al revés! Esto es radicalmente nuevo en la historia de la Humanidad. Esto le da a uno pie a hacerse preguntas nuevas: ¿qué sentido tiene incurrir en el esfuerzo personal de leer algo cuando ni el autor ni la editorial han incurrido en el de hacer una mínima revisión crítica?, ¿qué es y quién confiere exactamente el «prestigio» que al autor o a su editorial se les supone?, ¿cómo identificar las lecturas que merecen la pena en este creciente océano de spam y slop artificial en el que todo es urgente, ✨llamativo✨, sensacional? Sobre esto último, me gusta pensar en el concepto de «confianza epistémica»¹, que proviene de la psicología: la obra estará ahora más soldada que nunca al autor, su personalidad y su «prestigio», y la estrella polar en el océano de contenido generado es la confianza en la persona, esa parcela que las máquinas aún no nos han arrebatado del todo. Hace unas semanas anunciaba el ICAM su propuesta² de modificar el Código Penal para castigar el diseño, la comercialización e incluso la publicidad de herramientas informáticas que, sin la intervención directa de un colegiado o habilitado, asistan en trabajos de profesiones reguladas. Personalmente no le veo sentido a la propuesta del ICAM, pero si al temor que parece que la causa, y que esta mañana señalaba Gabriel. Creo que mitigar la brecha de confianza que apunta Gabriel tiene una solución relativamente sencilla, pero que es responsabilidad individual de cada cual que decida asistirse de la IA: entender cómo funciona un modelo de lenguaje. Dedicar unas horas a aprender —basta que sea por encima— cómo se entrena una red neuronal, con qué corpus documentales se alimenta, cómo funciona el proceso de inferencia o cómo se ajustan los modelos mediante humanos que orientan qué y cómo responderá la máquina. Entender esto es sorprendentemente simple, y le brinda a uno el superpoder de entender en qué puede confiar cuando interroga a una IA y en qué debe, necesariamente, someter a juicio sus respuestas. Así, y cuando programo con IA, puedo anticipar con bastante exactitud qué respuestas serán seguramente óptimas y cuáles serán probablemente derrapes y alucinaciones que tendré que revisar con más atención (¡o con otro agente de IA!). Y este conocimiento es muy útil en las dos direcciones: sirve para asistirse con la IA de manera más confiable, pero también para rechazar con mejor criterio las posiciones maximalistas del estilo de «ya, pero es que la IA se equivoca, luego no se puede confiar en la IA», que a mi juicio es —junto, quizá, a un cierto temor al reemplazo— la intuición última que parece que motiva la propuesta del ICAM. Y este mazacote lo escribe un tipo que lleva 30 años escribiendo software 😃 y en los últimos tres meses ha visto que ya no volverá a hacerlo, porque las máquinas lo hacen ya más rápido y mejor. Crisis existencial que induce más, pienso yo, a adaptarse que a resistirse. (Ladrillo escrito por este humilde servidor de ustedes; todas las erratas y errores son humanos… ¡demasiado humanos! 🙃) ___ ¹ x.com/JaimeObregon/s… ² web.icam.es/el-icam-propon…
Español
9
33
118
21.4K
Xopsy รีทวีตแล้ว
Gabriel Doménech
Gabriel Doménech@GDomenechP·
1/4. Hoy ha llegado a mis manos un libro jurídico publicado en una "editorial de prestigio" española en el que se citan reiteradamente varias publicaciones que realmente no existen.
Gabriel Doménech tweet mediaGabriel Doménech tweet mediaGabriel Doménech tweet mediaGabriel Doménech tweet media
Español
42
313
585
116.3K