Isaac Villanueva

4.6K posts

Isaac Villanueva banner
Isaac Villanueva

Isaac Villanueva

@ivillala

Customer Intelligence / Go big or go home / Trying to work out what's going on and what happens next

Lima, Peru Katılım Eylül 2010
1.5K Takip Edilen778 Takipçiler
Isaac Villanueva retweetledi
Sumanth
Sumanth@Sumanth_077·
Build a Large Language Model from scratch! This repository contains the code examples for developing, pretraining, and finetuning a LLM from scratch. It is the official codebase for the book Build a Large Language Model (From Scratch). Notebook examples are included for each chapter: Chapter 1: Understanding Large Language Models Chapter 2: Working with Text Data Chapter 3: Coding Attention Mechanisms Chapter 4: Implementing a GPT Model from Scratch Chapter 5: Pretraining on Unlabeled Data Chapter 6: Finetuning for Text Classification Chapter 7: Finetuning to Follow Instructions Link to the repo in the comments!
Sumanth tweet media
English
7
99
511
22.2K
Isaac Villanueva retweetledi
Victoria Slocum
Victoria Slocum@victorialslocum·
We've been cramming podcasts, PDFs, and videos through a text converter for years. Every single conversion loses something critical. Got a podcast? Transcribe it. A PDF with diagrams? OCR it and hope for the best. A video tutorial? Pray someone wrote good captions. Every conversion came with a tax - distortion, loss, a little less of the original thing. But what if we could work with data in its native form and still search across all of it? That's exactly what 𝗺𝘂𝗹𝘁𝗶𝗺𝗼𝗱𝗮𝗹 𝗲𝗺𝗯𝗲𝗱𝗱𝗶𝗻𝗴𝘀 make possible. They map text, images, audio, and video into the same embedding space - meaning you can search across all of them 𝘸𝘪𝘵𝘩𝘰𝘶𝘵 converting anything to text first. Query with text, get back the relevant audio clip. Search with an image, retrieve similar video moments. The format doesn't matter anymore because semantically similar content lands near each other in vector space, regardless of modality. This is enabled through 𝗰𝗼𝗻𝘁𝗿𝗮𝘀𝘁𝗶𝘃𝗲 𝗹𝗲𝗮𝗿𝗻𝗶𝗻𝗴. You train encoders for different modalities simultaneously - paired inputs (like an image and its caption) should end up close in embedding space, unpaired inputs should land far apart. Run this over hundreds of millions of pairs, and the encoders converge on a shared geometry where meaning dominates over format. CLIP proved this at scale for image-text back in 2021. ImageBind extended it to six modalities. But there was a persistent problem: training separate encoders for each modality created gaps in the embedding space that degraded accuracy. The latest generation of models (like Gemini Embedding 2) solve this by training all modalities jointly from scratch in a single unified architecture. And 𝘵ℎ𝘢𝘵'𝘴 what makes the examples below practical rather than theoretical. 𝗧𝗵𝗿𝗲𝗲 𝘀𝘆𝘀𝘁𝗲𝗺𝘀 𝘆𝗼𝘂 𝗰𝗮𝗻 𝗯𝘂𝗶𝗹𝗱 𝘁𝗼𝗱𝗮𝘆: 1️⃣ 𝗔𝘂𝗱𝗶𝗼 𝘀𝗲𝗮𝗿𝗰𝗵 𝘄𝗶𝘁𝗵𝗼𝘂𝘁 𝘁𝗿𝗮𝗻𝘀𝗰𝗿𝗶𝗽𝘁𝘀: Split audio into chunks, embed them natively, query in text or audio. The generation model listens to retrieved clips and answers based on what it ℎ𝘦𝘢𝘳𝘴 - breath, pauses, emphasis - not just words. 2️⃣ 𝗣𝗗𝗙𝘀 𝗮𝘀 𝘃𝗶𝘀𝘂𝗮𝗹 𝗱𝗼𝗰𝘂𝗺𝗲𝗻𝘁𝘀: Convert each page to an image and index it. Diagrams, tables, complex layouts stay intact. The LLM reads the page as an image. 3️⃣ 𝗙𝗶𝗻𝗱𝗶𝗻𝗴 𝗺𝗼𝗺𝗲𝗻𝘁𝘀 𝗶𝗻 𝘃𝗶𝗱𝗲𝗼: 15-second video chunks get indexed as raw video bytes. Query retrieves segments where the right thing ℎ𝘢𝘱𝘱𝘦𝘯𝘦𝘥, not just where the right words were spoken. 𝗧𝗵𝗶𝘀 𝗶𝘀𝗻'𝘁 𝗮 𝘂𝗻𝗶𝘃𝗲𝗿𝘀𝗮𝗹 𝘂𝗽𝗴𝗿𝗮𝗱𝗲. Text embeddings are still better (and cheaper) for pure text retrieval. But multimodal models enable working with data in its native form - and they're only getting better. Check out this blog by @PrajjwalYd for more, and links to all the notebooks! weaviate.io/blog/multimoda…
Victoria Slocum tweet media
English
1
23
143
4.6K
Isaac Villanueva retweetledi
designed.goodness
designed.goodness@goodnessogueri·
Day 69 of posting my designs //Clean components
designed.goodness tweet media
English
8
5
185
3K
Isaac Villanueva retweetledi
juanmiqueo
juanmiqueo@juan_miqueo·
Estamos rehaciendo varios procesos en una única pantalla y está cambiando la forma en la que implemento ciertas funcionalidades. Creo que vengo de la vieja escuela (o quizás es porque soy más de back) pero siempre he implementado Wizards que recogían un montón de detalles y los
juanmiqueo tweet media
Español
1
1
20
4.2K
Isaac Villanueva retweetledi
santi
santi@santtiagom_·
Hay 12 cosas de Claude Code que uso todo el tiempo. Si estás arrancando, vale la pena entenderlas bien. Te dejo qué hace cada una y cómo usarla: 1) CLAUDE.md Define reglas, contexto y convenciones del proyecto. Claude lo usa en cada iteración. -> Lo podés generar con /init o crearlo manualmente. 2) Permissions Controla qué puede hacer Claude (leer, editar, ejecutar comandos). -> Lo manejás con /permissions. 3) Plan Mode Hace que Claude piense antes de ejecutar. Define los pasos y te muestra qué va a hacer antes de tocar el código. -> Usalo con /plan. 4) Checkpoints Guarda estados del código para poder volver atrás si algo falla. -> Volvés con /rewind. 5) Skills Encapsulan workflows reutilizables (instrucciones + contexto + ejemplos). -> Se crean en .claude/skills/ y las podés ver con /skills. 6) Hooks Te permiten automatizar acciones cuando pasa algo (ej: después de editar, correr tests o validar cambios). -> Se configuran en .claude/hooks/ y los ves con /hooks. 7) MCP Le da acceso a herramientas externas (APIs, bases de datos, servicios). Así puede interactuar con sistemas fuera de tu código. -> Podés ver las que tenés conectadas con /mcp. 8) Plugins Empaquetan y distribuyen skills, hooks y configuraciones. -> Se definen en .claude-plugin/plugin.json y podes verlo con /plugin. 9) Context Es la info que Claude usa para pensar (historial, archivos, outputs). Es limitado. -> Lo inspeccionás con /context. 10) Compaction Resume el contexto cuando crece demasiado para mantener calidad. -> Usalo con /compact. 11) Slash commands Comandos para controlar la sesión y el agente. -> Ej: /clear, /plan, /compact, /rewind. 12) Sub-agents Delegan tareas en agentes separados con su propio contexto. -> Se crean y gestionan con /agents.
Español
4
19
239
13.1K
Isaac Villanueva retweetledi
Damián Catanzaro ☕️
Damián Catanzaro ☕️@DamianCatanzaro·
Charlando con amigos que no son devs y se pusieron a hacer cositas con AI me di cuenta de porque gastan tantos tokens y queman límite a 2 manos: - Usan todo en un mismo chat por lo que el chat va creciendo y creciendo y creciendo y cada vez le mandas mas contexto. Cuando pensamos un proyecto hay que irlo separando en pequeñas funciones, cada función va a ser un desarrollo en si, ejemplo en OpenCode hacen /new y arrancan una sesión nueva, el mismo OpenCode es lo suficientemente inteligente para saber a dónde buscar en la carpeta que esta parado. Estaba viendo que algunos usaban Cursor y gastaban 900k a 3M de tokens por request, es una locura, mis ventanas de contexto no superaban los 150k de tokens en la totalidad del chat, siempre piensen cada chat cómo una funcionalidad, no cómo un proyecto y no solo van a tener más tokens para desarrollo sino que el modelo se va volviendo más tonto a mayor cantidad de tokens pasado cierto umbral.
Español
90
57
1.4K
115.3K
Isaac Villanueva retweetledi
Maximiliano Firtman
Maximiliano Firtman@maxifirtman·
Google Analytics saca servidor MCP, mucho mejor que los 370 pasos que tenias que hacer antes para conectar una aplicación de IA con sus datos. Lo mismo se necesita para Meta, Google Ads y otros.
Google Analytics@googleanalytics

Did you know you can now connect your GA data directly to LLMs like Gemini? ✨📊 By setting up the new Model Context Protocol (MCP) server, you move from manual reporting to strategic, AI-powered analysis. ▶️ Hit play to see the complete setup process → goo.gle/47CsGrA

Español
8
14
428
65.7K
Isaac Villanueva retweetledi
santi
santi@santtiagom_·
Uno de los mejores artículos que leí sobre Claude Code. La carpeta .claude define cómo trabaja el agente en tu proyecto. Ahí configurás: 1) CLAUDE.md → le das contexto útil: comandos, arquitectura y convenciones para no repetirlo en cada prompt 2) rules → separás reglas por tema o por carpeta para mantener todo ordenado y mantenible. 3) hooks → automatizás tareas importantes como tests, format o validaciones de seguridad 4) skills → convertís procesos repetidos en workflows reutilizables 5) agents → delegás tareas complejas a subagentes con un rol y herramientas claras 6) settings.json → definís permisos: qué puede ejecutar sin pedir y qué queda restringido Cuando esto está bien armado, el agente trabaja con más contexto y logra resultados más consistentes. Recomiendo.
Akshay 🚀@akshay_pachaar

x.com/i/article/2034…

Español
2
42
390
34.4K
Isaac Villanueva retweetledi
Erick
Erick@ErickSky·
🚨 Dile a Claude "nothing style" y te genera interfaces dignas de una empresa UNICORNIO. Diseño limpio, OBSESIVO y premium: - Tokens de diseño perfectos. - Componentes listos para usar. - Dark + Light mode automático. No más UIs genéricas y feas de IA. Esto es el cheat code que todo dev y designer estaba esperando. Creado por @dominikmartn REPOOO👇
Español
14
108
1.8K
103.4K
Isaac Villanueva retweetledi
NewUs
NewUs@newusoficial·
Si tienes grasa facial necesitas hacer estos ejercicios.🔥
Español
8
121
457
19.9K
Isaac Villanueva retweetledi
Maxim Kuznetsov
Maxim Kuznetsov@disarto_max·
Some of my fav product design pieces from March ✨
English
17
7
198
5.6K
Isaac Villanueva retweetledi
Isabel Fernández
Isabel Fernández@isafernan·
Cada noche, tu cerebro produce una sustancia química que combate el cáncer. Esta sustancia elimina las células tumorales y repara el ADN dañado mientras duermes. Solo funciona en la oscuridad. La hormona se llama melatonina, y cuando enciendes las luces a las 2 de la madrugada, tu cerebro deja de producirla. La melatonina es la hormona del sueño. Pero también actúa como la principal defensora del cuerpo contra el cáncer durante la noche. Interrumpe el suministro de sangre a los tumores y activa las células asesinas naturales (los glóbulos blancos que combaten el cáncer). La melatonina también activa genes que ordenan a las células dañadas que dejen de dividirse. Investigadores de Tulane realizaron un experimento en el que expusieron ratas a luz tenue por la noche. No a luz brillante, sino a luz tenue. Los tumores perdieron su ritmo de crecimiento natural y crecieron sin parar. La OMS clasificó el trabajo nocturno como “probablemente cancerígeno” en 2007. Revisó todo nuevamente en 2019. Mantuvo la clasificación. Misma categoría de riesgo que la radiación UV. El reloj biológico controla mucho más que el momento del sueño. Programa la reparación del ADN. Existe una proteína reparadora llamada XPA que aumenta y disminuye en un ciclo de 24 horas, regulado por los genes del reloj biológico. Cuando los científicos eliminaron esos genes en ratones, la reparación del ADN se descontroló y los tumores crecieron más rápido. El mismo reloj decide cuándo las células dañadas se autodestruyen antes de volverse cancerosas. Si se altera el reloj biológico, se pierde todo eso. Dinamarca comenzó a pagar indemnizaciones laborales por esta enfermedad. En 2008, el gobierno danés declaró: si trabajas en turnos nocturnos al menos una vez por semana durante más de 20 años y contraes cáncer de mama, se considera una enfermedad profesional. Entre 2007 y 2011, 110 mujeres recibieron indemnización. Una de ellas era una azafata que trabajó 30 años en vuelos nocturnos para la aerolínea SAS. Ningún otro país ha seguido su ejemplo. Uno de cada cinco trabajadores en todo el mundo trabaja en turnos nocturnos. En Estados Unidos, esto representa alrededor de 15 millones de personas, principalmente en el sector sanitario, fábricas y transporte. La exposición a estos trabajos afecta de manera desproporcionada a quienes menos recursos tienen: el 20 % de los trabajadores sin título de bachillerato trabajan en turnos nocturnos, frente a menos del 2 % de los graduados universitarios. Seré sincerA, la ciencia aún no ha llegado a una conclusión definitiva. Un gran análisis de 2020 que recopiló 57 estudios y 8,5 millones de personas no encontró una relación general clara entre los turnos nocturnos y el cáncer. Sin embargo, un estudio de 2024 que analizó cómo cambia el riesgo con el tiempo en el trabajo arrojó resultados diferentes: un 9 % más de riesgo de cáncer de mama después de 20 años de trabajo nocturno y un 13 % más después de 30. La evidencia de laboratorio en animales es concluyente. Los datos en humanos son más complejos, como suele suceder cuando se estudia algo que millones de personas hacen de mil maneras diferentes.
Isabel Fernández tweet media
Español
18
199
445
34K
Isaac Villanueva retweetledi
Erick
Erick@ErickSky·
🚨 A esta IA le enseñas UNA VEZ una tarea repetitiva y la hace PARA SIEMPRE. Sin código. Sin complicaciones. [Understudy] IA 100% local (solo para Mac por ahora) que aprende y luego ejecuta aunque cambie el diseño de la web donde aprendió la tarea. REPOOO👇
Español
1
4
43
3.4K
Isaac Villanueva retweetledi
Insan
Insan@insank18·
Sales Progress Milestone Dashboard 📢📷
Insan tweet media
English
16
7
131
2.2K
Isaac Villanueva retweetledi
Gerard
Gerard@Gsnchez·
Da gusto la arquitectura automatizada que uno es capaz de montarse en unos días con conocimientos básicos e IA.
Gerard tweet media
Español
8
5
145
20.9K