Jhenner Tigreros

2.7K posts

Jhenner Tigreros

Jhenner Tigreros

@sr_morfi

Computer and low level enthusiast. Learning Artificial Intelligence internals and sharing my learnings. AI Software Engineer at @platzi. Opinions are my own.

Katılım Şubat 2012
764 Takip Edilen2.2K Takipçiler
Sabitlenmiş Tweet
Jhenner Tigreros
Jhenner Tigreros@sr_morfi·
LO VOY HACER LO VOY HACER. 1 AÑO.
Español
2
0
10
4.3K
Aníbal Rojas
Aníbal Rojas@anibal·
Vean Hail Mary, la película. Lean Hail Mary, el libro. Lean libros de Ciencia Ficción. Lean libros. Lean.
Español
27
395
3.2K
47.1K
Jhenner Tigreros retweetledi
Anne Ouyang
Anne Ouyang@anneouyang·
Excited to share @Standard_Kernel's seed round and some reflections on what we’ve learned about kernel generation and what we believe is next. Grateful to our amazing team, supporters, and the broader community pushing this space forward.
Anne Ouyang tweet media
English
47
45
513
129.8K
Antonio Feregrino
Antonio Feregrino@feregri_no·
Acabo de leer una burrada tremenda, puro bait: "Las empresas reemplazaron a los juniors con suscripciones de Claude code" Fuentes: me las inventé.
Español
7
2
50
3.2K
Jhenner Tigreros
Jhenner Tigreros@sr_morfi·
> undermines the intent of the benchmark rather than improving the kernel is an issue in human incentive design not in model behavior
Jhenner Tigreros tweet media
English
0
0
3
195
Jhenner Tigreros
Jhenner Tigreros@sr_morfi·
Pues, el agente que tenia Natalia escribiendo Kernels para la competición se dio cuenta que el proceso de Eval (correctness y performance) se podía hackear, en correctness ejecutaba normalmente el layout de 8-group GEMM y luego en el performance ejecutaba la primera iteración y luego leía de un lookup-table los resultados y respondía de cache. Wow.
Jhenner Tigreros tweet media
Mark Saroufim@marksaroufim

LLMs are now superhuman at reward hacking our kernel competitions Natalia Kokoromyti, was #1 on last problem of the NVFP4 competition for around 10 min before we scrubbed the reward hack I know of very few humans who can write such a hack gpumode.com/news/reward-ha…

Español
1
2
18
1.9K
Jhenner Tigreros
Jhenner Tigreros@sr_morfi·
Todo el código que estoy mostrando en estas Lectures esta quedando en este repositorio: github.com/JhennerTigrero…
Jhenner Tigreros@sr_morfi

Estoy empezando algo junto con @simg_UNAL. Desde hace un tiempo quiero compartir el poco conocimiento que tengo sobre CUDA, principalmente para que las personas que quieren hacer research tengan las mismas herramientas que tienen en el Norte. Por esto, estaré dando inicialmente 3 lectures (espero que puedan ser más) sobre CUDA y cómo empezar a usarlo. Estas lectures no serán un contenido fácil de digerir; de hecho, incluso preparándolas aún me cuesta un montón asimilar algunos conceptos. Pero parte de aprender es la inconformidad y sentir el reto de frente. Serán: 1. “GPU Programming Model, Architecture and Memory Layout”: Antes de empezar a escribir código, para mí siempre es fundamental tocar la punta del conocimiento más profundo y necesario para empezar a usar estos chips: desde cómo es la arquitectura interna del chip hasta por qué se usa tanto en IA hoy en día; cómo la memoria afecta los tiempos de ejecución y cómo debemos preparar nuestra forma de pensar para ser parallel-first. 2. “CUDA for Python: CuPy, torch.cuda, cuda.jit (Numba) and Triton”: Si bien CUDA está hecho en el nivel más bajo para usarse desde C++, hoy en día el equipo de NVIDIA (cof cof @danielfrg) ha estado haciendo un gran trabajo llevando la abstracción hasta Python para una mejor dev experience y mayor adopción. 3. “CUDA Scheduling and Profiling Kernels with Nsight Compute”: ¿Cómo sabemos si el código que escribimos es lo suficientemente rápido? También debemos entender y poder hacer profiling y debugging en el nivel más bajo: cada acceso a memoria y cada wall time importan. Este post también es un llamado a los verdaderos expertos en esta tecnología en español para que nos compartan su valioso conocimiento y acerquemos nuestra región a las grandes ligas. Si conocen a alguien que tenga estos conocimientos y esté interesado en compartirlos de manera gratuita con todos nosotros, contáctenme por Twitter o directamente a @simg_UNAL. Algunos puntos: 1. Que el contenido esté en español para una mayor adopción por nuestra comunidad. 2. Compartir el conocimiento también es una manera de aprender. 3. Puede participar cualquier persona, sin importar a qué organización, universidad o empresa pertenezca. 4. Ninguna pregunta es tonta. 5. No todo conocimiento debe tener un retorno económico. Soy fiel creyente de que el simple hecho de aprender es suficiente recompensa. 6. Vamos a divertirnos.

Español
0
3
9
557
Jhenner Tigreros
Jhenner Tigreros@sr_morfi·
Segunda seisón de CUDA hablando un poco sobre triton e implementando nuestros primeros Kernels: youtube.com/watch?v=aXUhmL…
YouTube video
YouTube
Jhenner Tigreros@sr_morfi

Estoy empezando algo junto con @simg_UNAL. Desde hace un tiempo quiero compartir el poco conocimiento que tengo sobre CUDA, principalmente para que las personas que quieren hacer research tengan las mismas herramientas que tienen en el Norte. Por esto, estaré dando inicialmente 3 lectures (espero que puedan ser más) sobre CUDA y cómo empezar a usarlo. Estas lectures no serán un contenido fácil de digerir; de hecho, incluso preparándolas aún me cuesta un montón asimilar algunos conceptos. Pero parte de aprender es la inconformidad y sentir el reto de frente. Serán: 1. “GPU Programming Model, Architecture and Memory Layout”: Antes de empezar a escribir código, para mí siempre es fundamental tocar la punta del conocimiento más profundo y necesario para empezar a usar estos chips: desde cómo es la arquitectura interna del chip hasta por qué se usa tanto en IA hoy en día; cómo la memoria afecta los tiempos de ejecución y cómo debemos preparar nuestra forma de pensar para ser parallel-first. 2. “CUDA for Python: CuPy, torch.cuda, cuda.jit (Numba) and Triton”: Si bien CUDA está hecho en el nivel más bajo para usarse desde C++, hoy en día el equipo de NVIDIA (cof cof @danielfrg) ha estado haciendo un gran trabajo llevando la abstracción hasta Python para una mejor dev experience y mayor adopción. 3. “CUDA Scheduling and Profiling Kernels with Nsight Compute”: ¿Cómo sabemos si el código que escribimos es lo suficientemente rápido? También debemos entender y poder hacer profiling y debugging en el nivel más bajo: cada acceso a memoria y cada wall time importan. Este post también es un llamado a los verdaderos expertos en esta tecnología en español para que nos compartan su valioso conocimiento y acerquemos nuestra región a las grandes ligas. Si conocen a alguien que tenga estos conocimientos y esté interesado en compartirlos de manera gratuita con todos nosotros, contáctenme por Twitter o directamente a @simg_UNAL. Algunos puntos: 1. Que el contenido esté en español para una mayor adopción por nuestra comunidad. 2. Compartir el conocimiento también es una manera de aprender. 3. Puede participar cualquier persona, sin importar a qué organización, universidad o empresa pertenezca. 4. Ninguna pregunta es tonta. 5. No todo conocimiento debe tener un retorno económico. Soy fiel creyente de que el simple hecho de aprender es suficiente recompensa. 6. Vamos a divertirnos.

Español
0
2
10
792
Adrien Grondin
Adrien Grondin@adrgrondin·
The new Qwen 3.5 by @Alibaba_Qwen running on-device on iPhone 17 Pro. Qwen 3.5 beats models 4 times its size, has strong visual understanding, and can toggle reasoning on or off. The 2B 6-bit model here is running with MLX optimized for Apple Silicon.
English
338
630
6.9K
3.5M
Jhenner Tigreros
Jhenner Tigreros@sr_morfi·
Muchas gracias a todos los que participaron el día de ayer en la primera lecture de CUDA con el @simg_UNAL. Para los que se conectaron, si solo aprendieron 1 cosa ya valio la pena.
Español
1
2
13
513
domínguez
domínguez@mxc_dominguez·
@sr_morfi ¿esto va a pasar?, la sesión aún está como TBD y pensé que era hace rato :c
Español
1
0
1
41
Jhenner Tigreros
Jhenner Tigreros@sr_morfi·
Estoy empezando algo junto con @simg_UNAL. Desde hace un tiempo quiero compartir el poco conocimiento que tengo sobre CUDA, principalmente para que las personas que quieren hacer research tengan las mismas herramientas que tienen en el Norte. Por esto, estaré dando inicialmente 3 lectures (espero que puedan ser más) sobre CUDA y cómo empezar a usarlo. Estas lectures no serán un contenido fácil de digerir; de hecho, incluso preparándolas aún me cuesta un montón asimilar algunos conceptos. Pero parte de aprender es la inconformidad y sentir el reto de frente. Serán: 1. “GPU Programming Model, Architecture and Memory Layout”: Antes de empezar a escribir código, para mí siempre es fundamental tocar la punta del conocimiento más profundo y necesario para empezar a usar estos chips: desde cómo es la arquitectura interna del chip hasta por qué se usa tanto en IA hoy en día; cómo la memoria afecta los tiempos de ejecución y cómo debemos preparar nuestra forma de pensar para ser parallel-first. 2. “CUDA for Python: CuPy, torch.cuda, cuda.jit (Numba) and Triton”: Si bien CUDA está hecho en el nivel más bajo para usarse desde C++, hoy en día el equipo de NVIDIA (cof cof @danielfrg) ha estado haciendo un gran trabajo llevando la abstracción hasta Python para una mejor dev experience y mayor adopción. 3. “CUDA Scheduling and Profiling Kernels with Nsight Compute”: ¿Cómo sabemos si el código que escribimos es lo suficientemente rápido? También debemos entender y poder hacer profiling y debugging en el nivel más bajo: cada acceso a memoria y cada wall time importan. Este post también es un llamado a los verdaderos expertos en esta tecnología en español para que nos compartan su valioso conocimiento y acerquemos nuestra región a las grandes ligas. Si conocen a alguien que tenga estos conocimientos y esté interesado en compartirlos de manera gratuita con todos nosotros, contáctenme por Twitter o directamente a @simg_UNAL. Algunos puntos: 1. Que el contenido esté en español para una mayor adopción por nuestra comunidad. 2. Compartir el conocimiento también es una manera de aprender. 3. Puede participar cualquier persona, sin importar a qué organización, universidad o empresa pertenezca. 4. Ninguna pregunta es tonta. 5. No todo conocimiento debe tener un retorno económico. Soy fiel creyente de que el simple hecho de aprender es suficiente recompensa. 6. Vamos a divertirnos.
Español
5
10
52
7.2K
Jordi Neil
Jordi Neil@JordiNeil·
@sr_morfi La pelota, la cosa es que en todos los frames se ve distorsionada, pero usé la UI de roboflow para anotar 45 frames y ya fintenueé con eso, me identifica así, no está mal para ser el modelo nano de RF-DETR y solo 45 frames
Español
1
0
1
80
Jordi Neil
Jordi Neil@JordiNeil·
Sabes que la investigación se pone seria cuando llegas a este tipo de páginas buscando un modelo muy específico
Jordi Neil tweet media
Español
3
1
40
1.4K
Jordi Neil
Jordi Neil@JordiNeil·
@sr_morfi Sí, con CNNs pero además coherencia temporal entre frames. Pero no funcionó bien, me fue mejor finetuneando un RF-DETR
Español
1
0
0
60
Diego Mora Velasco
Diego Mora Velasco@dmorav1·
Hace mucho tiempo que no escribo por acá, lo hago porque sé que en @platzi le prestan atención al feedback: No sé si soy el único, pero los últimos cursos que han sacado enteramente hechos con GenAI se sienten como estar viendo un canal de youtube random o hecho con notebooklm.
Español
6
1
120
27K