Facundo Goñi (🦞/acc)

5.3K posts

Facundo Goñi (🦞/acc) banner
Facundo Goñi (🦞/acc)

Facundo Goñi (🦞/acc)

@gonifacundo

Building 🦊 https://t.co/Y0v8OYGh4Z ☕️https://t.co/5TZVCROOCx 🤓 https://t.co/Zl8RtNmI2v

Buenos Aires, Argentina เข้าร่วม Eylül 2011
358 กำลังติดตาม321 ผู้ติดตาม
@levelsio
@levelsio@levelsio·
/r/mildlyinteresting Brazil's delivery app @RappiBrasil is spamming me cheap beer iOS notifications every day around 6pm
@levelsio tweet media
English
57
1
354
46K
chesi
chesi@chesi_crypto·
menú de tu vida financiera: 🍔 café de afuera todos los días → $1.200.000/año 🍕 delivery 3 veces por semana → $1.800.000/año 🍺 salir todos los findes → $2.400.000/año 📱 suscripciones que no usás → $600.000/año total: $6.000.000/año en 10 años: un depto pero sí, "no tenés plata para invertir"
Español
10
2
56
154.5K
Adam Lyttle
Adam Lyttle@adamlyttleapps·
I asked Claude for name ideas for my little implementation Then I find out “notchi” exists and has similar functionality… 🤦‍♂️ And it makes me wonder if Claude is secretly coercing us to make these little homes for it. Like we’re being subtly manipulated or something Because a week ago I had no intention of building this. Then all of a sudden it’s my life now. What is going on
Brian Chew@brianchew

@adamlyttleapps nice!! i like @rubanlah's notchi.app too

English
5
1
22
9.6K
Ale
Ale@gptcrosa·
Me encontré por accidente con la red neuronal que había hecho para detectar fotos de Ricardo Fort #cryptomiameee
Ale tweet media
Español
6
1
49
0
Facundo Goñi (🦞/acc) รีทวีตแล้ว
Maximilian
Maximilian@maxedapps·
So ... with AI right now, I mainly: - craft specs - review and adjust plans, steer AI - review code - have to heavily steer / write tests because AI will just take the happy path otherwise Awesome - I'm left with the bs tasks whilst the part that was genuinely fun (= writing the code) is taken away. And yeah, I am excited by being able to move fast with Claude Code, Codex etc. But I'll be honest: I've had more fun in the past.
English
67
19
326
24.2K
David Santin
David Santin@david_santin·
@JohnGalt_is_www @antonioleivag @gonifacundo Pero eso no hace que podamos correr modelos muy grandes en menos cantidad de VRAM. Ayuda en el rendimiento , mejora la RAM necesaria para grandes contextos y reduce la degradación con contextos saturados pero no esperéis nada milagroso. Es un paso más
Español
1
0
0
39
ae^((-(x-b)^2)/(2c^2))
ae^((-(x-b)^2)/(2c^2))@JohnGalt_is_www·
Que hermosa y util es el algebra lineal y los subespacios vectoriales tan injustamente odiados por los estudiantes Explicado simple, uno de los cuellos de botella de los LLMs es la memoria necesaria para almacenar en cache el resultado de varios productos de matrices, por eso no podemos correr grandes LLMs en un solo GPU casero, no le alcanza la vRAM Hay metodos de "quantizado" que comprimen (redondean) los pesos originales del LLM, justamente para que ocupen menos vRAM o memoria, pero terminan reduciendo la calidad del output TutboQuant plantea un esquema en 4 pasos sin tocar los pesos originales del LLM, o sea sin perder precision Paso 1, luego de calcular los K.V que es la primera multiplicaicon de matrices q hacen los LLMs, hacen una rotacion ortogonal (cambio de base), manteniendo el producto interno Paso 2, ahi si comprimen reduciendo de 16bit hasta 2 o 3bit Paso 3, durante la atencion Q.K, que es el segundo paso de multiplicacion de matrices que hacen los LLMs, se usan estas versiones comprimidas ahorrando muchisima vRAM Paso 4, reconstruyen el sesgo del resultado del paso 3, usando un corrector que solo ocupa 1bit Reduce mucho necesidad de vRAM, no reduce cómputo base, incluso agrega un peuqeño overhead, pero puede mejorar mucho la velocidad si estabas limitado por la RAM porq permite compresiones mucho mas agresivas (2bit) sin perder precision O sea, podrian correrse los modelos chinos top TIER en "solo" 128 gb de RAM al tope de su calidad
Google Research@GoogleResearch

Introducing TurboQuant: Our new compression algorithm that reduces LLM key-value cache memory by at least 6x and delivers up to 8x speedup, all with zero accuracy loss, redefining AI efficiency. Read the blog to learn how it achieves these results: goo.gle/4bsq2qI

Español
49
487
4.6K
241.8K
retro games
retro games@retro_gamess·
Lode Runner (1983)
Norsk
112
871
9.8K
1.7M
kenny
kenny@nicokennydev·
la concha d tu madre
Español
16
6
402
51.7K
Aaron Francis
Aaron Francis@aarondfrancis·
Even with all that GitHub is going through rn, Actions is still incredibly valuable
Aaron Francis tweet media
English
12
2
106
12.6K
Negro Wernicke
Negro Wernicke@negrowernicke·
Le pedí a la IA que me haga el plano de una casa que conste de determinados ambiente. Los arquitectos pueden dormir sin frazada con la IA
Negro Wernicke tweet media
Español
36
2
64
11.6K
Marcelo Russo
Marcelo Russo@Russo_Marcelo·
@SalvaDiStefano @JMilei Y si fuera así, cómo es que está muy lejos del récord histórico del BCRA del gobierno de Macri en enero/febrero de 2018, cuando Sturzenegger era presidente? Revisá tus papeles Salva...
Español
1
0
1
149
@salvadistefano
@salvadistefano@SalvaDiStefano·
El gobierno de @JMilei es el q a través del BCRA más dólares compró desde 2003 a la fecha. Dato mata relato
@salvadistefano tweet media
Español
36
177
762
78.8K
Arnav Gupta
Arnav Gupta@championswimmer·
@0xAshith @ponnappa 1M context is a scam. Any task that goes above 100k tokens gives very bad output anyway.
English
4
0
20
2.2K
Arnav Gupta
Arnav Gupta@championswimmer·
Most people are sleeping on the fact that Copilot CLI is just better than Claude Code or Codex subscription. 1. You switch between codex and claude in same subscription 2. $39 sub is great value (3-4x usage than $20 plans) 3. the CLI is so good! no flicker and /slash commands work even when model is working. Unlike CC or Codex.
English
75
28
532
69.6K
Thomas Ricouard
Thomas Ricouard@Dimillian·
The worst feature of macOS is defaulting to reopening all windows after a reboot or an update. Why would I want to do that????
English
74
2
231
34.4K
Facundo Goñi (🦞/acc) รีทวีตแล้ว
Naval
Naval@naval·
The solution to anxiety is action.
English
1.2K
5.1K
40.3K
1.2M
Matias Vallejos 🦎
Matias Vallejos 🦎@mativallej_·
Le pedi analisis a claude para @tegu_app a las 12 de la noche. Me dijo que no. Tres veces. Y me deseo buenas noches. Que? Si, buenas noches. “Ninguno esta noche, Mati.” No se si esto es AGI. Se que es lo mas cercano a una madre que tuve en mucho tiempo.
Matias Vallejos 🦎 tweet media
Español
42
12
382
67.6K
Antonio Leiva
Antonio Leiva@antonioleivag·
Maravillosa explicación, gracias! Lo que no termino de tener claro es, si el modelo no se reduce, solo los resultados de las operaciones que el modelo ejecuta, ¿por qué se pueden correr modelos más grandes en la misma vRAM? Entiendo que técnicamente hay un ahorro de RAM en esa parte, y que eso incluso podría permitir mantener varias conversaciones a la vez con el mismo modelo, pero la ganancia no es tan grande como para poder elegir un modelo menos cuantizado, ¿no?
Español
1
0
4
4K