l'abondance, le retour 🇫🇷

7.9K posts

l'abondance, le retour 🇫🇷 banner
l'abondance, le retour 🇫🇷

l'abondance, le retour 🇫🇷

@ReallyOffline

War is peace. Freedom is slavery. Ignorance is strength. Macron is president.

เข้าร่วม Ağustos 2023
1.5K กำลังติดตาม1.5K ผู้ติดตาม
ทวีตที่ปักหมุด
l'abondance, le retour 🇫🇷
l'abondance, le retour 🇫🇷@ReallyOffline·
« Traitez un enfant comme il est, et il restera ce qu’il est. Traitez-le comme il peut devenir, et il le deviendra. » Haim Ginott
LeeLoo@Loo_Atreides

Aujourd’hui, trop d’enfants ne trouvent plus leur place dans l’école classique.
Pas parce qu’ils ne peuvent pas apprendre — mais parce que le système ne sait pas toujours s’adapter à eux. L’école H est née de ce constat.
Une école inclusive, humaine, accompagnée par l’IA pour aider chaque enfant à progresser. Nous construisons une nouvelle forme d’éducation.
Pour que ce projet existe vraiment, nous avons besoin de vous. Un partage, un like, ou un don sur le GoFundMe (gofund.me/9e5ebd84b) de l’école H, c’est déjà énorme.
Merci ❤️ — Today, too many children no longer find their place in traditional school.
Not because they cannot learn — but because the system doesn’t always adapt to them. School H was born from this reality.
An inclusive, human-centered school supported by AI to help every child grow. We are building a new form of education.
To make it real, we need your support. A share, a like, or a little gift on the School H GoFundMe already makes a difference.
Thank you ❤️ GOFUNDME : gofund.me/9e5ebd84b

Français
1
2
6
652
l'abondance, le retour 🇫🇷 รีทวีตแล้ว
Brivael - FR
Brivael - FR@BrivaelFr·
Google vient de publier un papier qui compresse les LLMs à 3 bits. 8x plus rapide, 6x moins de mémoire. Zéro perte de performance 🤯🤯🤯 Le truc c'est que la méthode est élégante au point d'en être presque triviale une fois qu'on la comprend. Ça s'appelle TurboQuant. Je vous vulgarise tout le paper : Déjà, le problème de base. Quand un LLM génère du texte, il doit se "souvenir" de tout ce qu'il a lu et écrit avant. Ce système de mémoire s'appelle le KV cache (key-value cache). Imaginez un étudiant qui prend des notes ultra détaillées pendant un cours. Plus le cours est long, plus ses notes prennent de place sur son bureau. À un moment il n'a plus de place pour écrire. C'est exactement ce qui se passe avec les LLMs : plus le contexte est long, plus le KV cache explose en mémoire. C'est un des plus gros bottlenecks de l'inférence aujourd'hui. La solution classique c'est la quantization. L'idée est simple : au lieu de stocker chaque nombre avec une précision extrême (32 bits, genre 3.14159265...), tu le stockes avec moins de précision (4 bits, genre "~3"). C'est comme passer d'une photo RAW de 50 MB à un JPEG de 2 MB. Tu perds un peu de détail mais visuellement c'est quasi pareil. Le problème c'est que les méthodes classiques de quantization trichent un peu. Pour chaque petit bloc de données compressé, elles doivent stocker des "constantes de calibration" en pleine précision. C'est comme si pour chaque photo JPEG vous deviez garder un petit post-it en haute résolution à côté qui dit "voilà comment décoder cette image". Ces post-its rajoutent 1 à 2 bits par nombre. Quand tu essaies de compresser à 2 ou 3 bits, cet overhead représente une part énorme de ta mémoire totale. Ça annule une bonne partie du gain. TurboQuant résout ça en deux étapes. Étape 1 : PolarQuant. Au lieu de décrire un vecteur avec des coordonnées classiques (X, Y, Z), tu le convertis en coordonnées polaires : une distance + un angle. C'est comme remplacer "va 3 rues à l'est puis 4 rues au nord" par "va 5 rues direction 37 degrés". Même info, format plus compact. L'astuce c'est qu'avant de faire ça, tu appliques une rotation aléatoire sur tes vecteurs. Ça rend leur distribution prévisible et uniforme. Du coup tu n'as plus besoin de stocker les fameuses constantes de calibration, la géométrie fait le travail toute seule. Étape 2 : QJL (Quantized Johnson-Lindenstrauss). Après PolarQuant il reste une petite erreur résiduelle. QJL la corrige avec 1 seul bit par nombre. Le principe vient d'un théorème mathématique qui dit qu'on peut projeter des données de haute dimension dans un espace plus petit tout en préservant les distances entre les points. QJL pousse ça à l'extrême : il réduit chaque valeur projetée à juste son signe (+1 ou -1). Un seul bit. Et grâce à un estimateur spécial qui combine la query en haute précision avec ces données ultra compressées, le modèle calcule toujours des scores d'attention précis. Les résultats sont assez dingues. Sur les benchmarks long-context (LongBench, Needle in a Haystack, RULER...) avec Gemma et Mistral : zéro perte de performance à 3 bits. Le KV cache est réduit d'un facteur 6x. Et sur H100, le calcul des scores d'attention est jusqu'à 8x plus rapide qu'en 32 bits. Le tout sans aucun fine-tuning ou entraînement supplémentaire. Tu branches, ça marche. Et le plus intéressant : ça ne sert pas qu'aux LLMs. TurboQuant surpasse aussi les méthodes state of the art en vector search, c'est à dire la techno qui permet de chercher par similarité dans des bases de milliards de vecteurs (ce qui fait tourner Google Search, les systèmes de recommandation, le RAG...). Mon take : l'inférence c'est là où se joue la vraie bataille économique de l'AI. Les marges de toute l'industrie dépendent du coût par token en production. Un gain de 6 à 8x sur la mémoire et la vitesse d'inférence, sans aucune perte de qualité, ça change fondamentalement l'équation. Ce type de recherche ne fait pas de bruit sur Twitter mais son impact business est potentiellement supérieur à celui d'un nouveau foundation model.
GIF
Français
58
245
1.2K
134.1K
l'abondance, le retour 🇫🇷 รีทวีตแล้ว
Sarah Abv
Sarah Abv@Sarahsa09309757·
Le régime musulman meurtrier des mollah a exécuté Melika Azizi aujourd’hui. Que sa mémoire soit bénie. 💔
Sarah Abv tweet media
Français
673
2.3K
3.7K
38.3K
l'abondance, le retour 🇫🇷 รีทวีตแล้ว
🇫🇷 MissPeel 🇫🇷
🇫🇷 MissPeel 🇫🇷@MissPeelEmma·
Justement j'en parlais avec mes collègues ! Et si on travaillait en visio et on montrait à nos patients comment se laver et s'habiller seul, changer leurs pansements, se mettre le bassin, faire leur prise de sang, ... Après tout on est jamais mieux servi que par soi-même 👍🏻
🇫🇷 MissPeel 🇫🇷 tweet media
Français
442
1K
2.6K
88.5K
l'abondance, le retour 🇫🇷 รีทวีตแล้ว
Guillaume Limousin
Guillaume Limousin@Sonic_urticant·
🥳 Combien de milliers de bébés malformés par la faute de Greenpeace ? On se rappellera du riz doré, dont la meuchante multinationale a offert le brevet à l'humanité, et que Greenpeace a réussi à faire interdire dans des pays pauvres malgré une lettre de 107 prix Nobel à l'ONU pour demander que Greenpeace Monde et la gourelle complotiste antivax Vandana Shiva cessent leurs mensonges mortels. Cette organisation devrait être interdite et ses dirigeants internationaux mis en prison.🔽 sciencepresse.qc.ca/opinions/actes…
franceinfo@franceinfo

Greenpeace France va supprimer un quart de ses effectifs d'ici cet été l.franceinfo.fr/Rd5

Français
10
323
1.2K
69.2K
l'abondance, le retour 🇫🇷 รีทวีตแล้ว
Association Femme Azadi
La république islamique expliquée pour les nuls … Qu’ils aiment Kant ou la cornemuse ne change rien à ce qu’ils sont … merci de cesser la mascarade .
Association Femme Azadi tweet media
Français
8
158
365
2.9K
l'abondance, le retour 🇫🇷 รีทวีตแล้ว
ThinkerView
ThinkerView@Thinker_View·
Nouvelle interview, partagez, soutenez nous sur Tipeee, on vous aime ! Stress test : Agnès Pannier-Runacher [EN DIRECT] youtube.com/watch?v=eEhCw-…
YouTube video
YouTube
Français
108
28
151
44.2K
l'abondance, le retour 🇫🇷 รีทวีตแล้ว
Jerome Rodrigues Officiel
Jerome Rodrigues Officiel@J_Rodrigues_Off·
📢🧔🏻‍♂️ les milliards, qui sont en train d’entrer dans les caisses de l’État grâce a l’augmentation des carburants via les taxes … quelqu’un peut me dire à quoi va servir cet argent ?? Pour le système santé … pour l’éducation de nos enfants ?? #jeposelaquestion
Français
492
401
1.3K
27.2K