Ludovic Piot

14.7K posts

Ludovic Piot banner
Ludovic Piot

Ludovic Piot

@lpiot

🐘 @[email protected]. DevOps mixer (France). 🐳Docker-addict, Linuxien, Macounet, Ubixien et amateur de robotique. Pénichard, plongeur, homme volant.

48.683252,2.353335 Katılım Mart 2009
865 Takip Edilen1.3K Takipçiler
Ludovic Piot
Ludovic Piot@lpiot·
@GwinizDu Depuis le début, l’Iran donne une fessée aux occidentaux. Bien qu’agressés, ils répliquent avec des objectifs de guerre clairs, eux. Et une stratégie militaire réfléchie et efficace. On n’est pas dans les gesticulations d’un abruti pédophile et ses caniches.
Français
0
0
1
27
Ludovic Piot
Ludovic Piot@lpiot·
@_Nidouille_ Pour coder sur de l’open source ou du Backend, aucun doute qu’un système POSiX, comme Linux, Mac seront bien plus agréables et l’utilisateur plus productif. Pour coder sur de l’industriel, là, Windows sera plus pertinent. Donc non, ce n’est pas qu’un caprice.
Français
0
0
0
47
Ludovic Piot
Ludovic Piot@lpiot·
@_Nidouille_ Le propos reac de base ! Mais ta comparaison est tout à fait valable. Seulement il faut la pousser jusqu’au moment où elle fait sens. Si tu es commercial dans Paris intra-muros, ta Zoé a du sens. Si tu as un territoire grand comme une région… l’autonomie sera bloquante.
Français
2
0
0
57
Ludovic Piot
Ludovic Piot@lpiot·
@_Nidouille_ Mais la véritable comparaison, c’est plutôt : je suis secrétaire et on me donne une machine à écrire et un fax comme outil de travail. Alors que j’aurais préféré un ordinateur.
Français
0
0
0
25
Ludovic Piot retweetledi
Olivier Poncet 🦝
Olivier Poncet 🦝@ponceto91·
Dolt est une base de données SQL open-source sous licence Apache 2 qui se veut être le git des données : fork, clone, branch, merge et diff… mais pour les tables et leurs données ⬇️ github.com/dolthub/dolt
Français
2
4
26
2.1K
Ludovic Piot retweetledi
Ayaan 🐧
Ayaan 🐧@twtayaan·
DevOps engineers explaining Kubernetes to the team. 😂
English
69
585
3.9K
471K
Ludovic Piot retweetledi
bearstech
bearstech@bearstech·
Voicebox : un studio de synthèse vocale local-first : clonage de voix, génération TTS, enregistrement, transcription, édition multi-pistes, le tout directement sur la machine de l’utilisateur. 👉 Le projet : github.com/jamiepine/voic…
bearstech tweet media
Français
1
17
102
7.9K
Ludovic Piot
Ludovic Piot@lpiot·
@GwinizDu Alors que non, c’est juste un salaud. En même temps, il y a comme une tendance depuis quelques mandats présidentiels…
Français
0
0
0
26
Ludovic Piot retweetledi
Arnaud Lemercier 😇
Arnaud Lemercier 😇@arnolem·
Arrêtez de charger vos fonts complètes sur vos sites web. Divisez par 10 le poids de vos polices grâce au subsetting et profitez des polices variables uxcode.fr/articles/fonte…
Français
1
3
10
643
Ludovic Piot retweetledi
Quentin '🐧' ADAM
Quentin '🐧' ADAM@waxzce·
Breaking the AI compute monopoly, that’s what we're talking about in the fourth and final episode of my conversation with Steeve Morin on Opening Voices. If inference becomes a core layer of the economy, it can’t depend on a single vendor. Not long term. Optionality of compute isn’t a detail. It’s what gives you room to optimize, to reduce costs, to adapt, to survive hardware shifts. And that’s exactly what ZML is building: a chip-agnostic inference stack that lets you move across Nvidia, AMD, TPU, Trainium, and whatever comes next. AI is still wide open. Nothing is locked yet, and yes that’s rare. Want to dig in? Here’s the final episode: youtu.be/uPfnh4Xqhv4
YouTube video
YouTube
English
0
1
4
948
Ludovic Piot retweetledi
Lior Alexander
Lior Alexander@LiorOnAI·
You can now run 70B LLMs on a 4GB GPU. AirLLM just made massive models usable on low-memory hardware. 𝗪𝗵𝗮𝘁 𝗷𝘂𝘀𝘁 𝗵𝗮𝗽𝗽𝗲𝗻𝗲𝗱 AirLLM released memory-optimized inference for large language models. It runs 70B models on 4GB VRAM. It can even run 405B Llama 3.1 on 8GB VRAM. 𝗛𝗼𝘄 𝗶𝘁 𝘄𝗼𝗿𝗸𝘀 AirLLM loads models one layer at a time. Instead of loading everything: → Load a layer → Run computation → Free memory → Load the next layer This keeps GPU memory usage extremely low. 𝗞𝗲𝘆 𝗱𝗲𝘁𝗮𝗶𝗹𝘀 • No quantization required by default • Optional 4-bit or 8-bit weight compression • Same API as Hugging Face Transformers • Supports CPU and GPU inference • Works on Linux and macOS Apple Silicon 𝗪𝗵𝗮𝘁 𝘆𝗼𝘂 𝗰𝗮𝗻 𝗱𝗼 • Run Llama, Qwen, Mistral, Mixtral locally • Test large models without cloud GPUs • Prototype agents on cheap hardware
Lior Alexander tweet media
English
368
1.2K
11.3K
633.5K
Ludovic Piot retweetledi
Olivier Poncet 🦝
Olivier Poncet 🦝@ponceto91·
Bifrost est une gateway pour LLM permettant d'unifier l'accès à plusieurs fournisseurs avec une API compatible OpenAI ⬇️ github.com/maximhq/bifrost
Français
1
3
20
1.8K
Ludovic Piot retweetledi
Riviera DEV 🌴
Riviera DEV 🌴@RivieraDEV·
📢Le CFP de Riviera DEV 2026 est ouvert ! 📢 👀 Les plus à l'affût d'entre vous l'auront déjà vu et soumis leurs talks, mais ça y est, le Call For Papers 2026 est là ! 🌴 Speakers débutants ou confirmés, on attend vos propositions 🗣️ Ca se passe ici ➡️ conference-hall.io/riviera-dev-20…
Français
1
4
4
465