Valentin Silvestre

2.6K posts

Valentin Silvestre banner
Valentin Silvestre

Valentin Silvestre

@ValentinSilves

PHP lover, mostly working with Symfony. In contract with Akawaka.

Lille, France Beigetreten Nisan 2016
229 Folgt205 Follower
Valentin Silvestre
Valentin Silvestre@ValentinSilves·
@nexxeln @opencode Shouldn't it goes to the deep init direction from ohmyopencode ? Multiple agents.md to different folder
English
0
0
0
7
nexxel
nexxel@nexxeln·
in the next release of @opencode /init becomes a guided AGENTS.md setup it reads the repo, figures out the stuff agents actually need to know, and asks a couple targeted questions when the important bits aren’t obvious from the codebase
nexxel tweet media
English
27
22
638
18.4K
Nic Wortel
Nic Wortel@nicwortel·
The PHP internals team has voted 38-4 to deprecate all OOP constructs in PHP 9.0. The reason: LLMs produce 34% fewer errors on procedural codebases. SOLID principles cause context overload in 78% of tested models. `__construct()` is the #1 source of LLM hallucinations in PHP. #laravel and #symfony are assessing the impact on their roadmaps. WordPress is already compatible. How are you preparing your codebase? #php #oop #ai #llm
Nic Wortel tweet media
English
60
33
423
66.2K
chloe
chloe@Zoeillle·
Bon. J'ai testé z.ai sur Claude Code Pure dinguerie, le code est d'une qualité singesque, l'usage très faible. Hop je viens de shutdown mon 2eme abo Claude Pro
chloe@Zoeillle

C'est décidé. En Juin je m'achète un Mac Mini 32GB et je monte un LLM de code dessus. En perso j'aimerais leave Claude éventuellement car le coût à l'usage est devenu beaucoup trop cher. Ce sera uniquement en perso J'hésite juste entre 32GB de RAM ou 64 (prix x2)

Français
29
6
287
102.1K
Z.ai
Z.ai@Zai_org·
Introducing GLM-5V-Turbo: Vision Coding Model - Native Multimodal Coding: Natively understands multimodal inputs including images, videos, design drafts, and document layouts. - Balanced Visual and Programming Capabilities: Achieves leading performance across core benchmarks for multimodal coding, tool use, and GUI Agents. - Deep Adaptation for Claude Code and Claw Scenarios: Works in deep synergy with Agents like Claude Code and OpenClaw. Try it now: chat.z.ai API: docs.z.ai/guides/vlm/glm… Coding Plan trial applications: docs.google.com/forms/d/e/1FAI…
English
139
316
3.1K
679.9K
Le K
Le K@_LeKb_·
Mon prof (et chef de département) est le pire prof de l'histoire. C'est une pourriture sérieusement... Vive l'informatique hein
Le K tweet media
Français
60
10
761
123.5K
Valentin Silvestre
Valentin Silvestre@ValentinSilves·
@dunglas C'est un délire de Google pubsub/protobuf/grpc, un truc qui tourne autour mais j'ai pas plus de piste après des heures de debug
Français
0
0
0
11
Valentin Silvestre
Valentin Silvestre@ValentinSilves·
@dunglas je cherche a debug une segfault sur l'arch aarm64 spécifiquement avec franken, je le fais tourner sur docker+qemu et galère a debug... Tu as des tips ? dunglas/php-dev-docker conviendrait tu penses ?
Français
1
0
0
28
Valentin Silvestre
Valentin Silvestre@ValentinSilves·
@sudoingX What does "can I run ai" tools says about this ? I feel like their estimation is perfect but I'm not sure
English
0
0
0
115
Sudo su
Sudo su@sudoingX·
if you're about to download nvidia's nemotron cascade 2 at Q4_K_M for a single RTX 3090, stop. save yourself the frustration i went through last night. Q4_K_M is 24.5GB. your 3090 has 24GB VRAM. the model loads, no room for KV cache, no room for context, no room for compute buffer. it will not run. this is a MoE architecture where the expert weights don't compress well at standard Q4. every quant table online lists it as "recommended" without checking if it fits consumer VRAM. the fix: bartowski IQ4_XS at 18.17GB. imatrix quantization that's smarter about which weights need precision and which don't. same 4-bit tier, 6GB smaller because it doesn't blindly keep every expert at the same precision. leaves you 5.4GB of headroom for KV cache and context. downloading it now on the same RTX 3090 i ran qwen 3.5 35B-A3B on at 112 tok/s. same machine, same node, same everything. first up is context scaling sweep from 4K to 262K to see how mamba-2 handles long context compared to qwen's deltanet. then speed benchmarks at each context level. then i'm pointing hermes agent at it for autonomous coding sessions to see how it handles tool calls, file creation, and multi-step builds over long sessions. nvidia vs alibaba. mamba vs deltanet. same hardware, different architectures. i'll report back with exact flags, exact numbers, exact VRAM breakdowns. no theory, no spec sheets. tested data from a real card.
Sudo su tweet media
Sudo su@sudoingX

the hype around this model settled fast. good. now i can test it without the noise. NVIDIA released nemotron cascade. 30B total, 3B active. fits on a single RTX 3090. hybrid mamba MoE. gold medal on the international math olympiad with only 3 billion active parameters. they say it beats qwen on math, code, and reasoning. i tested qwen 3.5 35B-A3B on a single 3090 at 112 tok/s. now same card, same tests, different architecture. mamba vs deltanet. nvidia vs alibaba. receipts incoming tonight.

English
40
34
602
136.3K
Newton Job
Newton Job@_newtonjob·
Very common practice for timestamp column names to have the "_at" suffix. But is there a convention for things that are valid until a certain timestamp in the future? e.g. banned_until? I'm thinking "banned_until_at", but sounds a lil wierd.
Newton Job tweet media
English
37
2
41
13.3K
THISMA
THISMA@thismacapital·
TL;DR : Anthropic a développé une architecture 3 agents pour faire coder Claude en autonomie pendant des heures sans perdre en qualité : Le problème : • Claude perd le fil sur les tâches longues (context window saturée) • Claude s'auto-évalue trop positivement : il dit "c'est bien" même quand c'est moyen • Le design frontend généré est souvent générique La solution : 3 agents séparés : 1. Planner : découpe le projet en tâches 2. Generator : code les features une par une 3. Evaluator : juge le travail du generator (inspiré des GANs) Deux insights clés : • Context resets > compaction : au lieu de résumer le contexte (compaction), ils reset complètement l'agent et passent un artefact structuré au suivant. Ça élimine le "context anxiety" où Claude bâcle la fin parce qu'il croit manquer de place. • Séparer le juge du créateur : un agent qui évalue son propre travail est toujours trop indulgent. Un agent séparé, calibré pour être critique, donne un feedback honnête. Le generator itère 5-15 fois en réponse aux critiques. Pour le design frontend : • 4 critères de notation : qualité design, originalité, craft, fonctionnalité • L'évaluateur utilise Playwright (MCP) pour naviguer sur la page avant de noter • Résultat : des designs beaucoup plus originaux et moins "template AI" Pour le code long-running : • Sessions de plusieurs heures en autonomie totale • Le planner crée des specs détaillées, le generator code, l'evaluator valide En gros : fais apparaître un deuxième agent pour critiquer et challenger le travail du premier
Anthropic@AnthropicAI

New on the Anthropic Engineering Blog: How we use a multi-agent harness to push Claude further in frontend design and long-running autonomous software engineering. Read more: anthropic.com/engineering/ha…

Français
26
38
822
157.6K
Valentin Silvestre retweetet
Aurélien Saintoul
Aurélien Saintoul@A_Saintoul·
Toujours fâchés avec les graphiques sur @FranceTV ou peut-être avec la France insoumise, ou même avec la vérité... À force, on se demande.
Aurélien Saintoul tweet media
Français
142
2.1K
9.6K
195.8K
Valentin Silvestre retweetet
Regelegorila
Regelegorila@regelegorila·
S'il vous plaît, identifiez tous @StefBaly et @marinetondelier pour l'alliance LFI - Écolo à Lille, ne laissez pas la ville dans les mains du PS. Mes lillois, c'est le moment de convaincre ! Juste un @ sur vos réseaux peut déjà beaucoup aider !
Français
367
631
3.9K
169.4K
Valentin Silvestre
Valentin Silvestre@ValentinSilves·
@dunglas I built a new image today. Now I have to build another one 😅
English
0
0
2
143
Kévin Dunglas
Kévin Dunglas@dunglas·
🛡️ Symfony Docker now provides a rootless production image that contains only what is strictly necessary to run #FrankenPHP and #Symfony. They are 60% smaller than before, dropping from 704MB down to just 290MB! 📉✨ We have also merged numerous improvements, such as: ✍️ Use of EOF syntax in the Dockerfile for better readability 🧹 Automatic removal of code only needed during installation github.com/dunglas/symfon…
English
2
23
195
9.3K
Valentin Silvestre
Valentin Silvestre@ValentinSilves·
@CelineBoeuf Ah trop bien! Je comprends l'envie d'autonomie, je demande parce que j'y étais 2-3 ans et j'ai jamais reçu qu'une demande
Français
1
0
1
17
Boeuf Céline et CelineBoeuf@piaille.fr
@ValentinSilves Cette app permet aussi de faire ce que j'évoquais dans mon fil. Si je peux ne solliciter personne, j'aime autant. Mais il m'arrive de demander l'aide d'un bénévole sur BME.
Français
1
0
1
100
Boeuf Céline et CelineBoeuf@piaille.fr
Pour que vous vous rendiez compte un peu plus ce qu'est le quotidien d'une personne #Aveugle parmi d'autres... J'aime bien les ravioli Giovanni Rana et j'en achète plusieurs paquets quand je fais mes courses. Pour choisir celui du jour, 1/n
Français
12
54
1.1K
425.5K
Valentin Silvestre
Valentin Silvestre@ValentinSilves·
@Al_Grigor I need this because I keep paying some things in AWS and can't figure what.
English
1
0
1
14
Alexey Grigorev
Alexey Grigorev@Al_Grigor·
Claude Code wiped our production database with a Terraform command. It took down the DataTalksClub course platform and 2.5 years of submissions: homework, projects, and leaderboards. Automated snapshots were gone too. In the newsletter, I wrote the full timeline + what I changed so this doesn't happen again. If you use Terraform (or let agents touch infra), this is a good story for you to read. alexeyondata.substack.com/p/how-i-droppe…
Alexey Grigorev tweet media
English
1.5K
1.6K
10.9K
4.2M