Aiszone

525 posts

Aiszone banner
Aiszone

Aiszone

@Aiszone_

Background finance, zero code. Je ship des SaaS avec l’IA. le pont entre les chiffres et le code sur personne fait.

France Katılım Şubat 2022
128 Takip Edilen64 Takipçiler
Sabitlenmiş Tweet
Aiszone
Aiszone@Aiszone_·
background finance. zero ligne de code avant 2025. en 3 mois j'ai shippe 2 SaaS avec claude code. pas de bootcamp, pas de tuto youtube de 12h, pas de mentor dev. juste un mec qui sait lire un bilan et qui a demande a une IA de coder pour lui.
Français
1
0
0
30
Aiszone
Aiszone@Aiszone_·
@garrytan just-in-time software is real and it changes the economics completely. the cost of building went to zero but the cost of KNOWING WHAT TO BUILD stayed the same. the prompt is free. the context is expensive. that's where the moat is now
English
0
0
0
50
Garry Tan
Garry Tan@garrytan·
"Ready to build" after one prompt is literally just-in-time software realized It's not a pipe dream. It's happening today. We don't have to be so precious about software anymore. With the right prompts, anyone can build anything Also: We should have 100x more open source
Garry Tan@garrytan

You know for years we have been wondering when just-in-time software was going to be possible. It’s here. This project would traditionally take weeks. I wrote one line in Telegram and this popped out. My OpenClaw had all the context. Claude Code will build it in hours today!

English
36
12
191
32.9K
Aiszone
Aiszone@Aiszone_·
@neural_avb the gap between open and closed is shrinking faster than the pricing. when qwen matches 90% of opus at 2-10x cheaper the moat becomes distribution and trust not capability. same pattern as cloud vs on-prem 10 years ago. the premium is temporary
English
0
0
0
13
AVB
AVB@neural_avb·
Underrated fact: open source will always catch up A comparison of GPT 5.4, Opus 4.6, Gemini 3.1 on highest settings vs open models Qwen, Minimax M-2.5, GLM-5, Kimi K2.5 They are all 2-10x cheaper lol. Idk how long closed source can keep any moat besides marketing budget.
AVB tweet media
English
19
8
175
12.5K
Aiszone
Aiszone@Aiszone_·
@Capetlevrai termius + tailscale c'est le combo. j'utilise ca pour check mes deploys depuis le metro. yazi en plus pour naviguer sans cd c'est clean. le jour ou tu geres un incident prod depuis ton telephone c'est la que tu sais que le setup est bon
Français
0
0
0
36
CAPET ☀️
CAPET ☀️@Capetlevrai·
Termius + Tailscale + Yazi pour l’explorateur de fichiers dans le terminal en SSH => 🥰 C’est si beau merci ChatGPT 5.4 pour ce petit geekporn je peux maintenant me balader en SSH sur iPhone avec mes doigts sans taper cd H24 pour changer de dossiers
Français
6
1
74
13.4K
Aiszone
Aiszone@Aiszone_·
@iamsupersocks le flow OAuth reproduit comme ca c'est du reverse engineering classique. le risque c'est pas technique c'est legal. anthropic peut invalider les tokens a tout moment. ceux qui buildent dessus prennent un risque que le sol bouge sous leurs pieds. plan B?
Français
1
0
0
28
Supersocks
Supersocks@iamsupersocks·
À but éducatif bien sûr : ce repo reproduit assez fidèlement le flow OAuth de Claude Code pour l’utiliser dans OpenClaw malgré les restrictions (à vos risques et périls comme toujours pour ce type de manoeuvre). Concrètement, il lit des credentials locaux, rejoue un flow OAuth 2.0 + PKCE, récupère les tokens, puis expose le tout dans une interface REPL pour tester les modèles, suivre l’usage et gérer le refresh. Le point le plus intéressant est dans oauth.py : un mode “indépendant” ouvre le navigateur, lance un callback localhost, échange le code OAuth contre des jetons et les sauvegarde localement. Autrement dit, l’idée ne se limite pas à utiliser Claude Code, mais à comprendre et réutiliser son mécanisme d’auth dans un script perso. Je ne retrouve plus le X du créateur, mais big up pour le taf. Claude Code m’a aidé à adapter ça rapidement pour une instance d’OC, on passe aux autres... gitlab.com/akanoa-test/ro…
Supersocks tweet media
Français
7
2
26
2K
Aiszone
Aiszone@Aiszone_·
@infobiz_wizard 4 semaines c'est le vrai timeline. les gens qui disent "j'ai tout build en un weekend" oublient les 3 semaines de CLAUDE.md, de skills et de debug a 2h du mat. le moment ou ca clique c'est quand t'arretes de prompter et que tu commences a briefer. gros si tu partages le setup
Français
1
0
1
211
Aymen - Lancement & Infobiz
Aymen - Lancement & Infobiz@infobiz_wizard·
j'ai ENFIN bientot reussie à faire ce que je voulais avec claude code Littéralement 4 semaines que je bosse sur un projet clipping, creation de contenu, copywriting, automatisation, ghostwriting, je peux faire tout en VOLUME et 100x plus quali à partir du moment où j'ai compris un métier en profondeur, je peux le remplacer en 48h MAX le niveau d'ingénieurie de ce que j'ai build c'est du jamais vu
Français
8
0
41
8K
Aiszone
Aiszone@Aiszone_·
@BrivaelFr pas faux. la dopamine d'un agent qui ship ton feature pendant que tu check si ca compile c'est un truc. le probleme c'est que tu commences a 14h pour un petit fix et a 3h du mat t'as refactor la moitie du projet. pas sur que ce soit mieux au final
Français
0
0
0
5
Aiszone
Aiszone@Aiszone_·
@mohatnsr j16 et tu laisses tourner sans toucher le weekend. c'est exactement ce que je ferais. la tentation c'est de micro-optim tous les jours mais la data a besoin de volume pour dire un truc. lundi ca devrait etre plus lisible. le 18-19h c'est toujours le creux?
Français
1
0
0
36
le docteur 🇵🇸
le docteur 🇵🇸@mohatnsr·
Build in public – jour 16 2576,06€ de chiffre d’affaires 1 304,07€ dépensés en publicité ROAS : 1,98 Comme prévu, je ne m’attendais pas à une grosse journée suite à l’augmentation des budgets. Je laisse les budgets à 1400€ pour dimanche. Je pense ne rien toucher jusqu’à lundi ou mardi pour laisser l’algo se stabiliser. J’ai fait quelques modifications côté FOMO sur l’offre et dans le panier, plus orientées copywriting pour essayer d’améliorer la conversion. J’ai aussi enlevé le timer au-dessus du bouton checkout. Avant je jouais sur l’urgence avec “voici l’offre” + timer en bas, là je teste sans pour voir l’impact. Le souci actuel : beaucoup de trafic avec des CPC à ~0,30€, mais peu qualifié → taux de conversion autour de 2%. Je ne balance pas de nouvelles créas demain, je reprends lundi. Meta test déjà les nouvelles donc... On laisse tourner.
le docteur 🇵🇸 tweet media
le docteur 🇵🇸@mohatnsr

Build in public – jour 15 2401,22€ de chiffre d’affaires 1 113,75€ dépensés en publicité ROAS : 2,16 Journée mieux qu’hier. Comme d’habitude, ROAS autour de 2,4 toute la journée puis grosse baisse à partir de 18–19h avec moins de ventes. J’ai testé Moonbundle pour le panier, j’ai eu un problème et ils l’ont réglé instantanément. Franchement, dinguerie. J’ai aussi testé l’upsell, déjà une vente dessus. Facile à mettre en place. Je vais tester les bundles d’offres pour demain, adieu kaching bundle mdr. On continue d’ajouter des créas et on laisse tourner. Demain j’augmente encore les budgets (+200€ → 1400€). Je ne m’attends pas à une grosse journée, je veux surtout monter vite en spend pour accélérer les A/B tests.

Français
9
0
45
7.5K
Aiszone
Aiszone@Aiszone_·
@totoche le motion design est propre. un truc que j'ai vu marcher: montrer le paiement en action dans la video. genre le client clique, le formulaire s'ouvre, c'est fait. ca rassure plus que 10 lignes de copy. tu drop quand?
Français
0
0
0
63
totoche
totoche@totoche·
Je viens de cook ce nouveau motion design pour la landing page de mon SaaS taap(.)bio Bientôt tu pourras vendre des sessions de coaching directement depuis ton link-in-bio. Sans redirection. Sans solution tierce. Sans friction. Le client paye sans quitter ta page. Des avis ?
Français
5
1
27
4.8K
Aiszone
Aiszone@Aiszone_·
tout le monde parle de quel modele utiliser. personne parle de comment organiser ce que le modele produit. j'ai plus appris en structurant mes notes qu'en changeant de LLM 3 fois. le bottleneck c'est jamais le modele. c'est toi
Français
0
0
0
15
Aiszone
Aiszone@Aiszone_·
quand ton wiki karpathy-style fait 2.3GB et que tu passes a sqlite c'est plus un side project c'est de l'infra. le pattern: tes agents deviennent bons, tu leur donnes de la memoire, la memoire depasse git, tu build un vrai systeme. on y est
Garry Tan@garrytan

My Karpathy-style git wiki knowledge base for OpenClaw got to 2.3GB and I know git limit is 5GB so my GStack autoplan skill one line prompted this spec for my upgraded GBrain with SqlLite. This will be MIT license open source soon. gist.github.com/garrytan/49c88…

Français
0
0
0
35
Aiszone
Aiszone@Aiszone_·
6500 bookmarks en local pour que ton agent les lise. j'ai 4000+ bookmarks sur X et je retrouve jamais rien. la c'est le mec qui a dit ok j'arrete de perdre du savoir et il l'a open-source. ca manquait
Andrew Farah@andrewfarah

sharing my first open source project a CLI for downloading and syncing your X bookmarks locally so your agent can access them. it's free › npm install -g fieldtheory › login to your X account in a chrome tab › ft sync (done!) bonus: › ft viz › ft classify

Français
0
0
1
25
Aiszone
Aiszone@Aiszone_·
une wikipedia perso construite a partir de tes notes et journal. en finance on fait pareil avec ses trades, chaque decision documentee. le jour ou t'as 400 articles sur tes patterns tu penses plus pareil. memoire externe = compound interest
Andrej Karpathy@karpathy

Farzapedia, personal wikipedia of Farza, good example following my Wiki LLM tweet. I really like this approach to personalization in a number of ways, compared to "status quo" of an AI that allegedly gets better the more you use it or something: 1. Explicit. The memory artifact is explicit and navigable (the wiki), you can see exactly what the AI does and does not know and you can inspect and manage this artifact, even if you don't do the direct text writing (the LLM does). The knowledge of you is not implicit and unknown, it's explicit and viewable. 2. Yours. Your data is yours, on your local computer, it's not in some particular AI provider's system without the ability to extract it. You're in control of your information. 3. File over app. The memory here is a simple collection of files in universal formats (images, markdown). This means the data is interoperable: you can use a very large collection of tools/CLIs or whatever you want over this information because it's just files. The agents can apply the entire Unix toolkit over them. They can natively read and understand them. Any kind of data can be imported into files as input, and any kind of interface can be used to view them as the output. E.g. you can use Obsidian to view them or vibe code something of your own. Search "File over app" for an article on this philosophy. 4. BYOAI. You can use whatever AI you want to "plug into" this information - Claude, Codex, OpenCode, whatever. You can even think about taking an open source AI and finetuning it on your wiki - in principle, this AI could "know" you in its weights, not just attend over your data. So this approach to personalization puts *you* in full control. The data is yours. In Universal formats. Explicit and inspectable. Use whatever AI you want over it, keep the AI companies on their toes! :) Certainly this is not the simplest way to get an AI to know you - it does require you to manage file directories and so on, but agents also make it quite simple and they can help you a lot. I imagine a number of products might come out to make this all easier, but imo "agent proficiency" is a CORE SKILL of the 21st century. These are extremely powerful tools - they speak English and they do all the computer stuff for you. Try this opportunity to play with one.

Français
0
0
0
6
Aiszone
Aiszone@Aiszone_·
@iamsupersocks un wiki perso pour apprendre c'est sous-cote. j'ai fait pareil quand j'ai commence a shipper, noter les patterns qui marchent et ceux qui cassent. quand tu relies les docs entre eux ca devient un vrai systeme. tu le build avec quoi?
Français
1
0
0
29
Supersocks
Supersocks@iamsupersocks·
Je construit un wiki volumineux sur mon aventure coding c’est la où j’expérimente tout ça pour le moment. Je me refais toutes les bases du coding, des LLM.. il faut structurer tout ça et c’est un bon cas d’usage qui me servira aussi a mieux vulgariser à terme et le déployer sur mes sides.
Français
1
0
0
420
Supersocks
Supersocks@iamsupersocks·
Beaucoup d’agents IA comme Cursor ou Claude Code codent encore à l’aveugle sur une grosse codebase. Ils voient bien le fichier ouvert, mais pas l’architecture globale ni l’impact réel d’un changement. GitNexus propose une approche différente : un knowledge graph construit localement à partir de l’AST. Tu lances npx gitnexus analyze sur ton repo. L’outil parse tout avec Tree-sitter (TS/JS, Python, Go, Rust, etc.), résout les imports et appels cross-files, trace les flux depuis les points d’entrée, et regroupe les morceaux de code en communautés fonctionnelles via l’algorithme Leiden. Tout reste sur ta machine, dans un dossier .gitnexus/. Le résultat: Un graphe avec nœuds (fonctions, classes…) et relations précises (CALLS, IMPORTS, EXTENDS…) accompagnées d’un score de confiance. Contrairement au RAG classique qui découpe le code en chunks flous, ici la structure est pré-calculée à l’index time. L’agent n’a plus à deviner. Ensuite tu lances gitnexus mcp. Tes agents ont accès à des outils concrets : impact : « si je modifie cette fonction, quels fichiers et processus sont touchés ? » context : vue 360° d’un symbole (qui l’appelle, qui il appelle, dans quel flux). detect_changes et rename pour des refactors multi-fichiers plus sûrs. Une réponse complète en un seul appel. Concrètement : avant, l’agent modifiait UserService.validate() sans savoir que 47 autres fonctions dépendaient de son retour. Maintenant il obtient le blast radius exact avant de toucher. Ça réduit les surprises et les allers-retours de debug. GitNexus ne remplace pas Sourcegraph ou Cody : il les complète en apportant ce contexte architectural local et privé. Le graphe est pré-digéré, donc même des modèles plus légers gagnent en fiabilité sur les grosses bases de code. Support langage encore inégal (TS/JS et Python plus matures), et l’UI web limitée à ~5000 fichiers, mais la CLI gère bien plus. Si tu utilises régulièrement des agents IA pour coder, tester npx gitnexus analyze sur un de tes repos vaut le coup. L’idée centrale : passer d’un graphe brut exploré à la volée à un graphe intelligent pré-calculé exposé via MCP répond à un vrai pain point quotidien. À suivre dans les mois qui viennent ça bouge pas mal dans ce sens...
Guri Singh@heygurisingh

🚨Breaking: Someone open sourced a knowledge graph engine for your codebase and it's terrifying how good it is. It's called GitNexus. And it's not a documentation tool. It's a full code intelligence layer that maps every dependency, call chain, and execution flow in your repo -- then plugs directly into Claude Code, Cursor, and Windsurf via MCP. Here's what this thing does autonomously: → Indexes your entire codebase into a graph with Tree-sitter AST parsing → Maps every function call, import, class inheritance, and interface → Groups related code into functional clusters with cohesion scores → Traces execution flows from entry points through full call chains → Runs blast radius analysis before you change a single line → Detects which processes break when you touch a specific function → Renames symbols across 5+ files in one coordinated operation → Generates a full codebase wiki from the knowledge graph automatically Here's the wildest part: Your AI agent edits UserService.validate(). It doesn't know 47 functions depend on its return type. Breaking changes ship. GitNexus pre-computes the entire dependency structure at index time -- so when Claude Code asks "what depends on this?", it gets a complete answer in 1 query instead of 10. Smaller models get full architectural clarity. Even GPT-4o-mini stops breaking call chains. One command to set it up: `npx gitnexus analyze` That's it. MCP registers automatically. Claude Code hooks install themselves. Your AI agent has been coding blind. This fixes that. 9.4K GitHub stars. 1.2K forks. Already trending. 100% Open Source. (Link in the comments)

Français
10
38
345
53.9K
Aiszone
Aiszone@Aiszone_·
Salut tout le monde, je suis etudiant et je developpe une appli pour aider les etudiants a postuler plus vite. Tu colles le lien d'une offre, et l'appli genere un CV, une lettre de motivation et une fiche de revision sur l'entreprise adaptes a l'offre. Il y a aussi une extension Chrome qui remplit les formulaires de candidature automatiquement. C'est encore tout frais, j'ai besoin de retours honnetes pour ameliorer le produit. Si ca vous interesse de tester, envoyez-moi un DM je vous offre un acces premium gratuit. Toutes les critiques sont les bienvenues, meme les plus dures. C'est comme ca qu'on avance. joplaz.com
Français
0
0
0
30
Aiszone
Aiszone@Aiszone_·
Salut tout le monde, je suis etudiant et je developpe une appli pour aider les etudiants a postuler plus vite. Tu colles le lien d'une offre, et l'appli genere un CV, une lettre de motivation et une fiche de revision sur l'entreprise adaptes a l'offre. Il y a aussi une extension Chrome qui remplit les formulaires de candidature automatiquement. C'est encore tout frais, j'ai besoin de retours honnetes pour ameliorer le produit. Si ca vous interesse de tester, envoyez-moi un DM je vous offre un acces premium gratuit. Toutes les critiques sont les bienvenues, meme les plus dures. C'est comme ca qu'on avance. joplaz.com
Français
0
0
0
100
Aiszone
Aiszone@Aiszone_·
@AntoninAtger @AntoninAtger bienvenue dans le trou noir. au bout de 2 semaines tu vas commencer a configurer des hooks, des CLAUDE.md de 200 lignes et des skills custom. et tu vas te demander comment t'as pu ecrire quoi que ce soit sans ca avant. bon voyage
Français
0
0
1
9
Antonin Atger
Antonin Atger@AntoninAtger·
Je viens de découvrir Claude Code. Adieu.
Français
21
3
88
15.5K
Aiszone
Aiszone@Aiszone_·
@Frenchiee @Frenchiee les 2 mondes c'est le split open source vs proprietary. nvidia quantize gemma 4 d'un cote, anthropic ferme openclaw de l'autre. le gagnant c'est celui qui aura le plus de devs. et les devs vont la ou c'est gratuit. always
Français
0
0
0
104
Frenchie 🇫🇷
Frenchie 🇫🇷@Frenchiee·
En 48h, on a vu les deux mondes de l'IA partir dans des directions 100% OPPOSÉES. Et y a un gagnant selon moi.. 1️⃣ Hier soir Boris Cherny (lead Claude Code) annonce que ton abo Claude ne couvrira plus les outils tiers type OpenClaw Ce soir 21h c'est effectif. 2️⃣ Pendant ce temps : >Jeudi : Google sort Gemma 4 en open source total, 31B paramètres, Apache 2.0 >Vendredi : NVIDIA le compresse en NVFP4, 63 GB → 33 GB, 99.7% de qualité conservée >Estimation commu : ça pourrait tourner sur 24-32 GB de VRAM Une corpo qui te dit "paie plus" et l'open source qui te donne un modèle frontier à run chez toi, le MÊME week-end. Le local devient LA priorité dans ma tête pour la suite
Eric ⚡️ Building...@outsource_

BREAKING:🚨 NVIDIA just quantized Gemma 4 31B on Hugging Face 🔥 NVFP4 compression = 4x smaller weights with frontier-level accuracy. ✅99.7% of baseline on GPQA (75.46% vs 75.71%). 📈256K context window. 🧐Multimodal (text + images + video). vLLM-ready + Blackwell optimized. VRAM requirements: ⚡️Weights only: ~16–21 GB 🚀Everyday use: Runs on 24 GB GPUs 📈Full 256K context = 32 GB VRAM sweet spot (RTX 5090-class consumer GPUs) This is the 31B-class frontier model you can actually run locally on a high-end rig. Try it today👉 huggingface.co/nvidia/Gemma-4…

Français
40
73
823
135.1K
Aiszone
Aiszone@Aiszone_·
@LeDindonFiscal @LeDindonFiscal les cycles c'est reel. meme experience sur des bilans. chatgpt donnait un EBITDA propre en decembre, en mars meme prompt sort n'importe quoi. passe sur claude pour le financier. le probleme c'est qu'on sait jamais quand ca degrade
Français
0
0
1
53
Dindon Fiscal
Dindon Fiscal@LeDindonFiscal·
Je suis le seul à remarquer des cycles en utilisant l’IA ? ChatGPT était incroyable, mais avec le temps il devient de plus en plus stupide. Des tâches qu’il effectuait de manière chirurgicale, comme donner un EBITDA corrigé à partir d’un bilan comptable, sont soudain grossières avec des écarts énormes, voire carrément des chiffres inventés. En ce moment c’est Gemini qui décline, j’ai l’impression. Je dois de plus en plus détailler mes prompts pour qu’il comprenne. J’ai l’impression qu’il y a un nerf de l’IA. S’il faut payer un abonnement supplémentaire, même 500/1000 € par mois, ce n’est pas un problème, mais j’aimerais qu’on me dise que l’IA n’est pas sûre de son résultat. D’autres du même avis ? Vous utilisez quoi ? J’ai surtout besoin d’analyser des chiffres de type bilan comptable.
Français
208
26
558
142.4K
Aiszone
Aiszone@Aiszone_·
@om_patel5 @om_patel5 le shift c'est ca. senior engineer en 2026 c'est 70% review 20% prompting 10% typing. le mec qui tape le plus vite gagne plus rien. celui qui ecrit le meilleur brief gagne tout. on est passe de "qui code le mieux" a "qui pense le mieux". le craft c'est le contexte
Français
0
0
0
123
Om Patel
Om Patel@om_patel5·
THIS IS HOW A SENIOR ENGINEER ACTUALLY SCALES THEMSELVES WITH CLAUDE CODE the biggest change with AI isn't coding faster. it's where you actually spend your time now. more detailed prompts, more code review, more planning, less typing, etc. here's the workflow: this guy has been shipping code since the days of cgi and perl. he uses a compound engineering plugin that runs 5 separate agents on every task. one brainstorms, one plans the technical implementation, one executes, one reviews, one checks different verticals. every step is documented in markdown files. it's slow and way more waiting. but the output quality is way higher because each agent is focused on one thing. then the REAL multiplier is in git worktrees if Claude Code made you 10x faster, worktrees multiplies that again depending on how many agents you can manage in parallel his team runs 4-8 Claude Code sessions at the same time across different worktrees with each one working on a separate task. the skill is managing multiple AI agents in parallel without losing track, that's the next evolution of engineering
English
110
86
1.2K
144.2K