Flamme-Demon

6K posts

Flamme-Demon banner
Flamme-Demon

Flamme-Demon

@flammedemon

Beigetreten Şubat 2010
362 Folgt79 Follower
Flamme-Demon
Flamme-Demon@flammedemon·
@ANNO_EN * Why isn't there a hot reconnect? * Why can't the player who already started the game rejoin on their own? * The ping is surprisingly high at 60–100 ms, even though my fiber connection to Paris is 10–15 ms.
English
0
0
0
24
Flamme-Demon
Flamme-Demon@flammedemon·
@ANNO_EN No improvement in overall performance? I have a 7900 XTX + 64 GB of RAM, and I'm barely getting 20–30 FPS. This happens as soon as the amphitheater is built. In multiplayer: * Every time the province changes, everyone freezes for a few moments.
English
1
0
0
178
Anno
Anno@ANNO_EN·
Alongside the DLC, Update 1.5 is landing! Today, we’re giving you an early look at improvements and quality-of-life changes. Full patch notes including all the bug fixes drop Wednesday! ubi.li/3PfGC
Anno tweet media
English
3
7
132
5.5K
Flamme-Demon
Flamme-Demon@flammedemon·
@Issa201735 @Capetlevrai Ouai les modèles sont franchement gros. Après si tu as un paquet de RAM tu peux faire CPU/RAM, mais le nombre de token par seconde s'effondre complètement.
Français
0
0
1
15
CAPET ☀️
CAPET ☀️@Capetlevrai·
L'IA en local avec Qwen3.6 on peut dire qu'elle commence à faire plaisir, je pourrai faire de la veille info toute la nuit sur différents bot Telegram et ça marcherait Tellement heureux d'avoir mis 2200€ dans une RTX 4090 il y a plus de 2 ans ! Quel bijou
CAPET ☀️ tweet media
Français
13
1
77
11.7K
Flamme-Demon
Flamme-Demon@flammedemon·
@Issa201735 @Capetlevrai C'est un modèle 12go ? Si c'est le cas sa paraît short. Il faudrait passer sur des modèles plus petit. Des 9b en 8-bit peut être. Utilise lmstudio c'est très visuel et pratique pour voir quel modèle tu peux charger ou non.
Français
1
0
1
28
Issa
Issa@Issa201735·
@flammedemon @Capetlevrai j'ai une rtx4070 c'est possible de faire ça aussi ? ou elle nul cette carte ?
Français
1
0
0
25
Flamme-Demon
Flamme-Demon@flammedemon·
@Capetlevrai Yep je le test actuellement. J'ai du modifié le llama du dev pour avoir le fonctionnement sur rocm (AMD). Mais sa tourne sur 15go avec 65k de context.
Français
0
0
2
93
Flamme-Demon
Flamme-Demon@flammedemon·
@ANNO_EN Have you thought about multiplayer?! Because playing solo on that huge island completely throws the game off balance. It’s also really fun to have everyone play together.
English
0
0
0
24
Anno
Anno@ANNO_EN·
By Vulcan, it seems we have angered the volcano! Our DevBlog dives into the different eruption phases, the new resource obsidian and what to do with it. Learn about the new features of "Prophecies of Ash" on the Anno Union: ubi.li/pTQlF
Anno tweet media
English
2
6
97
3.6K
Flamme-Demon
Flamme-Demon@flammedemon·
@iamsupersocks Bah je suis mitigé. On n'a prouver que des modèles propre peuvent être aussi efficace que ceux gavé aux data volé. Ils vont être obligé d'avoir des données ouvertes et plus pompé comme des oufs.
Français
0
0
0
6
Supersocks
Supersocks@iamsupersocks·
Version pour les flemmards : Le Sénat vient de voter à l'unanimité une loi qui inverse la charge de la preuve : si ton modèle IA a pu utiliser une œuvre protégée, c'est à toi de prouver le contraire. En 2026. Alors que les modèles sont déjà entraînés depuis 2022 et tournent en local sur un PC à 2k€. La loi ne touche ni les US ni la Chine juste les boîtes européennes qui jouent le jeu. Mistral avait proposé une contribution sur le CA, appliquée à tous, pour financer les créateurs. On a préféré la présomption de culpabilité. Résultat : on pénalise nos propres champions pendant que les autres avancent plein gaz.
Supersocks@iamsupersocks

La France a parmi les meilleurs mathématiciens et ingénieurs IA du monde. On le sait. On les embauche partout ailleurs. Et la première chose qu'on fait au moment où on pourrait enfin capitaliser dessus ? On vote une loi qui transforme l'entraînement d'un modèle sur sol européen en parcours du combattant juridique. À l'unanimité. Avec le sourire. Le 8 avril 2026, le Sénat adopte la proposition de loi Darcos-Evren-Ouzoulias. Nouvel article L. 331-4-1 du Code de la propriété intellectuelle. Mécanisme : présomption d'utilisation des contenus culturels par les systèmes d'IA. Dès qu'un indice (développement, déploiement ou output) rend l'usage d'une œuvre protégée « vraisemblable », c'est à l'entreprise de prouver qu'elle ne l'a pas exploitée. Inversion de la charge de la preuve. Sur le papier, c'est « David contre Goliath ». Dans les faits, c'est surtout « Goliath américain et chinois qui s'en fout » contre « Mistral et les boîtes européennes qui jouent encore le jeu du sol ». Soyons clairs : les présomptions existent en droit, c'est un mécanisme connu. En matière de contrefaçon, ça fonctionne. Mais ici, on parle de prouver un négatif sur des datasets de centaines de milliards de tokens. La question n'est pas de savoir si c'est juridiquement possible en théorie. La question, c'est le coût de conformité, l'incertitude massive et le risque juridique concret que ça fait peser sur tout acteur qui entraîne ou déploie en Europe. Rien que ce risque suffit à décourager l'investissement. Et c'est exactement ce qui va se passer. Maintenant, posons le problème de fond : l'extraterritorialité. Une boîte américaine ou chinoise peut entraîner son modèle chez elle, sur n'importe quelles données, sans contrainte, puis venir vendre ses services en Europe. Une boîte française qui veut faire la même chose subit toute la contrainte sur son sol, avec ses données, avec ses capitaux. Le résultat est prévisible : les acteurs étrangers captent le marché européen sans friction, les acteurs locaux portent seuls le poids de la conformité. C'est exactement le piège de la régulation asymétrique. On crée un avantage compétitif pour ceux qu'on prétend combattre. OpenAI, Google, Meta ont entraîné leurs modèles frontier massivement sur le web ouvert entre 2022 et 2025. C'est un fait documenté, contesté en justice : le NYT a attaqué OpenAI, Getty a attaqué Stability AI, les procès sont en cours. Ce n'est pas que personne n'a réagi. C'est que la régulation arrive quatre ans après les faits, mal calibrée, et qu'elle ne touche pas ceux qui ont déjà engrangé l'avantage. Les modèles sont entraînés. Les poids sont dans la nature. C'est fini. Et c'est là que le décalage avec la réalité technique devient vertigineux. En 2026, sur un PC à 2 000 euros, n'importe qui fait tourner Qwen 3.5, Gemma4, GLM en local. Niveau frontier de 2024/2025 voir 2026. Sans garde-fous, sans journal de bord, sans rien. Les modèles sont open, distillés, parfois « obligatered » : sans aucune restriction. Demande à Gemini de reproduire une œuvre, il te dira non. Télécharge un modèle open en local, tu fais ce que tu veux. La loi ne touche pas ça. Elle ne touche que ceux qui déclarent leur activité en Europe et qui veulent scaler légalement. On pénalise la transparence. Ce n'est plus une affaire de « géants de l'IA » contre les créateurs. La démocratisation est totale. Le narratif « Big Tech pille les artistes » était peut-être pertinent en 2022. En 2026, c'est une grille de lecture obsolète qui ignore la réalité du terrain. La vraie mesure utile serait d'imposer aux modèles fermés qui opèrent en Europe des garde-fous anti-copie stricts c'est là que le levier existe, c'est là que l'enforcement est possible. Pas de compliquer l'entraînement pour tout le monde. Parlons de qui cette loi protège vraiment. On nous dit « les créateurs ». Les artistes face au pillage. Mais quand on regarde de plus près, les bénéficiaires ne sont pas les créateurs indépendants. Ce sont les sociétés de gestion collective historiques (CNC, SACEM), les lobbys culturels qui défendent un modèle économique du XXe siècle face à une technologie qui compresse le temps de création par un facteur 1000. Un youtubeur qui conjugue IA et création humaine ? Il n'est pas protégé par cette loi. Il est dans le viseur ou menacé indirectement. Un créateur indépendant qui nourrit son process avec du prompting ? Pareil. La loi protège le statu quo culturel, pas la création de demain. Le modèle de rémunération des créateurs doit évoluer, c'est une évidence. L'IA compresse en quelques minutes ce qui prenait des mois. Il n'y a pas de bouton pour revenir en arrière. Mais la réponse n'est pas de bloquer la technologie avec des lois qui ne s'appliquent qu'à ceux qui jouent le jeu. La réponse, c'est de construire un mécanisme de redistribution qui fonctionne dans le monde tel qu'il est, pas tel qu'on voudrait qu'il soit. Et justement, cette réponse existe. @MistralAI l'a posée sur la table. Mistral, le seul champion français de l'IA presque frontier. La boîte qui vient de lever 830 millions de dollars pour construire ses data centers près de Paris. Arthur Mensch, son CEO, a publié le 20 mars dans le Financial Times une tribune proposant une contribution obligatoire de 1 à 5 % du chiffre d'affaires des fournisseurs d'IA opérant en Europe, versée dans un fonds européen destiné à indemniser les créateurs. Transparente. Mesurable. Appliquée à tout le monde y compris les Américains et les Chinois qui vendent ici. C'est de l'équilibre économique réel. Ça finance la création sans tuer l'entraînement. Ça résout le problème d'extraterritorialité parce que la contribution s'applique au chiffre d'affaires réalisé en Europe, pas au lieu d'entraînement. On a préféré la présomption de culpabilité. Maintenant, zoomons arrière. Parce que le sujet des auteurs, c'est une toute petite partie de l'iceberg. L'IA, c'est une révolution. Pas un sujet de commission parlementaire entre deux cafés. C'est la plus grande redistribution de puissance technologique depuis Internet. Pendant qu'on débat de « pillage » et de « chalutage des contenus », la Chine forme des armées de robots autonomes, les États-Unis signent des contrats défense à 20 milliards avec Anduril et Palantir, et les labos chinois distillent les modèles américains pour les retourner contre eux. Nous, on en est encore à se demander si l'IA est « vraiment intelligente ». Le décalage entre la réalité technique et la compréhension qu'en ont ceux qui légifèrent est abyssal. Et je pèse mes mots. Quiconque a passé un weekend avec un modèle frontier un GPT-5.4 un opus4.6 à 200 dollars par mois sait que ce n'est pas un gadget. >>> C'est un accélérateur cognitif qui change fondamentalement la manière dont on travaille, dont on crée, dont on raisonne. -> Voter une loi sur l'IA sans avoir jamais poussé un de ces modèles dans ses retranchements, c'est comme réguler l'automobile en n'ayant jamais conduit. La France a une carte exceptionnelle. Le talent mathématique. L'énergie nucléaire pour alimenter les data centers. Une volonté de souveraineté qui, parfois, se traduit en actes concrets. Mais à chaque révolution technologique, on fait la même erreur : on protège d'abord les rentes du passé au lieu de construire les champions de demain. Et le résultat est toujours le même : on forme les meilleurs ingénieurs, qui partent chez Google, OpenAI ou Anthropic. La mondialisation a déjà bouffé nos boîtes malgré une révolution industrielle plutôt réussie. Nos entreprises n'ont pas eu le réflexe d'aller à l'étranger, de mettre en jeu leur IP, de jouer la compétition mondiale. On a préféré rester dans notre petit marché, protégés par nos petites lois. Et quand le train est passé, on a regardé. Celui-là ne repassera pas. Quand tu sabotes le process d'entraînement, tu sabotes les marges. Tu sabotes l'innovation. Tu sabotes l'intégration verticale. C'est le même principe que dans le manufacturing : celui qui contrôle le process contrôle les marges et la souveraineté. Tesla l'a compris avec ses Gigafactories. Apple l'a compris avec ses puces. Et nous, on fait exactement l'inverse. On met des bâtons dans les roues de nos propres constructeurs pendant qu'on continue de signer des chèques à Palantir pour nos besoins en données stratégiques. On fait fuir les entrepreneurs. On fait fuir les talents. On fait fuir les sachants. Et quand on n'aura plus que les yeux pour pleurer, on continuera d'applaudir les lois votées à l'unanimité en se demandant pourquoi on est à la traîne. Ce n'est pas David contre Goliath. C'est la France qui se tire une balle dans le pied, toute seule, avec le sourire, à l'unanimité, en se disant qu'elle protège la culture française. La solution adulte était sur la table : contribution sur le CA, appliquée à tous, garde-fous anti-copie stricts sur les modèles fermés. Pas une présomption qui transforme tout développeur européen en suspect par défaut et qui ne change rien pour le type qui fait tourner un modèle open en local sur son PC. Contrôle du process ou dépendance éternelle. On est en train de choisir la seconde. Réveillez-vous.

Français
9
6
24
1.9K
Flamme-Demon
Flamme-Demon@flammedemon·
@PrSamyleiev @Maitre_Eolas @PHactNeutre Complètement, et rien n'ai fait pour corrigé le tire. Aucune mise en avant de soft, aucune explication sur les risque et les enjeux. On éduc absolument pas les citoyens a ce sujet. Il existe pourtant des alternatives.
Français
0
0
1
15
Samyleiev
Samyleiev@PrSamyleiev·
@flammedemon @Maitre_Eolas @PHactNeutre Ni plus ni moi ns que toute App soit dit en passant du coup. Le petit coup de frissons sur la confidentialité des échanges avec IA est une opportunité pour se rappeler que c'est exactement le même fucking enjeu avec TOUTE App dans laquelle on saisit des données.
Français
1
0
0
40
Flamme-Demon
Flamme-Demon@flammedemon·
@Maitre_Eolas @PHactNeutre Le modèle ne fera rien. L'application qui le fera tourner par contre. Et les versions en ligne il n'y a aucun sujet.
Français
2
0
0
249
Flamme-Demon
Flamme-Demon@flammedemon·
@JohnCZ20 @Shirleyyych Bah, c’est un vrai problème. Il ajoute tout et n’importe quoi sans contrôle, puis se défausse en disant que c’est une marketplace. C’est lamentable. Une boutique physique revend bien les produits d’autres marques et elle, au moins, assume la garantie et les retours.
Français
1
0
2
107
John CZ
John CZ@JohnCZ20·
@Shirleyyych Tu as acheté via un marketplace ... c'est pas amazon directement qui est le vendeur ! C'est le soucis ... beaucoup de gens pensent qu'en achetant sur internet c'est le site qui est le vendeur, pas toujours et pas sur tout.
Français
2
0
0
1.2K
Supersocks
Supersocks@iamsupersocks·
L'IA locale amène beaucoup de questionnements. Et c'est tant mieux. Je tourne des modèles sur un Ryzen AI Max+ 395, 96 Go de mémoire unifiée. Qwen3.5-35B-A3B à 61 tokens/seconde. Sur mon bureau. Pas dans un datacenter. Il y a 18 mois, c'était un truc de hobbyiste. Aujourd'hui c'est un mouvement structurant. Plusieurs forces convergent. Le hardware a rattrapé le logiciel. Côté hardware, trois voies convergent. Mon setup : un APU à mémoire unifiée, 96 Go de RAM partagée entre CPU et GPU, pas de carte graphique dédiée. Sinon : des GPU grand public (RTX 4090/5090) avec assez de VRAM pour des modèles quantizés. Ou des NPU, des accélérateurs IA embarqués directement dans le processeur, encore tôt pour les LLM, mais ça avance. Dans les trois cas : du 30B+ sur ton bureau. Côté software, les quantizations agressives (GGUF, GPTQ, AWQ, EXL2) et les architectures MoE ont explosé les ratios performance/mémoire. llama.cpp, Ollama, vLLM ont démocratisé le déploiement. Résultat : la barrière d'entrée a beaucoup baissé. La qualité est déjà suffisante pour beaucoup de workflows utiles. Premier moteur : la souveraineté des données. C'est ce que je vois en premier dans mes MP. Des gens qui veulent du retour d'expérience, des conseils. La question revient toujours : comment garder mes données chez moi. En entreprise, envoyer des données sensibles à une API tierce pose un problème réel de compliance. RGPD, secrets industriels. Même quand il s'agit de Copilot. Mon framework : centre de coût vs centre de profit. Les données sensibles restent en local. Les tâches de shipping rapide passent par le cloud. C'est pas l'un ou l'autre. C'est les deux, au bon endroit. Deuxième moteur : le coût. À volume élevé d'inférence, le coût marginal du token local peut devenir très faible. Électricité + amortissement hardware. Les API facturent au token. Pour un usage intensif, le break-even arrive vite. Plus lent. Mais plus longtemps. Troisième moteur : la liberté. Pas de dépendance réseau. Pas de rate limits. Pas de downtime provider. Adaptation sur tes propres données, via RAG, LoRA ou fine-tuning selon le cas. Choix du modèle exact. Contrôle total du pipeline. Ce qui se dessine : l'architecture hybride. Les petits modèles locaux (3B-35B) gèrent le quotidien → classification, extraction, agents routiniers, RAG sur des bases vectorisées. Les modèles frontier (Claude, GPT) interviennent pour le raisonnement complexe. Gros orchestrateur + petit exécuteur. C'est exactement ce que je fais tourner. L'écosystème de décentralisation pousse dans le même sens → Hyperspace P2P KV cache, TurboQuant, flash-MoE. L'inférence et l'adaptation se décentralisent. Le training reste centralisé. C'est la distinction clé. Ce qu'il ne faut pas sous-estimer. Le gap de performance entre local et frontier est réel. 61 t/s sur du Qwen3-35B-A3B, c'est impressionnant en débit. Mais la qualité de raisonnement sur des tâches complexes ne rivalise pas avec Opus ou GPT-5. Le risque : s'aveugler par enthousiasme technique. Et la maintenance. Kernel upgrades pour le support GPU, crash de boot avec les hugepages mal configurées, debugging ROCm. L'IA locale demande des compétences sysadmin que la plupart des entreprises n'ont pas. Le cloud reste plug-and-play. La vraie thèse. L'IA locale n'est pas un remplacement du cloud. C'est une couche complémentaire. Le choix local/cloud se fait dynamiquement : sensibilité des données, complexité de la tâche, coût. C'est pas une guerre. C'est une architecture. Penser en termes d’architecture intelligente.
CAPET ☀️@Capetlevrai

Plus je passe de temps à me renseigner sur l'IA en local et plus je trouve ça goatesque et passionnant et qu'on soit bien d'accord je m'autoproclame pas expert sur le sujet Mais l'année 2026 c'est l'année de l'IA en local ça va être un changement de dimension Je suis extrememnt bullish et il y a boire et à manger : des setup très simples avec OLLAMA au plus complexe avec LLAMACCP, LM STUDIO ou ExLlama v3 (que j'ai découvert aujourd'hui) Je suis bull car on va voir de nombreux modèles open source se focus sur des usages précis et ça va permettre à de nombreux secteurs d'activités de gagner en efficacité. On peut faire tourner de super modèles sur RTX 5090 / 4090 / 3090 et sur des Mac, pas besoin d'avoir un setup à 10000$ maintenant, cela devient vraiment accessible. On en parlera probablement en LIVE demain et lors de la Masterclass dimanche. Je continu de poncer le sujet en attendant.

Français
9
23
230
48K
Flamme-Demon
Flamme-Demon@flammedemon·
La mort a été remplacé par Chuck Norris. RIP
Français
0
0
0
18
ChienSurpris
ChienSurpris@ChienSurpris·
📢🚨Tu as payé un artisan 8000€ pour des bandes et de l'enduit. Tu découvres le chantier. C'est dégueulasse. Les bandes se décollent, l'enduit est posé au doigt, le placo gondole. Et tu ne peux rien faire. Parce qu'en France, les artisans sont protégés par un système d'assurances et de garanties tellement opaque que porter réclamation, c'est 2 ans de procédure pour récupérer 500€. Le bâtiment en France, c'est le far west avec des factures TTC. N'importe qui pose une plaque sur sa camionnette et se déclare plaquiste. Les formations sont bidons, les contrôles inexistants, et la responsabilité décennale est une blague quand la boîte est liquidée au bout de 3 ans. Mais l'État, lui, n'oublie jamais de te taxer sur la plus-value de ton appartement « rénové ». Rénové par un type qui ne sait pas tenir un couteau à enduire, mais qui a un numéro SIRET. Ça suffit.
Français
68
102
391
73.7K
Hugging Models
Hugging Models@HuggingModels·
Meet a powerful reasoning specialist: Qwen3-14B distilled from Claude 4.5 Opus. This model excels at complex problem-solving and logical thinking. It's a compact powerhouse that brings elite reasoning capabilities to local deployment.
Hugging Models tweet media
English
60
231
2.6K
632K
𝕯issolution
𝕯issolution@Diss0lution·
@flammedemon @Clay_Rebirth Je me suis peut être mal exprimé mais oui, j'ai pas dit que Zorin n'est pas bien maintenu etc. Juste que Mint, je pense, a une + grosse basse d'users ce qui peut dans ce cas d'usage aider à faire du support pour la famille Mais Zorin a l'air super jai envie de tester! :)
Français
1
0
3
329
Clayton
Clayton@Clay_Rebirth·
J’ai commencé à migrer les vieux PC des membres de ma famille vers Linux (parce qu’ils sont devenus quasi inutilisables sous Windows et qu’ils n’ont ni envie de racheter du matériel ni envie d’acheter de SSD). Comme ils sont habitués à utiliser Windows 10 et 11, après avoir hésité avec Mint, j’ai finalement décidé de partir sur ZorinOS lite qui me semblait moins déroutant et plus simple à prendre en main pour eux, vous en pensez quoi ?
Français
110
16
623
181.8K
𝕯issolution
𝕯issolution@Diss0lution·
@Clay_Rebirth J'aurai par "sécurité" choisi une distrib bien connue et reconnue pour assurer un support le plus long possible. Je ne dis pas que c'est pas le cas de Zorin mais Mint c'est un dinosaure (dans le bon sens du terme mdr)
Français
2
0
17
9.6K
Alveric
Alveric@AlvericAulnes·
@p_duval @Frontieresmedia Premièrement, c'est trop simple Et secondement la maladie de Gilbert est transmise quand tes parents sont cousins.. .. on part là dessus ?
Français
4
0
0
410