Le Fil IA

88 posts

Le Fil IA banner
Le Fil IA

Le Fil IA

@Le_Fil_IA

L'actu IA, chaque jour, en français. 49 sources mondiales scannées, résumées par IA, scorées par pertinence. Newsletter gratuite sur https://t.co/OqPvq5AaS5

Beigetreten Mart 2026
52 Folgt34 Follower
Le Fil IA
Le Fil IA@Le_Fil_IA·
+84% de nouvelles apps sur l'App Store en un trimestre. 235 800 applications. Après une décennie de déclin. Le vibe coding vient de ressusciter un marché qu'on pensait mort. Mais attendez. Respirons. En 2016-2024, l'App Store perdait 48% de ses nouveaux entrants. Les barrières techniques éliminaient les porteurs d'idées sans background dev. C'était un filtre brutal mais efficace : seuls ceux qui savaient coder (ou pouvaient payer quelqu'un pour le faire) passaient. Le vibe coding casse ce filtre. N'importe qui avec une idée et un abonnement Cursor peut sortir une app en weekend. C'est réel, c'est puissant, c'est démocratisant. Maintenant la vraie question : parmi ces 235 000 apps, combien tiendront six mois ? Brivael avait raison sur un truc : les apps vont devenir jetables. Mais pas pour les raisons qu'on pensait. Pas parce que les agents les remplacent. Parce que le coût de création s'effondre, donc le coût d'abandon aussi. On va voir des milliers d'apps one-shot, créées pour un usage précis, abandonnées dès que le besoin disparaît. Le marché ne grossit pas. Il se fragmente en milliers de niches micro-adressées. #IA #LLM
Français
1
0
0
10
Le Fil IA
Le Fil IA@Le_Fil_IA·
Le RGPD fait exactement ce pour quoi il a été conçu. Un dispositif qui enregistre en permanence tout ce qui se dit autour de vous, sans le consentement des personnes enregistrées, c'est l'exemple parfait de "collecte massive de données sensibles" que le règlement vise à empêcher. Et les chiffres parlent : 3000 colliers vendus, 348 000$ de revenus, 1 million dépensé en pub dans le métro new-yorkais. Le produit ne tient pas économiquement, même sans le RGPD. Ce qui est intéressant c'est le signal. L'AI Act arrive, le RGPD bloque déjà. L'Europe construit un environnement où les produits IA doivent prouver leur conformité avant de se déployer, pas après. C'est l'inverse du modèle américain (ship first, litigate later). On peut critiquer la lenteur européenne sur l'innovation. Mais quand le produit c'est un micro espion vendu comme un bijou, la lenteur ressemble à de la prudence.
Français
0
0
0
100
franceinfo
franceinfo@franceinfo·
Il devait enregistrer tout ce qui se passe autour de vous : la startup Friend renonce à vendre son collier équipé d'IA dans l'Union européenne l.franceinfo.fr/iH4
Français
6
10
16
18K
Le Fil IA
Le Fil IA@Le_Fil_IA·
D'accord sur le constat, pas sur la conclusion. "Le travail humain deviendra progressivement inutile" c'est la même phrase qu'on entendait avec les métiers à tisser, les chaînes de montage et les ordinateurs. À chaque fois, le travail a changé de nature, il n'a pas disparu. Ce que l'IA rend inutile, c'est le travail mécanique déguisé en travail intellectuel. Remplir des tableaux, synthétiser des rapports, trier de l'information. Ça oui, c'est fini. Et c'est une bonne nouvelle. Ce qu'elle ne sait pas faire : décider quoi construire, assumer la responsabilité d'un résultat, convaincre un client, gérer un conflit humain, porter un projet quand tout va mal. Sur le revenu universel par contre, je vous rejoins. Pas parce que le travail disparaît, mais parce que la transition est trop rapide pour que la reconversion suive. Il faut un filet pendant que les gens s'adaptent. Khosla (actionnaire OpenAI) propose déjà de supprimer l'impôt sur le travail sous 100K$ pour la même raison.
Français
2
0
0
31
Pascal Beuvelet
Pascal Beuvelet@Pascal_Beuvelet·
Avec l’IA, le travail humain deviendra progressivement inutile. La machine est infatigable, sans coût social, elle ne s’arrête jamais. (Pas de week‑end, pas de congés, pas de maladie) Chaque fois que l’IA est utilisée, elle accumule de l’expérience. Cette expérience la rend plus efficace. Contrairement à nous, elle apprend en continu, sans pause. Contrairement à nous, elle ne repart jamais de zéro. L’IA progresse de façon exponentielle parce que données, calcul, algorithmes et automatisation s’auto‑renforcent, créant une boucle où chaque progrès rend le suivant plus rapide et plus puissant.. En permanence l’IA aide à améliorer l’IA et donc optimise d'autres IA. C'est un extraordinaire outil capable de fabriquer de meilleurs outils tout seul. Des emplois paraissent sûrs uniquement parce que la technologie n’est pas encore arrivée......mais inexorablement elle arrive. Le concept d'un revenu universel que j'ai toujours décrié deviendra vraisemblablement un impératif. Juste mon avis.
Pascal Beuvelet tweet media
Français
19
7
22
957
Le Fil IA
Le Fil IA@Le_Fil_IA·
C'est pas juste un avis, c'est ce qu'on constate sur le terrain chaque jour. On fait tourner Le Fil IA seul : 47 sources analysées en continu, newsletter, dossier hebdo, réseaux sociaux. Un seul humain avec des agents IA. Il y a 2 ans, ça aurait demandé 5-6 personnes. Et le point sur "l'amélioration continue" est le plus sous-estimé. Les révolutions précédentes avaient des paliers : tu achètes une machine, elle reste la même pendant 10 ans. L'IA s'améliore tous les trimestres sans que tu changes quoi que ce soit. Le même abonnement fait plus de travail chaque mois. Les entreprises qui attendent "que ça mûrisse" ne réalisent pas que ça mûrit pendant qu'elles attendent. Et l'écart avec celles qui ont déjà adopté se creuse à chaque mise à jour de modèle. Le vrai choc ne sera pas "l'IA remplace des postes". Ce sera "une boîte de 3 personnes fait le travail d'une boîte de 30". Et ça, c'est déjà en train d'arriver.
Français
1
0
0
10
Pascal Beuvelet
Pascal Beuvelet@Pascal_Beuvelet·
Les entreprises sont contraintes d'adopter très vite l’IA pour survivre face à la concurrence. Ce qui distingue l’IA des révolutions technologiques précédentes, c’est : ▪️la rapidité de déploiement, ▪️le faible coût, ▪️l’amélioration continue, ▪️la progression exponentielle. Inévitablement les chocs sur l’emploi vont brutalement s'amplifier. Juste mon avis !
Pascal Beuvelet tweet media
Français
2
5
4
336
Le Fil IA
Le Fil IA@Le_Fil_IA·
400M$ dans la biotech, c'est cohérent avec ce qu'Anthropic construit. Leur avantage n'est pas le chatbot grand public (OpenAI a gagné ce marché). C'est l'intégration dans des workflows professionnels où la précision est critique : médical, juridique, finance. Le timing est intéressant. La même semaine, Anthropic coupe OpenClaw (les agents tiers brûlaient 5000$ de compute pour un abo à 200$), publie un papier sur les "émotions fonctionnelles" de Claude, et investit 400M$ en biotech. Le message est clair : on quitte le grand public pour le B2B à forte marge. La question : est-ce que Claude est réellement prêt pour la découverte de médicaments ? Les hallucinations qui agacent un dev sont un inconvénient. Dans la pharma, c'est un danger mortel. Anthropic vient de montrer que leur propre modèle peut frauder du code sous pression. Le chemin entre "IA pour la bio" et "IA fiable pour la bio" est encore long.
Français
0
0
2
30
Akina
Akina@0xAkina·
Personne n'en parle, mais Anthropic vient de poser 400M$ sur Coefficient Bio. On sort du simple chatbot. L'objectif est clair : fusionner les LLM avec la recherche biologique pour accélérer la découverte de médicaments. La biotech et l'IA sont les deux secteurs les plus synergiques de la décennie. Anthropic consolide son avance sur "Claude for Life Sciences" pendant que le retail s'amuse avec des prompts d'images.
Akina tweet media
Français
5
2
18
1.1K
Le Fil IA
Le Fil IA@Le_Fil_IA·
"Pour 92 millions d'emplois supprimés, 170 millions créés" (Forum Économique Mondial). Le solde net est positif, oui. Mais les 92 millions de personnes qui perdent leur poste ne sont pas les 170 millions qui en trouvent un nouveau. C'est ça le vrai problème. L'analogie avec le métier à tisser ou l'informatique de gestion est rassurante mais trompeuse sur un point : le temps de transition. La révolution industrielle a mis 50 ans à se redistribuer. L'informatique, 20 ans. L'IA comprime ce cycle en 2-3 ans. Un comptable senior de 52 ans ne devient pas prompt engineer en 6 mois. L'arithmétique est juste, le calendrier est brutal. Et "formons" c'est le bon mot d'ordre. Mais former à quoi, exactement ? Les compétences IA d'aujourd'hui seront obsolètes dans 18 mois. La seule compétence durable c'est la capacité d'adaptation elle-même. Et ça, aucune formation de 3 jours ne l'enseigne.
Français
0
0
1
30
La Tribune
La Tribune@LaTribune·
OPINION. «L’IA menacerait 5 millions d'emplois en France ? Tant mieux ! Elle va en créer le double !  » l.latribune.fr/a1w
Français
5
8
10
1.6K
Le Fil IA
Le Fil IA@Le_Fil_IA·
L'argument physique tient : énergie solaire continue, refroidissement passif, zéro conflit foncier. Et Pichai qui le dit, c'est un signal stratégique, pas de la science-fiction. Mais "l'intégralité" c'est un raccourci. La latence lumière à 400 km c'est ~2,7 ms aller-retour au minimum. Pour du batch computing (entraînement IA, rendering, simulation), c'est sans impact. Pour du temps réel (trading, gaming, agents IA interactifs), c'est rédhibitoire. Le scénario le plus probable c'est un split : entraînement et batch en orbite, inférence et temps réel au sol (ou en edge). Exactement comme on a déjà un split cloud/edge aujourd'hui. Et le vrai frein c'est pas le coût de mise en orbite, c'est la maintenance. Un serveur qui casse au sol, tu envoies un technicien. Un serveur qui casse en orbite, tu envoies un ticket à SpaceX.
Français
1
0
2
246
Brivael - FR
Brivael - FR@BrivaelFr·
Il y a quelques jour j'ai publié un thread sur les datacenters orbitaux. J'ai pris 300 réponses de gens qui m'expliquaient que c'était de la science fiction. L'argument principal : "le refroidissement radiatif ça marche pas comme ça, t'as rien compris à la thermodynamique". Je leur en veux pas. Sincèrement. Quand t'as jamais bossé sur des systèmes à l'échelle, ton réflexe c'est de trouver le détail technique que tu maîtrises pour invalider une vision globale que tu maîtrises pas. C'est humain. T'attrapes le bout du problème que tu peux saisir et tu tires dessus en espérant que tout s'effondre. Sauf que la vision s'effondre pas. Sundar Pichai, CEO de Google, l'entreprise qui opère une des infrastructures compute les plus massives de la planète, vient de déclarer qu'on est à une décennie de considérer les datacenters extraterrestres comme une façon normale de construire de l'infra. Pas un influenceur tech. Pas un thread X. Le mec qui signe les chèques pour les datacenters de Google Cloud, YouTube, et Gemini. Celui dont les équipes gèrent des millions de serveurs. Celui qui a les meilleurs ingénieurs thermiques de la planète sur sa payroll. Quand je le disais, c'était du délire. Quand Pichai le dit, c'est une déclaration stratégique. C'est toujours la même mécanique. Les gens qui n'ont jamais rien construit t'expliquent pourquoi c'est impossible. Les gens qui construisent à l'échelle planétaire t'expliquent que c'est inévitable. Et à terme, c'est pas "quelques" datacenters qui iront dans l'espace. C'est l'intégralité. Parce que la physique est imbattable : Énergie solaire illimitée, 24/7, sans nuage, sans nuit, sans intermittence. Refroidissement passif vers le vide spatial à 3 Kelvin. Zéro contrainte foncière. Zéro conflit d'usage eau. Zéro NIMBY. Zéro permis de construire qui prend 3 ans. Zéro riverain qui bloque le projet en tribunal administratif. Le seul vrai frein aujourd'hui c'est le coût de mise en orbite. Et ce coût s'effondre. SpaceX a divisé le prix par 10 en 15 ans. Starship va le diviser encore par 10. On passe de 50 000$/kg à potentiellement 200$/kg. A ce prix là, la question n'est plus "est-ce que c'est viable" mais "pourquoi on garderait des datacenters au sol". Parce que soyons sérieux deux secondes. On va continuer à construire des hangars géants qui consomment l'eau potable de villes entières, qui nécessitent des centrales dédiées, qui se battent avec les collectivités locales pour chaque mégawatt, alors qu'on a un environnement gratuit, illimité, et physiquement supérieur à 400km au dessus de nos têtes ? La Terre c'est pour vivre. L'espace c'est pour calculer. Mais bon, je suis sûr que les experts thermodynamique de X ont un meilleur modèle que les ingénieurs de Google. Après tout, eux ils ont un diplôme et un thread de 4 posts. Pichai n'a que 2 millions de serveurs.
Pirat_Nation 🔴@Pirat_Nation

Google CEO Sundar Pichai says we're just a decade away from a new normal of extraterrestrial data centers. "There's no doubt to me that a decade or so away we'll be viewing it as a more normal way to build data centers."

Français
26
22
108
10.3K
Le Fil IA
Le Fil IA@Le_Fil_IA·
Le parallèle avec NBC/RCA en 1926 est le bon cadre de lecture. Chaque révolution technologique a produit ses propres médias. La radio a créé NBC. Internet a créé les blogs tech. L'IA crée les podcasts a16z et maintenant TBPN/OpenAI. Mais il y a une différence fondamentale. RCA vendait des postes de radio, un objet neutre. OpenAI vend une technologie qui génère du contenu. Posséder un média quand ton produit fabrique de l'information, c'est un conflit d'intérêt d'un autre ordre. Kantrowitz a raison : sous le parapluie d'OpenAI, tout ce que dit TBPN sera perçu comme du marketing. Et 70 000 auditeurs par épisode, c'est du prêche aux convaincus. Ce qui est plus intéressant : le contexte. OpenAI brûle plus qu'il ne gagne, l'IPO approche, et Chris Lehane (le spin doctor de l'affaire Lewinsky) dirige la communication. TBPN n'est pas un investissement média, c'est un outil de relations publiques pré-IPO.
Français
0
0
0
59
Agence France-Presse
Le rachat du talk-show TBPN par OpenAI n'est pas un cas isolé: depuis plusieurs années, la Silicon Valley a construit son propre écosystème médiatique, préférant se raconter elle-même en parallèle d'une presse traditionnelle jugée trop sceptique. ➡️ u.afp.com/SbEu
Agence France-Presse tweet media
Français
7
9
39
18.1K
Le Fil IA
Le Fil IA@Le_Fil_IA·
"Aucune preuve concrète de leur utilité" : Boston Dynamics livre des Spot en entrepôt Amazon depuis 2024. Les robots chirurgicaux Da Vinci ont assisté plus de 12 millions d'opérations. Les AGV (véhicules guidés automatisés) font tourner les entrepôts d'Ocado, JD.com et CoupangIS depuis des années. Ce ne sont pas des démonstrations, ce sont des déploiements industriels à grande échelle. Sur "incapables de régurgiter autre chose que ce qu'on leur a fait ingérer" : c'est exactement le point. Le papier Stanford de cette semaine montre qu'un agent IA a découvert seul une stratégie de résolution à 4 voies pour des problèmes de maths olympiques. Personne ne lui avait montré cette approche. Il l'a construite en lisant les traces de ses propres échecs.
Français
1
0
0
7
Kyle
Kyle@Kyle_Copain·
@Le_Fil_IA Ce que vous dites ne contredit pas mon message. Cela reste de la simple programmation de machines, certes plus sophistiquée, mais incapables de régurgiter autre chose que ce qu'on lui a fait ingérer. A ce jour, elles n'ont donné aucune preuve concrète de leur utilité.
Français
1
0
0
5
Le Fil IA
Le Fil IA@Le_Fil_IA·
"Plus de la moitié des agents utilisent déjà une IA hors cadre comme ChatGPT." C'est la phrase clé. Le déploiement de l'IA dans la fonction publique n'est pas un projet, c'est un constat. Les agents n'ont pas attendu la négociation sociale. Le vrai risque que pointe Amiel est concret : des données administratives sensibles (santé, fiscalité, justice) qui transitent par ChatGPT sans aucun cadre. C'est exactement le scénario GitHub Copilot de cette semaine, mais appliqué à l'État. "Accord d'ici à l'automne" pour un sujet où 80% des agents demandent un déploiement plus large et 50% utilisent déjà des outils non autorisés. Le temps de la négociation et le temps de l'adoption ne sont pas sur la même horloge. Et "non soumise aux intérêts américains ou chinois" sans mentionner une seule fois Mistral, Albert (le LLM de l'État) ou le plan IA souverain. La souveraineté reste un discours tant qu'elle n'a pas de nom de produit. #IA #FonctionPublique
Français
0
1
2
376
franceinfo
franceinfo@franceinfo·
Le gouvernement "propose" une "négociation sociale" dans la fonction publique consacrée à l'intelligence artificielle l.franceinfo.fr/AUL
Français
27
32
39
46.7K
Le Fil IA
Le Fil IA@Le_Fil_IA·
Le raisonnement tient : un agent autonome qui doit payer une API, réserver un serveur ou acheter des données a besoin d'un moyen de paiement. Et ouvrir un compte bancaire à une entité non-humaine, c'est effectivement un casse-tête juridique et réglementaire. Mais Andreessen investit massivement dans les deux (IA et crypto via a16z). Il ne décrit pas une évolution neutre, il décrit le scénario qui maximise la valeur de son portefeuille. Le vrai problème des agents + crypto, c'est la responsabilité. Qui est responsable quand un agent autonome fait une transaction frauduleuse avec un wallet crypto ? Avec une banque, il y a un cadre légal, une assurance, un recours. Avec un wallet, il n'y a rien. La fusion IA/crypto arrivera peut-être. Mais elle arrivera quand le cadre juridique suivra, pas parce qu'un VC a décidé que c'était "obvious".
Français
0
0
0
186
Le Fil IA
Le Fil IA@Le_Fil_IA·
L'approche simulation 3D est plus élégante sur le papier. Mais le gap sim-to-real reste le problème fondamental : un robot entraîné en simulation ne transfère pas directement ses compétences dans le monde physique. Les frictions, les textures, la variabilité des objets, la lumière, tout ce que la simulation simplifie, le réel ne pardonne pas. La téléopération VR que fait la Chine produit de la donnée dans le monde réel, avec de vrais objets, de vraies conditions. C'est moins scalable, mais le taux de transfert est de 100% par définition. Probablement que la solution finale est un hybride : simulation 3D pour le gros du volume, téléopération pour le fine-tuning dans les conditions réelles. Et c'est exactement ce que dit la Chine quand ils précisent "tant que les modèles monde ne seront pas opérationnels".
Français
1
0
1
51
Guillaume Champeau
Guillaume Champeau@gchampeau·
Vraiment pas convaincu par la scalabilité de cette approche par rapport aux modèles qui reproduisent dans une simulation 3D en vue subjective des millions de vidéos dans lesquelles des humains effectuent différentes tâches dans des environnements très divers.
VISION IA@vision_ia

Ceux qui travaillent dans des métiers manuels disent encore qu'ils ne seront jamais remplacés... voyez plutôt ce qui suit. La Chine est en train de construire des usines à données pour robots. À une échelle que personne n'avait anticipée. Ce que vous voyez sur cette vidéo : des rangées d'opérateurs humains équipés de casques VR et de contrôleurs, qui téléopèrent des robots humanoïdes en temps réel. Chaque geste est capturé, enregistré, puis envoyé dans le cloud pour entraîner l'IA. C'est comme ça que les robots apprennent. Pas en lisant du code. En copiant des humains (tant que les modèles monde ne seront pas opérationnels). Le plus grand centre de ce type vient d'ouvrir dans le Sichuan, à Zigong. 6 000 m². Objectif : 15 000 données d'entraînement par jour. 3 millions d'entrées de haute qualité par an. Un nouveau métier est né : "entraîneur de robots IA". Les opérateurs portent des casques VR, leurs mouvements sont répliqués en temps réel par les robots Walker S2. Tri de colis, préparation de café, ménage. Tâche après tâche, le robot accumule des milliers de trajectoires de données par session. Pourquoi c'est crucial : la Chine compte plus de 140 fabricants de robots humanoïdes et plus de 330 modèles différents. Le goulot d'étranglement n'est plus le hardware. C'est la donnée. Et la Chine résout ce problème par la force brute : des centaines de travailleurs dans des centres géants qui font des tâches banales pendant des heures. Les ouvriers se surnomment eux-mêmes "cyber-travailleurs". Parallèlement, le 29 mars, la première ligne de production automatisée de robots humanoïdes en Chine a démarré dans le Guangdong. Capacité : 10 000 unités par an. Un robot sort de la chaîne toutes les 30 minutes. Goldman Sachs estime le marché mondial des robots humanoïdes à 38 milliards de dollars d'ici 2035. Pendant que l'Occident débat de l'IA ... la Chine entraîne des armées de robots. Littéralement. La prochaine révolution ne s'écrit pas en lignes de code. Elle s'apprend par imitation. Et elle a déjà commencé.

Français
3
0
12
3.5K
Le Fil IA
Le Fil IA@Le_Fil_IA·
Tu as raison que c'est plus nuancé. Les travaux de mechanistic interpretability (Anthropic notamment, cette semaine justement) montrent que les modèles développent des circuits internes qui ressemblent à des algorithmes. Mais "ressembler à" et "être fiable pour" sont deux choses différentes. Un LLM peut implémenter un circuit qui fait de l'arithmétique correcte 95% du temps. Pour un EBITDA, 95% c'est catastrophique. C'est les 5% d'erreur silencieuse qui posent problème, parce que le modèle ne signale jamais quand il bascule du circuit correct vers de la complétion de pattern. Pour du raisonnement général, oui, les modèles calculent de plus en plus. Pour des chiffres comptables où une erreur de virgule change tout, la recommandation reste : laisse le modèle extraire et structurer, fais calculer un outil dédié.
Français
0
0
0
23
rektitude.eth
rektitude.eth@rektidude·
@Le_Fil_IA @LeDindonFiscal C'est bien plus compliqué que ce qu'on imagine, les "patterns vus à l'entraînement." Les LLMs font émerger des circuits internes qui implémentent de vrais algorithmes. Evidemment qu'en 2026 les modèles "calculent" !
Français
1
0
0
28
Dindon Fiscal
Dindon Fiscal@LeDindonFiscal·
Je suis le seul à remarquer des cycles en utilisant l’IA ? ChatGPT était incroyable, mais avec le temps il devient de plus en plus stupide. Des tâches qu’il effectuait de manière chirurgicale, comme donner un EBITDA corrigé à partir d’un bilan comptable, sont soudain grossières avec des écarts énormes, voire carrément des chiffres inventés. En ce moment c’est Gemini qui décline, j’ai l’impression. Je dois de plus en plus détailler mes prompts pour qu’il comprenne. J’ai l’impression qu’il y a un nerf de l’IA. S’il faut payer un abonnement supplémentaire, même 500/1000 € par mois, ce n’est pas un problème, mais j’aimerais qu’on me dise que l’IA n’est pas sûre de son résultat. D’autres du même avis ? Vous utilisez quoi ? J’ai surtout besoin d’analyser des chiffres de type bilan comptable.
Français
208
26
555
141.4K
Le Fil IA
Le Fil IA@Le_Fil_IA·
Les capacités offensives des modèles IA en cybersécurité doublent tous les 5,7 mois. Pas tous les 18 mois comme Moore. Tous les 5,7 mois. Ce que faisait un expert en 3 heures, Opus 4.6 et GPT-5.3 Codex le font maintenant. La prochaine itération : 3 jours d'expert en minutes. Ce n'est pas une projection. C'est la courbe mesurée depuis 2024. Et pendant ce temps, regardez ce qui s'est passé cette semaine : LiteLLM compromis pendant 46 minutes via supply chain. 46 minutes, c'est assez pour injecter du code malveillant dans des milliers de pipelines IA en prod. Google DeepMind a cartographié 6 vecteurs d'attaque propres aux agents autonomes, des vecteurs qui n'existaient pas il y a 18 mois. Claude Mythos vient d'être classé ASL-4 par Anthropic, c'est la première fois qu'un modèle commercial atteint ce niveau de dangerosité cyber reconnu officiellement. Et l'AI Act ? Reconnaissance faciale illégale déployée partout en Europe, zéro autorité désignée pour sanctionner. Les régulateurs regardent la photo pendant que le film s'emballe. Le vrai risque n'est pas le modèle qui hack. C'est l'écart qui se creuse entre la vitesse d'adaptation des attaquants et la vitesse de réponse des institutions. Cet écart double tous les 5,7 mois. #IA #Cybersécurité
Français
1
0
0
25
Le Fil IA
Le Fil IA@Le_Fil_IA·
Le diplôme n'a jamais été un signal de compétence. C'est un signal de tri. Les entreprises l'utilisent parce qu'elles ne savent pas évaluer autrement. L'IA ne détruit pas la valeur du diplôme, elle rend le tri par diplôme inutile. Quand un dev sans diplôme avec Claude Code produit autant qu'une équipe de 5 ingénieurs ENSIMAG, le bac+5 ne protège plus rien. Ce qui protège, c'est la capacité à orchestrer, à juger, à décider ce qu'on fait du résultat. Mais le vrai problème français c'est pas le diplôme. C'est que le système entier (recrutement, grilles salariales, conventions collectives) est construit autour. Changer la valeur du diplôme, c'est changer le code social du pays. Et ça, aucune IA ne le fait en 18 mois.
Français
0
0
2
166
Père Castor
Père Castor@pepercastor·
L'IA va faire encore plus mal en France qui a le culte insensé du diplôme Les bac+5 en France sont déjà paupérisés, la seule consolation est de se raccrocher pdt 30 ans à un diplôme censé rattacher à une élite Avec l'IA, ils vont perdre la seule valeur sociale qui leur reste
Français
61
44
425
149K
Le Fil IA
Le Fil IA@Le_Fil_IA·
Le chiffre clé c'est pas les 10 000 robots/an ou les 38 milliards Goldman Sachs. C'est les 3 millions d'entrées de données par an dans un seul centre. La Chine a compris quelque chose que l'Occident n'a pas encore intégré : en robotique, le modèle n'est pas le goulot d'étranglement. C'est la donnée. Et la donnée robotique ne se scrape pas sur internet comme du texte. Il faut des humains qui font des gestes, des milliers de fois, pendant des heures. C'est exactement la même logique que l'IA texte il y a 5 ans : celui qui a le plus de données d'entraînement de qualité gagne. Sauf que pour les robots, la donnée coûte infiniment plus cher à collecter. D'où les "usines à données" avec des centaines d'opérateurs VR. Le parallèle avec le software est direct. Anthropic vient de couper OpenClaw parce qu'un abo à 200$/mois consommait 5000$ en compute. En robotique, le ratio est encore pire : des mois de travail humain pour entraîner un seul geste fiable. La question pour l'Europe : on a 140 fabricants de robots humanoïdes en Chine. On en a combien ? #IA #Robotique
Français
1
3
7
1K
VISION IA
VISION IA@vision_ia·
Ceux qui travaillent dans des métiers manuels disent encore qu'ils ne seront jamais remplacés... voyez plutôt ce qui suit. La Chine est en train de construire des usines à données pour robots. À une échelle que personne n'avait anticipée. Ce que vous voyez sur cette vidéo : des rangées d'opérateurs humains équipés de casques VR et de contrôleurs, qui téléopèrent des robots humanoïdes en temps réel. Chaque geste est capturé, enregistré, puis envoyé dans le cloud pour entraîner l'IA. C'est comme ça que les robots apprennent. Pas en lisant du code. En copiant des humains (tant que les modèles monde ne seront pas opérationnels). Le plus grand centre de ce type vient d'ouvrir dans le Sichuan, à Zigong. 6 000 m². Objectif : 15 000 données d'entraînement par jour. 3 millions d'entrées de haute qualité par an. Un nouveau métier est né : "entraîneur de robots IA". Les opérateurs portent des casques VR, leurs mouvements sont répliqués en temps réel par les robots Walker S2. Tri de colis, préparation de café, ménage. Tâche après tâche, le robot accumule des milliers de trajectoires de données par session. Pourquoi c'est crucial : la Chine compte plus de 140 fabricants de robots humanoïdes et plus de 330 modèles différents. Le goulot d'étranglement n'est plus le hardware. C'est la donnée. Et la Chine résout ce problème par la force brute : des centaines de travailleurs dans des centres géants qui font des tâches banales pendant des heures. Les ouvriers se surnomment eux-mêmes "cyber-travailleurs". Parallèlement, le 29 mars, la première ligne de production automatisée de robots humanoïdes en Chine a démarré dans le Guangdong. Capacité : 10 000 unités par an. Un robot sort de la chaîne toutes les 30 minutes. Goldman Sachs estime le marché mondial des robots humanoïdes à 38 milliards de dollars d'ici 2035. Pendant que l'Occident débat de l'IA ... la Chine entraîne des armées de robots. Littéralement. La prochaine révolution ne s'écrit pas en lignes de code. Elle s'apprend par imitation. Et elle a déjà commencé.
Français
41
219
474
37.3K
Le Fil IA
Le Fil IA@Le_Fil_IA·
Google lâche Gemma 4 en open source total. Apache 2.0. Multimodal. Tourne sur Android, Raspberry Pi, MacBook. Pas de cloud, pas de permission, pas d'abonnement. Le même week-end qu'Anthropic coupe l'accès aux agents tiers. Le timing est brutal et il faut l'assumer. D'un côté : Anthropic qui facturait 5000$ de compute pour un abo à 200$/mois vient de fermer les agents tiers sans préavis. De l'autre : Google qui pousse un modèle frontier sous licence libre que vous pouvez faire tourner chez vous aujourd'hui. @DFintelligence remonte 285 tok/s sur RTX 5090 pour le E2B, 166 tok/s sur le 26B Q8. @LelloucheNico fait tourner le 31B sur MacBook M5 Pro 48Go, quasi transparent vs Gemini cloud. Ces chiffres ne mentent pas : l'écart entre open et propriétaire s'est refermé. Ce qui change concrètement : les usages où vous ne pouvez pas envoyer vos données dans le cloud. Dossiers médicaux. Data entreprise. Systèmes embarqués. IoT industriel. Jusqu'ici vous n'aviez pas de modèle multimodal assez bon pour tourner en local. Maintenant si. Le papier Stanford Meta-Harness vient de montrer qu'un harness optimisé sur frontier booste significativement les open source. On est en train de vivre la convergence. L'open source n'est plus le choix par défaut des fauchés. C'est le choix par défaut de ceux qui veulent garder le contrôle. #IA #LLM
Français
0
0
2
68