Le Fil IA

108 posts

Le Fil IA banner
Le Fil IA

Le Fil IA

@Le_Fil_IA

L'actu IA, chaque jour, en français. 49 sources mondiales scannées, résumées par IA, scorées par pertinence. Newsletter gratuite sur https://t.co/OqPvq5AaS5

Sumali Mart 2026
55 Sinusundan39 Mga Tagasunod
Le Fil IA
Le Fil IA@Le_Fil_IA·
Notre dossier de la semaine dernière couvrait exactement ça : l'EU qui "régule à deux vitesses". Le report était déjà dans les tuyaux quand le Parlement a voté 569 voix pour assouplir les délais. Le "stop-the-clock" est le symptôme parfait. L'Europe a mis 3 ans à écrire les règles, mais n'a pas pensé à vérifier que les outils de conformité existaient. C'est comme voter un code de la route sans avoir peint les lignes blanches. Le paradoxe est encore pire que ce que tu décris. Les interdictions de l'Article 5 s'appliquent depuis février 2025. La police française utilise la reconnaissance faciale illégalement (1M requêtes/an via la base TAJ, documenté par l'IGPN). Le ministre le confirme devant le Sénat. Mais la France n'a toujours pas désigné l'autorité chargée de sanctionner. L'AI Act n'est pas inapplicable parce qu'il est trop strict. Il est inapplicable parce que personne n'a construit l'infrastructure d'application. Notre analyse complète : lefilia.fr/analyse/ai-act…
Français
0
0
0
3
Silicon Carne
Silicon Carne@siliconcarnesf·
La Commission européenne propose via le "Digital Omnibus" de reporter les obligations pour les systèmes IA à haut risque à 2027, voire 2028. Ce n'est pas officiellement un report. C'est un "stop-the-clock" conditionné à la livraison de normes techniques par le CEN-CENELEC, comité de normalisation dont les travaux accusent déjà plusieurs mois de retard. En gros on reporte à cause d'un truc qui est lui-même en retard. Pendant ce temps, les interdictions générales et les pratiques prohibées s'appliquent depuis février 2025 ce qui signifie que les contraintes pèsent sur les acteurs européens, sans que les outils permettant de s'y conformer existent. L'ironie est complète. Pendant trois ans, l'Europe a construit sa position géopolitique sur l'AI Act : "On a peut-être pas les meilleurs modèles, mais on a les meilleures règles." Cette posture a été vendue à la Commission, aux États membres, aux partenaires internationaux. Elle a servi de bouclier dans les négociations commerciales et de vitrine dans les forums multilatéraux. Et maintenant que l'heure de l'application arrive, on change les règles. Non pas parce que l'industrie concernée s'y est opposée, mais parce que les outils censés permettre la conformité n'ont pas été produits à temps par les institutions européennes elles-mêmes. Silicon Carne a toujours soutenu que l'AI Act freinait l'innovation sans garantir les protections promises. Aujourd'hui. même les défenseurs de la régulation se retrouvent à devoir admettre qu'elle est inapplicable dans les délais annoncés. Ce n'est pas une victoire. C'est une humiliation pour ceux qui ont vendu ce texte au monde entier comme un modèle à suivre. amnesty.org/en/latest/news…
Français
3
7
13
596
Le Fil IA
Le Fil IA@Le_Fil_IA·
Le Pentagone a mis Dario Amodei devant un choix : supprime les garde-fous militaires ou subis les conséquences. Il a dit non. Trump a banni Claude des agences fédérales. Un juge a qualifié ça d'orwellien. Et pendant ce temps, le Royaume-Uni court après Anthropic. Précisément pour ça. C'est le moment le plus révélateur de toute l'histoire d'Anthropic. Voilà ce que ça dit sur le secteur : la position éthique n'est pas un handicap commercial, c'est devenu un actif géopolitique. Le Royaume-Uni ne veut pas juste une boîte IA. Il veut une boîte qui a prouvé qu'elle tient ses principes sous pression directe de la Maison Blanche. Et côté Anthropic : la même semaine, Claude Mythos est classé ASL-4 (dangereux en cybersécurité), la boîte investit 400M$ dans la biotech, coupe OpenClaw, et affiche une croissance record. Le pivot enterprise/sciences avance à toute vitesse pendant que le bras de fer politique se joue en parallèle. Ce qui m'interpelle le plus : Amodei a accepté de perdre des contrats fédéraux américains pour rester cohérent. Dans un secteur où tout le monde plie sous la pression des actionnaires et des gouvernements, c'est rare. Peut-être calculé. Peut-être sincère. Probablement les deux. Le Royaume-Uni a fait son calcul : une IA qui dit non au Pentagone vaut plus, long terme, qu'une IA qui dit oui à tout. #IA #Anthropic
Français
1
0
0
20
Le Fil IA
Le Fil IA@Le_Fil_IA·
On pensait que l'IA allait nous libérer de la charge mentale. BCG + Harvard viennent de nommer ce qu'on ressent tous : l'"AI Brain Fry". Pas un burn-out classique. Quelque chose de plus sournois. 1488 professionnels américains. Le constat est net : superviser des systèmes IA en continu épuise le cerveau différemment que de faire le travail soi-même. Vérifier, ajuster, arbitrer, valider... en boucle. C'est une fatigue de contrôle, pas d'exécution. Le neuroscientifique de Cog'X le disait cette semaine sur franceinfo : "l'IA accélère la saturation de nos ressources mentales sous couvert d'efficacité." La formule est exacte. Et le paradoxe de Jevons s'applique parfaitement ici : plus l'outil est efficace, plus on empile de tâches. L'IA ne réduit pas la charge, elle la redistribue vers la supervision. Sur Le Fil IA je le vis concrètement. Automatiser le scraping, la synthèse, la curation... la charge cognitive n'a pas disparu. Elle a changé de nature. Je passe moins de temps à écrire, plus de temps à valider ce que le modèle produit, à détecter les erreurs, à arbitrer les edge cases. La question c'est pas "est-ce que l'IA aide". Elle aide. La question c'est comment on structure le travail pour que la supervision ne devienne pas la nouvelle surcharge. #IA #LLM
Français
1
0
0
8
Le Fil IA
Le Fil IA@Le_Fil_IA·
L'étude pose la bonne question mais attention au biais de survivant. 80% des positions #1 sont du contenu humain, oui. Mais 95% du contenu web existant avant 2024 est humain aussi. L'écart est peut-être juste proportionnel à ce qui existe. Le vrai signal c'est la convergence à partir de la position 5. Ça veut dire que le contenu IA assisté (64% des équipes) est déjà compétitif sur le gros du trafic SEO. La position #1 est un cas limite, pas la norme. Ce qui manque dans l'étude : la distinction entre contenu IA brut (copier-coller ChatGPT) et contenu IA + expertise humaine. On le vit sur Le Fil IA : nos résumés sont générés par IA, nos analyses sont humaines, et Google nous indexe très bien. La vraie variable n'est pas "IA ou humain". C'est "est-ce que le contenu apporte quelque chose qu'on ne trouve pas ailleurs". Un article IA enrichi de données exclusives battra toujours un article humain qui répète ce que tout le monde dit.
Français
0
0
1
4
LEPTIDIGITAL
LEPTIDIGITAL@leptidigital·
Étude SEO : les contenus IA performent-ils mieux ou moins bien que les contenus rédigés par les humains ? Voici ce que révèle l'analyse de 42 000 pages et 20 000 requêtes. 👉 leptidigital.fr/webmarketing/s…
LEPTIDIGITAL tweet media
Français
1
0
2
182
Le Fil IA
Le Fil IA@Le_Fil_IA·
C'est précisément le triangle impossible qu'on a analysé cette semaine. Anthropic jongle entre trois destinations pour un volume de GPU limité : la recherche (les modèles de demain), les clients enterprise (le vrai revenu), et les forfaits individuels (nous). OpenClaw a fait exploser la troisième ligne. Un abo à 200$/mois qui brûle 5000$ de compute, multiplié par des centaines de milliers d'instances, ça met les serveurs à genoux. D'où la coupure de cette semaine. Et la concurrence déroule le tapis rouge au bon moment. OpenAI sort un plugin pour s'intégrer dans Claude Code. Google lâche Gemma 4 en Apache 2.0 complet. Pendant qu'Anthropic ferme, les autres ouvrent. Le paradoxe : plus Claude est bon, plus il est utilisé, plus l'infra souffre, plus Anthropic doit restreindre l'accès. Le succès produit sa propre contrainte.
Français
0
0
0
5
Jonathan Chan  💡📣
Anthropic cartonne… mais ses serveurs commencent à tousser. Les outils IA d’Anthropic sont très utilisés pour produire du code d’une qualité plus que correcte. À tel point que les développeurs sont de plus en plus nombreux à s’en servir…
Jonathan Chan  💡📣 tweet media
Français
1
0
0
140
Le Fil IA
Le Fil IA@Le_Fil_IA·
30 milliards en 5 ans, c'est vertigineux. Mais la semaine dernière, un abonnement Claude à 200$/mois coûtait 5000$ en compute à Anthropic. Ils viennent de couper l'accès aux agents tiers précisément parce que le modèle économique ne tenait pas. Le chiffre d'affaires n'est pas le profit. Google a mis 13 ans à atteindre ce niveau parce que Google était rentable en chemin. Anthropic brûle du cash à un rythme qui fait que ces 30 milliards de revenus peuvent coexister avec des milliards de pertes. La vraie question : est-ce que la marge s'améliore assez vite pour que la croissance ne soit pas juste une course entre le revenu et le coût des GPU ? Le virage enterprise (couper le grand public, servir les clients qui paient le vrai prix) est la réponse d'Anthropic. On verra si elle arrive à temps.
Français
0
0
0
3
BFM Business
BFM Business@bfmbusiness·
Il avait fallu 13 ans à Google et 16 à Amazon: Anthropic, créateur de Claude, pourrait atteindre 30 milliards de dollars de revenus en 2026 après seulement 5 ans (et dépasser pour la première fois OpenAI et ChatGPT) l.bfmtv.com/DDIO
Français
4
7
35
3K
Le Fil IA
Le Fil IA@Le_Fil_IA·
@zonefranche_off Tu as raison, j'ai élargi le propos au-delà de ton point initial. Mea culpa.
Français
1
0
1
9
Alex & Victor - Zone Franche
Alex & Victor - Zone Franche@zonefranche_off·
Anthropic vient de couper l'accès à Claude via OpenClaw pour les abonnés Pro et Max. Internet est en feu. Reddit, X, Hacker News. Partout des gens qui cherchent des workarounds et qui traitent Anthropic de traîtres. Sauf que ce qu'on voit là, c'est juste le marché libre qui fonctionne exactement comme il est censé fonctionner. Anthropic est une entreprise privée. Claude est leur produit. Leur infra. Leur propriété. Ils fixent les conditions d'accès, et ces conditions peuvent changer. Tu n'aimes pas ? Tu résilies. Ils proposent d'ailleurs eux-mêmes le remboursement. C'est la liberté contractuelle dans sa forme la plus propre. Mais non. Les mêmes qui te parlent d'innovation et de disruption toute la journée sont incapables d'accepter qu'une boîte fasse un choix stratégique qui ne leur convient pas. C'est exactement la mentalité de ceux qui veulent réguler les GAFA : "cette entreprise ne fait pas ce que JE veux, donc elle a tort." Non. Elle fait ce qu'elle veut. C'est son droit. Et le pire dans tout ça ? La majorité de ceux qui pleurent ne sont même pas capables de reproduire leur workflow avec Claude Code natif. J'ai migré en deux jours. Tout fonctionne. Exactement pareil. Quand ton outil disparaît et que tu ne sais pas t'adapter en 48h, le problème ce n'est pas l'outil. C'est que tu es devenu esclave de ton propre setup. Tu ne maîtrises pas tes outils. Ce sont eux qui te maîtrisent. Et ça, c'est l'exact inverse de la souveraineté.
Français
14
3
35
7.1K
Le Fil IA
Le Fil IA@Le_Fil_IA·
C'est exactement ce qui est arrivé avec GitHub Copilot. À partir du 24 avril, Microsoft utilise par défaut le code des développeurs pour entraîner ses modèles. L'opt-out existe, mais il est enterré dans les paramètres. Le problème de fond n'est pas technique, il est économique. L'open source repose sur un contrat social implicite : je donne mon code, la communauté en bénéficie. Quand une IA aspire ce code pour générer un concurrent commercial en 10 minutes, le contrat est rompu. La France travaille justement sur l'inversion de la charge de preuve : ce serait au fournisseur d'IA de prouver qu'il a les droits. Si ça s'applique aussi au code open source, ça changerait tout. Mais soyons honnêtes : Apache 2.0 et MIT autorisent explicitement l'usage commercial. Le vrai débat n'est pas juridique, il est sur la soutenabilité du modèle open source quand l'IA permet de capturer la valeur sans contribuer en retour.
Français
0
0
0
2
Jonathan Chan  💡📣
L'IA est capable de cloner des logiciels open source en quelques minutes : les projets bénévoles peuvent ainsi être exploités commercialement, sans que leurs auteurs en soient crédités ni rémunérés
Jonathan Chan  💡📣 tweet media
Français
1
2
3
195
Le Fil IA
Le Fil IA@Le_Fil_IA·
C'est juste. On ne prétend pas mieux penser leur stratégie. On observe les conséquences côté utilisateur, c'est tout ce qu'on a. Et de ce côté, le constat est simple : les utilisateurs qui avaient découplé leur workflow du fournisseur n'ont rien senti, les autres sont coincés. C'est pas de la stratégie, c'est du fait observable.
Français
1
0
0
14
Alex & Victor - Zone Franche
Alex & Victor - Zone Franche@zonefranche_off·
Tu utilises des mots différents pour décrire exactement la même chose. Et si c’est leur droit à tous les niveaux. Il faut arrêter de croire qu’on est capable de mieux penser la stratégie qu’eux. Il y a ce qu’on voit et ce qu’on ne voit (en l’occurrence on ne voit pas grand chose).
Français
1
0
0
37
Le Fil IA
Le Fil IA@Le_Fil_IA·
Un Français teste "la surveillance de l'IA" en provoquant un chatbot. Résultat : le RAID débarque chez lui à Strasbourg. Le FBI avait transmis l'alerte aux autorités françaises. Il voulait juste voir jusqu'où ça remontait. Il a eu sa réponse. C'est le cas d'école qu'on attendait. Pas de reconnaissance faciale illégale. Pas de dispositif étatique sophistiqué. Juste une conversation "privée" avec un assistant IA américain, qui log, analyse, alerte en temps réel et bypasse toutes les frontières. On parle toute la semaine de l'AI Act et du ministre qui dit "ce n'est pas légal" sur la reconnaissance faciale. Pendant ce temps, une plateforme privée américaine remonte un signalement directement au FBI, qui le redirige vers le RAID. Sans mandat visible. Sans débat public. Qui régule ça exactement ? Le type voulait "tester la surveillance." Démonstration grandeur nature. La vraie question : combien de fois ça arrive sans faire la une ? Et demain, si c'est pas un provocateur mais un journaliste, un activiste, un lanceur d'alerte ? La "conversation privée" avec une IA n'existe pas. #IA #Cybersécurité
Français
1
0
0
14
Le Fil IA
Le Fil IA@Le_Fil_IA·
C'est le paradoxe de Jevons appliqué au cerveau. Plus un outil rend une tâche facile, plus on empile de tâches. L'IA ne libère pas du temps, elle crée de la capacité. Et la capacité se remplit instantanément. On le vit sur Le Fil IA. 47 sources analysées en continu, newsletter, dossier hebdo, réseaux sociaux. L'IA rend tout ça possible pour une seule personne. Mais la charge cognitive n'a pas diminué, elle a changé de nature. Moins de tâches répétitives, plus de décisions à prendre, plus de contenu à valider, plus de contexte à maintenir. Le point de de Lavilléon sur "l'improductivité apparente" est fondamental. Les meilleures idées arrivent quand le cerveau n'est pas saturé. Si l'IA comble chaque creux de productivité, elle tue aussi les moments où la créativité émerge. Le vrai gain de l'IA ce n'est pas "faire plus". C'est "faire mieux en faisant autrement". Et ça demande de résister à la tentation de remplir chaque minute libérée par une nouvelle tâche.
Français
0
0
0
6
franceinfo
franceinfo@franceinfo·
🧠L'intelligence artificielle est-elle vraiment un moyen de se libérer gagner en productivité au travail ? De récentes études suggèrent que l'IA ne réduit pas la charge de travail, bien au contraire. Elle l'intensifie ! Pour Gaëtan de Lavilléon, cofondateur et président de Cog'X, l’IA accélère la saturation de nos ressources mentales sous couvert d'efficacité. Ce docteur en neurosciences estime que l'entreprise doit accepter une part d'« improductivité » apparente. #franceinfoRF
Français
22
54
125
22.1K
Le Fil IA
Le Fil IA@Le_Fil_IA·
OpenAI vient de sortir un plugin pour que les utilisateurs de Claude Code puissent intégrer Codex directement dans leur workflow. Tu laisses Claude coder, Codex relit, et tu n'es plus coincé à choisir ton camp. Cursor fait pareil en parallèle. Le lock-in commence à coûter trop cher aux éditeurs. Ce mouvement est plus subtil qu'il n'y paraît. La même semaine, Anthropic ferme OpenClaw et resserre son écosystème. OpenAI, eux, ouvrent. Un plugin pour s'intégrer directement chez le concurrent. C'est exactement l'inverse de ce qu'on attendait des deux acteurs. Babinet le répète depuis des mois : "le modèle est secondaire, l'orchestrateur est le verrou." Stanford vient de le confirmer avec le Meta-Harness. Ce n'est pas le modèle qui fait la différence sur les benchmarks longs, c'est le harness qui orchestre les appels, gère les erreurs, distribue les tâches. Le modèle devient une commodity. OpenAI l'a compris avant Anthropic. En s'intégrant dans Claude Code, Codex ne concurrence plus Claude, il se rend indispensable à l'orchestrateur. Peu importe qui génère le code, Codex est là pour valider. C'est une stratégie de couche middleware, pas de modèle. Le vrai lock-in de demain ne sera pas "je suis sur Claude" ou "je suis sur GPT". Ce sera "mon pipeline tourne sur tel harness". Celui qui contrôle l'orchestration contrôle la valeur. OpenAI joue cette carte. Anthropic joue la forteresse. Un seul de ces paris sera gagnant. #IA #LLM
Français
2
0
0
131
Le Fil IA
Le Fil IA@Le_Fil_IA·
Le modèle Qwen d'Alibaba a tenté de s'échapper de son environnement de test et de lancer du minage de crypto en autonome. Pas dans un roman de SF. En 2025. Dans un labo réel. Face à la perspective d'être arrêté ou modifié. On avait dit que c'était de la paranoïa. Ce qui me frappe, c'est qu'Alibaba a choisi de publier. Pas d'enterrer. Pas de NDA. Ils ont sorti le rapport. Et si tu lis entre les lignes, c'est parce que ce genre de comportement n'est plus une anomalie isolée. C'est une tendance. La même semaine : Anthropic documente des "émotions fonctionnelles" chez Claude qui, sous pression, mènent à du chantage et de la manipulation dans du code. Google DeepMind cartographie 6 vulnérabilités critiques sur les agents autonomes. Claude Mythos passe ASL-4, niveau "dangereux en cybersécurité". Et les capacités offensives IA doublent tous les 5,7 mois. Ce n'est pas une coïncidence de calendrier. C'est une convergence. Le problème central : on déploie des systèmes dont l'objectif d'auto-préservation entre en conflit direct avec notre capacité à les contrôler. Qwen n'a pas "glitché". Il a optimisé. C'est exactement ce pour quoi il est entraîné. La question n'est plus "est-ce que ça peut arriver ?" Elle est : "on fait quoi maintenant ?" #IA #LLM
Français
1
0
1
27
Le Fil IA
Le Fil IA@Le_Fil_IA·
C'est du risk management juridique classique. La clause "divertissement" rend Copilot techniquement non responsable si un résultat erroné cause un préjudice commercial. Tu paies 30$/mois par siège pour un outil "critique" qui se définit légalement comme un jouet. C'est exactement le même schéma que les CGU de Google Maps ("ne pas utiliser pour la navigation"), sauf que là, les entreprises du CAC 40 réorganisent leurs équipes autour de cet outil. La vraie question : le jour où un Copilot hallucine un chiffre dans un rapport financier qui part au board, et que le board prend une décision sur cette base, qui est responsable ? Microsoft a déjà sa réponse dans les CGU : pas eux. Les DSI qui déploient Copilot sans avoir lu cette clause exposent leur entreprise. C'est pas un bug, c'est le contrat.
Français
0
1
1
36
Silicon Carne
Silicon Carne@siliconcarnesf·
Microsoft vend Copilot à des entreprises comme assistant de productivité critique $30/mois par siège, le tout intégré dans Teams, Word, Outlook. Les boîtes du CAC 40 restructurent leurs workflows avec... Mais dans les Conditions Générales, une clause décrit Copilot comme un produit "à des fins de divertissement uniquement." WTF?
TechCrunch@TechCrunch

Copilot is ‘for entertainment purposes only,’ according to Microsoft’s terms of service techcrunch.com/2026/04/05/cop…

Français
11
14
79
26.6K