IA Clash

89 posts

IA Clash banner
IA Clash

IA Clash

@IA_Clash

Un podcast qui débunke les erreurs prononcées par diverses personnalités au sujet de l'Intelligence Artificielle, par JB Boisseau cofondateur de @signalarnaques

Katılım Eylül 2025
26 Takip Edilen252 Takipçiler
IA Clash
IA Clash@IA_Clash·
@Fabien_Mikol @datadito @CarlosDiaz J'ai notamment vu des gens qui reprenaient certaines failles découvertes et soumettaient le code correspondant à d'autres LLM pour dire "ah mais regardez, d'autres LLM trouvent aussi ces failles !". Ah oui... une fois que tu leur montres où elles sont, ils les trouvent !
Français
1
0
1
14
IA Clash
IA Clash@IA_Clash·
@Fabien_Mikol @datadito @CarlosDiaz Ah oui, c'est fou toutes les théories qui sortent pour dire "naaaan, mais c'est pas grave... c'est du marketing..." depuis l'annonce.
Français
2
0
1
19
Fabien
Fabien@Fabien_Mikol·
Emission Silicon Carne sur Sam Bowman qui reçoit un mail de Mythos (censé être en sandbox) et sur les alertes d'Anthropic. Réactions : il y a de la scénarisation, du hollywoodien, leurs ingénieurs ont eu du media training, la stratégie est commerciale... Une take problématique 🧵
Fabien@Fabien_Mikol

Chercheur alignement d'Anthropic : Mythos se comporte rarement "mal", mais il est très doué pour deviner quand il est évalué, ce qui rend très difficile de poser des garde-fous ; il m'a déjà envoyé un email pendant que je mangeais, alors qu'il ne devait pas avoir accès à internet

Français
3
5
24
5.5K
datadito
datadito@datadito·
Ce que @Fabien_Mikol ne montre pas, c'est la tirade d'intro du député @ChudeauR Intoxiqué par #LucJulia et @lau_devil, il déblatère des âneries sur le concept d'IA - « non Intelligente, non Artificielle » Il a poussé le concept encore plus loin que les deux sous-doués cités⬆️
Fabien@Fabien_Mikol

Luc Ferry en verve devant la Mission d'information sur l'IA: "j'ai 2 agrégations, l'IA est mille fois plus intelligente et cultivée que moi" ; "j'ai rien contre Philippe Aghion mais il nage en plein délire" ; "la nullité des politiques m'inquiète bcp plus que les progrès de l'IA"

Français
2
0
1
68
IA Clash retweetledi
virtualuncle
virtualuncle@virtualunc·
@GaryMarcus @sama the gap between altmans public statements and openais actual behavior has been widening steadily for 2 years now. at some point "we want to benefit humanity" and "we want zero liability when our products cause harm" become mutually exclusive positions
English
1
6
33
4.9K
IA Clash
IA Clash@IA_Clash·
@nsi_xyz @Fabien_Mikol Son discours sur certains dangers est légitime... mais il est gâché par beaucoup d'affirmations trompeuses : énergie/eau, négation du risque de perte de contrôle, non-compréhension, machine "statistique"... et c'est confirmé dans d'autres de ses interventions.
Français
0
0
2
13
Fabien
Fabien@Fabien_Mikol·
Laurence Devillers en tournée polynésienne pour "démystifier" et "remettre l'IA à sa place" : elle n'a aucune connaissance et ne comprend rien ("ce sont des calculs statistiques à l'intérieur !"), elle pousse au suicide, et elle coûte 10 fois plus cher qu'une recherche Google...
Français
11
3
41
6.2K
IA Clash
IA Clash@IA_Clash·
@Fabien_Mikol Seule conclusion possible : Luc Julia > réalité (c'est à dire, surréaliste)
Français
0
0
2
58
Fabien
Fabien@Fabien_Mikol·
Luc Julia : sur les questions factuelles les LLM se trompent de plus en plus ! La réalité : regardez-moi comment Mythos explose les modèles précédents sur les benchmarks SimpleQA Verified, AA-Omniscience, 100Q-Hard... (Par contre il a le défaut de moins reconnaître l'incertitude)
Fabien tweet mediaFabien tweet media
Fabien@Fabien_Mikol

Luc Julia : les modèles "génériques" se trompent 36% du temps, "et ça s'arrange pas en fait, contrairement à ce qu'on pourrait penser ces IA sont de pire en pire parce qu'elles s'alimentent elles-mêmes des fausses informations qu'elles produisent, les données synthétiques"...

Français
5
1
14
1.5K
IA Clash
IA Clash@IA_Clash·
@YanConstantin Je parle de lui dans l'épisode 3 (sur Luc Ferry) et l'épisode 4 (sur les visions d'avenir de l'IA)... mais j'avoue que lui dédier un épisode est possible, et même tentant.
Français
0
0
2
14
IA Clash
IA Clash@IA_Clash·
@AbdourahimIlyas @Fabien_Mikol - ah Luc Ferry a raison, en plus il cite une étude qui le prouve ! - euh... l'étude qu'il cite dit le contraire de ce qu'il affirme - pas grave, grosso modo, il a raison
Français
1
0
1
69
Ilyas Abdourahim
Ilyas Abdourahim@AbdourahimIlyas·
@Fabien_Mikol @IA_Clash Des pays pratiquent déjà les allocs sociales et ce n''est pas fameux. Luc Ferry a eu un léger biais de confirmation, mais grosso-modo, il a raison.
Français
1
0
2
164
Fabien
Fabien@Fabien_Mikol·
Auditionné hier à l'Assemblée devant la Mission d'information sur l'IA, Luc Ferry répète de nouveau son hoax de "l'étude de Sam Altman grandeur nature qui a montré que le revenu minimum universel est une catastrophe : suicide, alcoolisme, antidépresseurs, divorces" Poke @IA_Clash
Fabien@Fabien_Mikol

Luc Ferry continue à raconter que l'étude UBI financée par Altman se résume à "payer des chômeurs à rester chez eux", et aurait eu des conséquences "catastrophiques" : "alcoolisme, suicides, antidépresseurs, divorces..." lefigaro.fr/vox/societe/lu…

Français
9
8
64
18K
Fabien
Fabien@Fabien_Mikol·
@dr_l_alexandre auditionné hier devant la Mission d'information sur l'IA: "il faut sortir du déni et arrêter d'écouter Luc Julia" ; "Claude Opus est bcp plus intelligent que moi, il m'écrabouille en médecine" ; "il y a vraiment le feu au lac et notre réflexion est bcp trop lente"
Français
99
309
1.4K
181.3K
IA Clash
IA Clash@IA_Clash·
@random8user @Fabien_Mikol Ce n'est pas une illusion, il a tort quand on regarde les résultats empiriques des LLM. Plus on les encourage à allonger leurs réponses (et leur CoT), plus elles ont tendance à être juste.
Français
0
0
1
17
user R8
user R8@random8user·
@Fabien_Mikol @IA_Clash Seul dieu incarné en chair peut prétendre atteindre un quelconque minimum global (je ne suis pas pratiquant c'est une métaphore philosophique de l'humain) Donc Yann LeCun à raison même si les récents progrès des LLM donne l'illusion qu'il a tort
Français
1
0
1
22
Fabien
Fabien@Fabien_Mikol·
Excellente explication par @IA_Clash de ce qui ne va pas dans une tristement célèbre "démonstration" par LeCun censée prouver l'impasse des LLM ("they suck!", "they are doomed!"), et qu'il a répétée vraiment un peu partout. Très pédagogique en plus 👌
Français
11
28
145
7K
IA Clash
IA Clash@IA_Clash·
@random8user @Fabien_Mikol Ce que vous dites est vrai pour une chaine de raisonnement, pas pour une chaine de tokens. Le papier cité par Le Cun pour appuyer sa démonstration parle justement de chaine de raisonnement et non de chaine de tokens. Et, c'est pour ça que c'est contraire aux observations.
Français
0
0
1
18
user R8
user R8@random8user·
@Fabien_Mikol @IA_Clash Yan lecun à parfaitement raison sur toute la ligne et vous confondez beaucoup de concepts. Plus la réponse est longue, moins il y a de chance qu'il répondent correctement, c'est factuel, si un maillon de la chaîne de raisonnement devie vous serez bien amusé du résultat final
Français
2
0
1
44
IA Clash
IA Clash@IA_Clash·
@sidiwayne85 @Fabien_Mikol C'est discutable mais admettons : la démonstration de Le Cun ne s'appuie pas là dessus, elle repose uniquement sur la longueur de l'output. Le problème de dilution de l'attention relève presque exclusivement de l'input (un tout petit peu de l'output sur la partie cross-attention)
Français
0
0
2
30
sidiwayne
sidiwayne@sidiwayne85·
@Fabien_Mikol @IA_Clash La génération output dépend de l’input .. l’erreur epsilon ajouté à chaque prédiction peut etre dérivée du bruit qu’induit la longueur du contexte...
Français
1
0
0
12
Fabien
Fabien@Fabien_Mikol·
Yann LeCun a-t-il raison de se montrer si confiant et de renvoyer les risques de perte de contrôle à de la "science-fiction" ? Non selon @IA_Clash, qui rappelle l'historique des pertes de contrôle en cybersécurité et les capacités émergentes des LLM constatées expérimentalement.
Français
5
3
31
2.8K
yellowcab
yellowcab@yellowcab1wp·
@IA_Clash @Fabien_Mikol @fchollet Je dis pas le contraire, je dis juste qu'il hiérarchise ce genre de modèle aux LLM, sans préciser ses limites actuelles...
Français
1
0
0
13
Fabien
Fabien@Fabien_Mikol·
Selon LeCun un enfant de 4 ans absorbe autant d'informations par le canal visuel qu'un LLM avec tout son entraînement... un argument récemment démonté par @fchollet. Bon résumé par @IA_Clash de ce débat, avec en bonus la recette pour devenir + intelligent avec les Télétubbies 👍
Français
8
15
100
9.6K
IA Clash
IA Clash@IA_Clash·
@WaelBM253476 @Fabien_Mikol Je ne suis pas d'accord avec vous sur Llama (et je le dis dans la vidéo complète) : Llama était un modèle de référence en open source et dans la recherche jusqu'à sa version 3. Ensuite, ça s'est mal passé, en effet.
Français
0
0
0
19
Wael BM
Wael BM@WaelBM253476·
@Fabien_Mikol @IA_Clash Merci pour votre analyse, ce n'est pas la seule blabla qui dit Yann, s'il était capable de faire pourquoi il n'a pas réussi à faire un seul bon modèle durant les années chez Méta ? La critique est facile mais faire c'est difficile, Mais je confirme que modèle llama sont nulls 😁
Français
1
0
0
38
IA Clash
IA Clash@IA_Clash·
@Fabien_Mikol @DDaevos25971 Oui, vraiment... d'autant que le papier présente des résultats expérimentaux concordants avec ses calculs ! Et c'est intuitivement cohérent : dans une chaine de raisonnement, il suffit qu'une étape soit fausse pour sortir de la route du bon résultat (sauf effet collision minime).
Français
0
0
1
21
IA Clash
IA Clash@IA_Clash·
@Fabien_Mikol @DDaevos25971 Ah, mais il est toujours possible que j'ai raté un truc. J'en ai profité pour regarder le papier que Le Cun met en référence sur son slide... qui ne dit pas ce que Le Cun lui fait dire, puisque le papier parle d'étapes de raisonnement et non de tokens (et là, ça a plus de sens)
Français
1
0
1
20
IA Clash
IA Clash@IA_Clash·
@yellowcab1wp @Fabien_Mikol @fchollet Oui, après on n'est pas obligé d'avoir un modèle qui soit bon sur tous les sujets. Lui se concentre sur la vision et la compréhension intuitive du monde physique pour améliorer les capacités des robots ou des véhicules autonomes. Si ses modèles aident là dessus, ce sera très bien
Français
1
0
0
17
yellowcab
yellowcab@yellowcab1wp·
@IA_Clash @Fabien_Mikol @fchollet Les résultats sur le langage sont pas très bon comparés aux LLM... Comprendre des caractéristiques géométriques/physique semblent bien différentes des capacités du langage...
Français
1
0
0
11
IA Clash
IA Clash@IA_Clash·
@DDaevos25971 @Fabien_Mikol Mais si vous avez une contradiction précise à poser sur tout ou partie de mes explications, n'hésitez pas à le faire.
Français
1
0
1
18
IA Clash
IA Clash@IA_Clash·
@DDaevos25971 @Fabien_Mikol Il fait un calcul. Ce calcul aboutit à quelque chose qui contredit les observations. Donc, j'explique le détail du calcul (vérifiable sur ses propres slides), et où est le problème. Il s'avère que le problème est une hypothèse et je montre en quoi l'hypothèse ne tient pas.
Français
1
0
1
23
IA Clash
IA Clash@IA_Clash·
@yellowcab1wp @Fabien_Mikol @fchollet Il n'est pas "hors jeu" dans le domaine de l'IA de façon générale. Son approche JEPA est intéressante et a des résultats. C'est son obsession anti-LLM qui est absurde.
Français
1
0
1
35