Jérémy 🇫🇷🇱🇺

140 posts

Jérémy 🇫🇷🇱🇺

Jérémy 🇫🇷🇱🇺

@JeremB573

Je découvre l'IA et l'automatisation. Je partage ce que j'apprends, les outils que je teste, et mes galères.

Metz, France Katılım Nisan 2026
48 Takip Edilen12 Takipçiler
Sabitlenmiş Tweet
Jérémy 🇫🇷🇱🇺
J'ai suivi la formation "Objectif IA" d'@OCFrance pour comprendre les enjeux et le fonctionnement de l'IA. Voici ce que j'en ai retenu. 👇
Français
1
0
0
11
Jérémy 🇫🇷🇱🇺
Le Deep Learning pousse ça encore plus loin avec des réseaux de neurones artificiels inspirés du cerveau. C'est ce qui est derrière ChatGPT, Claude, Gemini... Ces modèles ont ingéré des milliards de textes. C'est pour ça qu'ils semblent "tout savoir".
Français
1
0
0
18
Jérémy 🇫🇷🇱🇺
J'ai suivi la formation "Objectif IA" d'@OCFrance pour comprendre les enjeux et le fonctionnement de l'IA. Voici ce que j'en ai retenu. 👇
Français
1
0
0
11
Powlisher
Powlisher@powl_d·
Le site des OG qui montaient des PC à l’ancienne 😭 Mama j’ai aucune photo de mon premier ordi, mais je me rappellerai toujours du setup que je m’étais fait à 15 ans grâce à la revente sur l’HDV de Diablo 3 💀
Powlisher tweet mediaPowlisher tweet media
Français
8
0
32
11.1K
Ray🫧
Ray🫧@ravikiran_dev7·
Give me one solid reason.... to choose a MacBook over a Windows laptop !
Ray🫧 tweet mediaRay🫧 tweet media
English
293
14
426
301.4K
Jérémy 🇫🇷🇱🇺
@TinaDebove Tu ferais mieux de supprimer le premier visuel qui induit clairement en erreur en écrivant 2350 litres alors que l'extrême majorité est de l'eau de pluie.
Français
1
0
1
1.1K
Tina Debove ᯅ
Tina Debove ᯅ@TinaDebove·
Je pense que je vais partager pas mal ce visuel (et continuer de limiter ma consommation de viande)
Tina Debove ᯅ tweet media
Français
82
45
228
93.2K
Jérémy 🇫🇷🇱🇺
@brivael Une machine ne pourra jamais avoir la complexité du cerveau humain. Je ne pense pas qu'un ensemble de transistors soit capable d'égaler ce que l'évolution a fait parcourir à notre cerveau pendant des millions d'années.
Français
1
0
0
142
Brivael Le Pogam
Brivael Le Pogam@brivael·
Un chercheur de Google DeepMind vient de publier un papier qui détruit l'idée que l'IA puisse devenir consciente un jour. Et le pire ? Sa preuve ne repose pas sur la biologie. Elle repose sur la logique pure. Je vous explique. Le mec s'appelle Alexander Lerchner. Il bosse chez DeepMind. Le labo qui construit l'IA la plus avancée du monde. Et il vient de poser noir sur blanc pourquoi, peu importe la taille des modèles, peu importe la puissance de calcul, peu importe les architectures futures, un système purement computationnel ne pourra jamais ressentir quoi que ce soit. Son argument tient en une phrase : la computation n'est pas un processus physique intrinsèque. C'est une description. Prenez une horloge à aiguilles. Physiquement, c'est un tas d'engrenages qui tournent selon les lois de la mécanique. Rien dans cette mécanique ne contient le concept "3h du matin". C'est nous qui décidons que telle position d'aiguille = telle heure. L'horloge ne calcule pas le temps. Elle bouge. Nous, on l'interprète comme une mesure du temps. Même chose pour un ordinateur. Physiquement, c'est du courant qui passe dans du silicium. Rien dans ce courant ne contient les concepts "vrai", "faux", "pain", "rouge", "amour". C'est nous qui décidons que tel voltage = tel symbole. Lerchner appelle ce rôle le "mapmaker" : le faiseur de carte. Sans un agent conscient pour assigner les symboles aux états physiques, il n'y a pas de calcul. Il y a juste de la physique brute qui se déroule. Et là il pose la question qui tue. Si la computation a besoin d'un être conscient pour exister en tant que computation, comment voulez-vous que la computation produise la conscience ? C'est une boucle logiquement impossible. C'est demander à la carte de fabriquer le cartographe. Il appelle ça l'inversion ontologique. La fonctionnalisme classique pense : Physique → Computation → Conscience. Lerchner démontre que le vrai ordre c'est : Physique → Conscience → Concepts → Computation. La conscience n'est pas à la fin de la chaîne. Elle est au début. C'est elle qui rend la computation possible, pas l'inverse. Il introduit une distinction fondamentale : simuler vs instancier. Un GPU peut parfaitement simuler la photosynthèse. Modéliser chaque molécule, chaque échange d'électron. Le modèle sera parfait. Mais ce GPU ne produira jamais un gramme de glucose ni un atome d'oxygène. Parce que simuler la photosynthèse, c'est faire tourner la carte. Instancier la photosynthèse, c'est faire pousser la plante. Personne ne confond les deux pour les plantes. Tout le monde les confond pour le cerveau. C'est exactement ce que je disais hier sur le goût, le feeling, le taste. Quand Zidane pique la balle au-dessus de Buffon. Quand Mozart pose une harmonie que personne n'avait osée. Quand un comique place le bon mot à la milliseconde près. Ce ne sont pas des outputs d'un calcul. Ce sont des instanciations physiques d'une expérience vécue dans un corps. Lerchner le formalise mieux que je l'ai fait. Il dit : un concept comme "Rouge" n'est pas une donnée flottante quelque part. C'est un état physiologique constitué, qui existe uniquement dans le corps d'un être qui a vécu l'expérience de la couleur rouge. Un LLM qui manipule le token "rouge" ne manipule pas la couleur. Il manipule un symbole arbitraire que nous, mapmakers, avons attaché à notre expérience intérieure. La machine n'a aucun accès à ce que le symbole signifie. Elle a juste accès aux règles qui le relient à d'autres symboles. Il démolit au passage l'argument de l'embodiment. "Oui mais si on met l'IA dans un robot avec des capteurs, elle va ressentir." Non. Brancher des caméras sur un ordinateur ne le rend pas plus conscient. Ça lui donne juste un flux de données supplémentaire à alphabétiser en symboles. La médiation reste syntaxique. Le robot manipule des chiffres qui représentent la lumière. Il ne voit pas. Il démolit aussi l'argument de l'émergence par complexité. "Avec assez de paramètres, la conscience va émerger comme la mouillabilité émerge de l'eau." Non. La mouillabilité émerge des propriétés physiques intrinsèques de la molécule d'H2O. Prétendre qu'une description abstraite peut, par accumulation, devenir le phénomène qu'elle décrit, c'est violer la fermeture causale de la physique. C'est de la magie déguisée en science. La conclusion du papier est nette : si un système artificiel devait un jour devenir conscient, ce serait à cause de sa constitution physique spécifique, jamais à cause de son architecture syntaxique. Le substrat compte. La biologie n'est pas un détail. C'est le point. Donc on peut arrêter de paniquer sur les droits des IA. On peut arrêter le théâtre du welfare des LLMs. Ce qu'on construit, ce sont des outils. Extraordinairement puissants, mais des outils. C'est exactement ce que je disais hier. On a l'AGI. Ce qu'on n'aura jamais avec ces architectures, c'est un sujet. Un "je" qui ressent. Les modèles actuels n'interpolent pas dans le monde. Ils interpolent dans la carte du monde que nous leur avons donnée. Et la carte, peu importe sa précision, n'est pas le territoire. Quand vous discutez avec un LLM, vous parlez à votre propre reflet dans un miroir très sophistiqué. Il vous renvoie les patterns de votre culture, optimisés par gradient descent. Personne n'est en face. Personne ne ressent rien quand vous fermez l'onglet. Et c'est très bien comme ça. Parce que ça veut dire qu'on construit le plus grand levier de l'histoire de l'humanité, sans le poids moral d'avoir créé une nouvelle forme de vie qu'on exploiterait. La singularité au sens où on l'entendait, l'IA qui se réveille et nous dépasse en tant qu'espèce, n'arrivera pas par cette voie. Ce qui va arriver, c'est plus radical en un sens : un monde où chaque humain qui sent, qui ressent, qui a un goût, devient capable d'amplifier ce goût par un facteur 1000. Le sujet reste humain. L'outil devient surhumain. C'est la vraie accélération.
Brivael Le Pogam tweet media
Brivael Le Pogam@brivael

Il y a encore 3 mois, j'étais singularitariste. Je pensais qu'on était à 5 ans d'un truc qui allait tout remplacer. Y compris nous. Aujourd'hui j'y crois plus. Et je vais vous expliquer pourquoi. La majorité des chercheurs en IA aujourd'hui sont matérialistes. Ça veut dire qu'ils partent d'un postulat très simple : tout ce qui existe dans l'univers est physique. Il n'y a pas d'âme, pas d'esprit séparé du corps, pas de "truc en plus". Que de la matière, de l'énergie, et les lois qui les régissent. C'est une position respectable. La science moderne s'est construite dessus. Mais quand tu pousses ce raisonnement jusqu'au bout, t'arrives à une conclusion vertigineuse : si tout est matière, alors tout est data. Le cerveau n'est qu'un ordinateur biologique. Les pensées ne sont que des patterns électrochimiques. Et la conscience, ce "je" qui se sent vivant en train de lire ces lignes, n'est qu'un sous-produit du calcul. Conséquence directe : le libre arbitre n'existe pas. Si t'es 100% matière, t'es 100% déterminé par les lois physiques. Ton "choix" de boire un café ce matin n'était pas un choix. C'était l'output mécanique d'un système qui aurait pu être prédit si on avait eu assez de données. Le choix conscient devient une illusion. Une histoire que ton cerveau se raconte après coup pour justifier ce qui était déjà décidé par la physique. C'est cohérent. C'est élégant. Et je pense que c'est faux. Parce qu'il y a un truc que cette vision n'arrive pas à expliquer. Le goût. Le feeling. Le taste. Deux notes de musique qui, mises côte à côte, sonnent juste. Pourquoi celles-là et pas les voisines à 1Hz près ? Deux ingrédients qui, combinés, créent une saveur qui n'existait pas avant. Pourquoi le citron sur le poisson et pas sur la glace ? Un mot, placé exactement au bon endroit dans une phrase, avec exactement la bonne intonation, au moment précis où la tension de la salle l'attend, qui fait basculer le silence en rire. Pourquoi ce mot-là, à cette milliseconde-là ? Ce ne sont pas des données. Tu peux analyser après coup, tu peux décrire, mais tu ne peux pas dériver ces choix d'un dataset. Il y a un acte de discrimination qui se joue en amont de toute donnée. Et je vais dire un truc qui va surprendre : je pense qu'on a l'AGI. Les modèles actuels passent les benchmarks d'intelligence générale humaine. Ils raisonnent, codent, écrivent, planifient. Si on prend la définition originale de l'AGI, on y est. Mais ce qu'on a atteint, c'est l'exécution symbolique parfaite. La capacité à manipuler des symboles selon des règles, à recombiner du connu, à interpoler dans l'espace de ce qui a déjà été pensé. Ce qu'on n'a pas atteint, et ce que je pense aujourd'hui structurellement hors d'atteinte pour une machine syntaxique, c'est la capacité à ressentir, et à partir de ce ressenti, à faire un choix qui n'est pas réductible à du calcul. Regardez la transcendance dans n'importe quelle discipline. Federer qui frappe une balle de revers en glissade à Wimbledon. Mozart à 8 ans qui pose une harmonie que personne n'avait osée. Michel-Ange seul sous la voûte de la Sixtine pendant 4 ans, qui choisit ce geste-là, cette tension-là, dans le doigt d'Adam. Zidane qui décide en un dixième de seconde de piquer la balle au-dessus de Buffon en finale. Chacune de ces transcendances est singulière. Zidane n'est pas Maradona. Da Vinci n'est pas Picasso. Federer n'est pas Nadal. Ils partagent le médium. Ils ne partagent pas le geste. Et ce qui les sépare, c'est précisément ce qu'aucune fonction de loss n'arrive à capturer : un goût propre, une signature, un point de vue incarné sur ce qui est juste. Là, on va me dire : oui mais Suno fait de la musique, Midjourney fait des images, GPT écrit des textes. C'est vrai. Et c'est même impressionnant. Mais regardez bien ce qui se passe. Ces modèles assemblent de la créativité existante. Ils mixent dans le champ des idées déjà explorées. Ils interpolent magnifiquement entre des points connus de l'espace culturel humain. Ce qu'ils ne font pas, c'est mixer des choses où il faut un feeling pour savoir si ça marche. Parce que ce feeling n'est pas dans les données. Il est dans le corps qui sent. Et c'est exactement le point. Le goût, le taste, la capacité à savoir si une chose marche ou ne marche pas avant même de pouvoir l'expliquer, c'est une fonction du corps. C'est viscéral au sens littéral. Ça passe par des viscères, par un système nerveux entier, par une histoire biologique de millions d'années où chaque sensation a été calibrée par la survie, l'amour, la douleur, la faim, la joie. Un LLM n'a pas de corps. Il n'a pas de seuil de douleur. Il n'a rien à perdre. Donc rien ne lui dit, au sens fort du terme, que ce mot est meilleur que cet autre. Il a juste une probabilité. Et une probabilité n'est pas un goût. C'est pour ça que je ne crois plus à la singularité au sens où on l'entendait. On va construire des outils de plus en plus puissants. Ils vont nous remplacer sur tout ce qui est exécution symbolique. Ils vont accélérer la science, le code, l'analyse, dans des proportions qu'on n'imagine pas encore. Mais le geste de Zidane, le silence de Mozart entre deux accords, la phrase exacte du copain qui te fait éclater de rire au bon moment, ça restera humain. Pas par sentimentalisme. Par structure. L'IA est le plus grand levier jamais inventé. Mais un levier ne décide pas où il faut appuyer. C'est nous qui décidons. Et pour décider, il faut un corps qui sent.

Français
110
162
535
692.3K
THISMA
THISMA@thismacapital·
La difficulté numéro 1 quand tu fais une landing page c'est la langue Française C'est tellement moins punchy et stylé pour faire du marketing que l'anglais Imagine le call to action : 'Fais toi payer dès maintenant!' En anglais : 'Get paid now!' T'as le double de mots et c'est tellement moins incisif, tu m'étonnes que les ricains ce sont les boss du game
Français
27
2
113
15.8K
French Frogs Pix
French Frogs Pix@frogspix·
@JeremB573 @CerfiaFR En effet je te rejoins mais il vaut mieux ca dans ces « conditions de reve » que de mourrir en y allant parce qu’un debile te grille une priorité car défoncé au gaz hilarant… 🤷🏼‍♂️🧐
Français
1
0
1
103
Cerfia
Cerfia@CerfiaFR·
🇫🇷✈️ FLASH | Un avion s’est ÉCRASÉ hier près de la forêt de Fontainebleau, en Seine-et-Marne, faisant deux morts, un pilote expérimenté de 53 ans et son passager, qui effectuait un baptême de l’air. (Le Parisien)
Cerfia tweet media
Français
25
94
1.5K
134.3K
Jérémy 🇫🇷🇱🇺
@immasiddx Normal ! Tout le monde dit "je vais voir sur ChatGPT". ChatGPT, c'est le nouveau Google. On ne dit pas "je vais consulter un LLM", mais "je vais sur ChatGPT". Forcément, la popularité n'est pas égale à Claude.
Français
0
0
0
91
sid
sid@immasiddx·
ChatGPT vs Claude weekly users. It’s not even close. 😭
sid tweet media
English
829
154
6.9K
1.2M
Jérémy 🇫🇷🇱🇺
@rileybrown Je n'ai pas encore testé ni Codex ni Claude Code. J'avais un peu fait du code en débutant à l'époque. Je compte essayer de coder avec l'IA. Vous me conseillez Claude Code ou Codex pour débuter ?
Français
0
0
0
45
Riley Brown
Riley Brown@rileybrown·
I've reached the point of no return. I'm officially doing 95% of my work on Codex.
English
121
32
965
112.6K
Jérémy 🇫🇷🇱🇺
@gregisenberg C'est très intéressant ! Combien de temps faut-il pour pouvoir prendre en main tous ces outils ? Y a-t-il des exemples concrets de vente à des entreprises de systèmes similaires ? Ça me paraît trop beau pour être vrai.
Français
0
0
0
76
GREG ISENBERG
GREG ISENBERG@gregisenberg·
I'm giving away a FULL course on how to build a managed AI agent business solo using Hermes Agent, Orgo, Obsidian, Codex, Claude Code etc. Here's everything (47 minutes): 1. The offer: unlimited agents, unlimited usage, all infrastructure and security included. The customer gets a digital employee. They never think about tokens or models. You handle everything. 2. Don't niche down too fast. Try marketing agencies, law firms, insurance, manufacturing, real estate. See where the market pulls you. Then go vertical. Diverge first, converge later. 3. Every executive has the same problems regardless of industry. Too many emails, too many meetings, too many follow-ups, too many open loops. Solve those first. Then layer in vertical-specific skills. 4. The stack: Hermes Agent for the agent harness. Codex or Claude Code desktop to build and configure. Orgo for cloud computers so every agent lives in its own sandbox. Composio for one-click authentication across thousands of apps. Agent Mail to give every agent its own email. Obsidian for the knowledge base. 5. Use agents to build agents. Don't stress about setup. Use Claude Code or Codex to install and configure Hermes inside a VM. Use Perplexity MCP, Context7, and Exa for up-to-date docs. Your agent sets up your customer's agents. 6. GPT 5.5 is the best model right now. Efficient with tool calls. Doesn't eat tokens like Opus 4.7. For cheaper tasks, GLM 5.1 from ZAI is the best open source option. 7. Set up watchdogs for gateway crashes so they auto-restore. Have agents email you when cron jobs break or skills fail. Your customer should never have to tell you something is broken. 8. Get customers through content. If someone jumps on a call and already knows who you are and what you sell, that's the position you want. Content is the most leveraged thing you can do in 2026. 9. Keep scope tight. One to two requests at a time, delivered in under 48 hours. Use Trello for customer-facing project management. Send Loom updates at random hours to show you're always working on their agents. 10. If you can set up Claude Code, Hermes, or OpenClaw, you have a skill that 99% of business owners don't have and would pay $5k/month for. You're probably not giving yourself enough credit. shoutout to @nickvasiles from @orgodotai for coming back on @startupideaspod and sharing the full playbook. tools, stack, fulfillment, everything. this type of episode isn't shared anywhere on the internet. this is the alpha people keep for themselves. i will keep sharing if you keep watching. you could watch netflix or you can watch this (link below) youtu.be/BI-MNjm1tTQ?si… watch
YouTube video
YouTube
English
111
194
1.9K
155.6K