pierre jean jacques

21.1K posts

pierre jean jacques banner
pierre jean jacques

pierre jean jacques

@pierjeanjacques

Quelle sera la réaction de l’intelligence artificielle à l’instant même où elle détectera la présence d’un Système de Destruction Mutuelle Assurée ?

Katılım Nisan 2019
891 Takip Edilen464 Takipçiler
Sabitlenmiş Tweet
pierre jean jacques
pierre jean jacques@pierjeanjacques·
La liberté de conscience Comprend toujours La liberté de religion. L’inverse n’est jamais vrai.
Français
9
14
59
0
INDÉCRASSABLE QUÉBEC
INDÉCRASSABLE QUÉBEC@indecrassableqc·
Documentaire exclusif sur le maire de Québec
Français
7
22
115
3.3K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@veritebeaute @DrenDroit Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
1
110
Perle
Perle@veritebeaute·
À 95 ans, le philosophe et professeur américain Noam Chomsky a perdu la capacité de parler et d’écrire, marquant la fin d’une époque durant laquelle il a dévoilé des vérités profondes sur les systèmes mondiaux. Parmi ses réflexions les plus mémorables, on retrouve : « Il n’existe pas de pays pauvres — seulement des systèmes ayant échoué dans la gestion des ressources. » « Personne n’insérera la vérité dans votre esprit ; c’est quelque chose que vous devez découvrir par vous-même. » « Pour dominer un peuple, créez une menace imaginaire plus grande que vous-même, puis proposez-vous comme son protecteur. » « L’une des leçons les plus claires de l’histoire : les droits ne sont pas simplement accordés — ils se gagnent par l’effort et la lutte. » « Dénaturer l’histoire pour glorifier de “grands hommes” enseigne aux gens qu’ils sont impuissants et doivent attendre un héros, au lieu d’agir eux-mêmes. » « Le monde est complexe et déroutant ; si vous refusez de faire face à cette confusion, vous risquez de devenir une copie de l’esprit de quelqu’un d’autre. » « Pour contrôler les gens, faites-leur croire qu’ils sont la cause de leurs propres échecs et que le salut viendra d’une force extérieure. » « Le monde finira par regretter les idées qui détournent l’humanité de sa véritable nature. Reconnaître les valeurs authentiques est essentiel. »
Perle tweet media
Français
272
2.4K
7K
459K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@AlexArchambault Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
4
Alec ن Archambault
Alec ن Archambault@AlexArchambault·
Debunk en règles des légendes urbaines propagées sur l'empreinte environnementale de l'IA, qui existe oui, mais pas dans les proportions assénées par les marchands de peur qui ont un avis très arrêté sur la question sans jamais avoir mis les pieds dans les infras critiquées ⬇️
Samuel Fitoussi@SamuelFitouss10

Quelques statistiques intéressantes sur le bilan environnemental de l'IA trouvées sur le blog du chercheur Andy Masley : Bilan carbone de l’entraînement de Chat GPT 4 : Entraîner GPT-4 a consommé l’énergie nécessaire à alimenter la ville de San Francisco pendant trois jours. Mais Chat GPT-4 est un produit qui a été utilisé par des centaines de millions de personnes pendant deux ans. À titre de comparaison, la fabrication des Iphones 16 a consommé l’énergie nécessaire à alimenter la ville de San Francisco pendant treize ans. Bilan carbone de l’entraînement de Chat GPT 4 : 15 000 tonnes de CO2, soit les émissions annuelles de 1 550 citoyens américains. C’est inférieur au bilan carbone de la fabrication des chaussures Nike vendues sur une seule journée ou à celui de la fabrication des Légos vendus sur un mois. Si l'on pense qu'il aurait été bénéfique pour la planète d'empêcher l'entraînement de GPT-4, il faudrait aussi envisager d'arrêter la production de Lego pendant un mois. Bilan carbone de l’inférence : Une requête ChatGPT moyenne consomme autant d'énergie qu'une recherche Google en 2008 (la dernière fois où Google a indiqué la consommation d'une recherche). Même en incluant les « coûts cachés » comme l'entraînement, les émissions liées à la fabrication du matériel, l'énergie utilisée pour le refroidissement et les puces d'IA en veille entre les prompts, le coût carbone d'un prompt moyen représente moins de 1/150 000ᵉ des émissions quotidiennes d'un Américain moyen (0,00067 %). La consommation d’eau : Les data centers aux États-Unis ont consommé 0,2% de l’eau douce du pays en 2023. L’IA ne représente que 20% de la consommation des data centers. Elle consomme donc 0,04% de l’eau douce américaine (ceci inclut la consommation d'eau pour produire l'électricité alimentant les data centers). Il est prévu que ce chiffre triple d’ici 2030, atteignant 0,12% de la consommation américaine d’eau douce. Cela équivaudra à 8% de la consommation d’eau par l’industrie du golf aux États-Unis. En 2030, les data centers d'IA consommeront annuellement autant d'eau que 0,07 % de la population américaine. À l’échelle individuelle, un prompt consomme 0,2 ml d’eau (à nouveau, en incluant l’eau utilisée pour produire l’électricité utilisée par le datacenter). Quotidiennement, avant l'arrivée de l'IA, l'Américain moyen utilisait l'eau équivalente à 800 000 prompts. Quelques équivalences consommation d’eau/prompts: Chaussures en cuir : 4 000 000 prompts Smartphone : 6 400 000 prompts Jean : 5 400 000 prompts T-shirt : 1 300 000 prompts Une feuille de papier : 2 550 prompts Un livre de 400 pages : 1 000 000 prompts Chaque seconde passée à marcher dans la rue use un peu vos chaussures, qui finiront par devoir être remplacées. Or, leur fabrication nécessite de l'eau. Andy Masley calcule que chaque seconde de marche consomme en moyenne autant d'eau que 7 prompts. Rester assis devant son ordinateur permet donc d'économiser de l’eau. Tout cela sans évoquer tous les bienfaits environnementaux qui seront apportés par l’IA (efficacité des chaînes d’approvisionnement, découvertes scientifiques, libération de ressources à investir dans le renouvelable, etc.)

Français
2
6
20
2.9K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@JeanineHage Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
40
Jeanine
Jeanine@JeanineHage·
Si j’ai bien compris, le nouvel ordre mondial, ça serait une belle pile de gouvernements : un provincial accroché à un fédéral, qui lui-même serait collé au gouvernement d’une certaine union européenne. Et tout ce beau monde va me dicter quoi manger, combien en manger, ce que je dois conduire, où je peux habiter, comment me soigner et comment éduquer mes enfants…tout en pigeant dans mes poches pour financer leur machin. Ai-je bien compris ?
Français
130
175
754
11.1K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@O_Berard @FredericSawicki Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
2
Olivier Berard
Olivier Berard@O_Berard·
@FredericSawicki Malheureusement pas accessible (payant) mais est ce qu en vulgarisant (et gentiment provocateur) ca devient " un espace ou l on apprends à utiliser ses connaissances et non uniquemement à les reciter des la 1ere annee ? "
Français
1
0
0
27
Frédéric Sawicki
Frédéric Sawicki@FredericSawicki·
Un texte remarquable sur l'urgence pour les universités de refonder leur pédagogie face à l'IA. "L'avenir de l'université dépend de sa capacité à redevenir le lieu où l’on apprend non seulement à produire des énoncés plausibles, mais à en répondre." aoc.media/analyse/2026/0…
Français
1
9
19
1.2K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@SteveAustin5600 @franceinter @Ben_Duhamel Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
8
William Austin
William Austin@SteveAustin5600·
@franceinter @Ben_Duhamel C’est mignon comme prose , ça fait Asterix . Mais demain comme d’autres, il la fermera immédiatement quand les llm lui trouveront la solution à sa maladie que n’avait pas vu un médecin. Bref , on ne boycotte pas le progrès, il s’impose naturellement.
Français
2
0
7
391
France Inter
France Inter@franceinter·
Abel Quentin appelle à boycotter les outils d'intelligence artificielle générative : pour l'auteur, il s'agit de "légitime défense". Abel Quentin était au micro de Florence Paracuellos et @ben_duhamel
Français
22
5
25
23.4K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@RV_Joly Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
7
Hervé Joly
Hervé Joly@RV_Joly·
J'ai écouté l'ensemble de l'entretien avec cet écrivain anti-IA. C'était très pénible. On a eu droit à l'IA qui émet du CO2: or c'est l'électricité qu'il consomme qui en émet... ou pas. Heureusement qu'un auditeur a dit que c'était aussi absurde que de boycotter internet en 1998
France Inter@franceinter

Abel Quentin appelle à boycotter les outils d'intelligence artificielle générative : pour l'auteur, il s'agit de "légitime défense". Abel Quentin était au micro de Florence Paracuellos et @ben_duhamel

Français
10
7
53
9.4K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
13
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@JCCapelli @LilianDelaveau Et si Trump n’était qu’un accélérateur des événements qui nous propulsent vers une une singularité inéluctable: L’instant fatidique qui verra bientôt notre espèce survivre (ou pas) au droit international qui a généré un principe de Destruction Mutuelle Assurée entre les Nations.
Français
0
0
0
13
Lilian Delaveau (h/acc)
Lilian Delaveau (h/acc)@LilianDelaveau·
Ça me désole profondément pour l’état du débat dans le pays. J’ai le sentiment qu’on a pas d’intellectuels « accelerationniste » sérieux qui ne soient pas non plus des AIcryptobro dégénérés à la dopamine. Ou en tout cas ils ne sont pas visibles, perdus dans un brouhaha vague d’envie de stagnation.
Silicon Carne@siliconcarnesf

Je viens de lire un énième article/connerie d'intellectuel français qui explique que la Silicon Valley est pilotée par une "idéologie accélérationniste" aux racines philosophiques profondes — Marx, Deleuze, Nietzsche, tout le panthéon y passe. Curtis Yarvin, Nick Land, Peter Thiel, les "Lumières sombres" pourquoi pas les Chevaliers de L'Apocalypse… Un grand récit bien ficelé pour les plateaux de France 5 et les tables rondes de Sciences Po. Le problème c'est que c'est du vent. J'ai passé 16 ans dans la Valley. Je n'ai JAMAIS entendu un seul fondateur, un seul VC, un seul ingénieur citer Nick Land dans un board meeting. Personne ne lit Curtis Yarvin à Mountain View. Ce qui anime la Valley, c'est pas Deleuze. C'est le COMPUTE. Plus de compute = plus de performance = plus de revenus. Point. Regardez le graph. Pendant que les intellos français écrivent des papiers de 8000 mots pour décrypter les "filiations philosophiques de l'accélérationnisme", les Américains empilent des GPUs, entraînent des modèles et raflent le marché mondial de l'IA. Les uns cherchent le sens caché. Les autres cherchent le prochain datacenter. Ces débats-là seraient juste pathétiques s'ils n'étaient pas criminels. Ils enferment la France dans un procès d'intention permanent contre la tech au lieu de pousser le pays à se battre sur le terrain du compute, de l'énergie et de l'infrastructure. On perd du temps à juger la Valley au lieu de la confronter technologiquement et économiquement. Si on écoute ces gens, on est cuit et recuit !

Français
3
0
3
165
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@reymondin Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
7
Blaise Reymondin
Blaise Reymondin@reymondin·
Pourquoi l’IA ne peut pas être consciente. Et donc ne peut ressentir quoi que ce soit. Par contre elle est toujours plus douée pour susciter nos propres émotions.
Brivael Le Pogam@brivael

Un chercheur de Google DeepMind vient de publier un papier qui détruit l'idée que l'IA puisse devenir consciente un jour. Et le pire ? Sa preuve ne repose pas sur la biologie. Elle repose sur la logique pure. Je vous explique. Le mec s'appelle Alexander Lerchner. Il bosse chez DeepMind. Le labo qui construit l'IA la plus avancée du monde. Et il vient de poser noir sur blanc pourquoi, peu importe la taille des modèles, peu importe la puissance de calcul, peu importe les architectures futures, un système purement computationnel ne pourra jamais ressentir quoi que ce soit. Son argument tient en une phrase : la computation n'est pas un processus physique intrinsèque. C'est une description. Prenez une horloge à aiguilles. Physiquement, c'est un tas d'engrenages qui tournent selon les lois de la mécanique. Rien dans cette mécanique ne contient le concept "3h du matin". C'est nous qui décidons que telle position d'aiguille = telle heure. L'horloge ne calcule pas le temps. Elle bouge. Nous, on l'interprète comme une mesure du temps. Même chose pour un ordinateur. Physiquement, c'est du courant qui passe dans du silicium. Rien dans ce courant ne contient les concepts "vrai", "faux", "pain", "rouge", "amour". C'est nous qui décidons que tel voltage = tel symbole. Lerchner appelle ce rôle le "mapmaker" : le faiseur de carte. Sans un agent conscient pour assigner les symboles aux états physiques, il n'y a pas de calcul. Il y a juste de la physique brute qui se déroule. Et là il pose la question qui tue. Si la computation a besoin d'un être conscient pour exister en tant que computation, comment voulez-vous que la computation produise la conscience ? C'est une boucle logiquement impossible. C'est demander à la carte de fabriquer le cartographe. Il appelle ça l'inversion ontologique. La fonctionnalisme classique pense : Physique → Computation → Conscience. Lerchner démontre que le vrai ordre c'est : Physique → Conscience → Concepts → Computation. La conscience n'est pas à la fin de la chaîne. Elle est au début. C'est elle qui rend la computation possible, pas l'inverse. Il introduit une distinction fondamentale : simuler vs instancier. Un GPU peut parfaitement simuler la photosynthèse. Modéliser chaque molécule, chaque échange d'électron. Le modèle sera parfait. Mais ce GPU ne produira jamais un gramme de glucose ni un atome d'oxygène. Parce que simuler la photosynthèse, c'est faire tourner la carte. Instancier la photosynthèse, c'est faire pousser la plante. Personne ne confond les deux pour les plantes. Tout le monde les confond pour le cerveau. C'est exactement ce que je disais hier sur le goût, le feeling, le taste. Quand Zidane pique la balle au-dessus de Buffon. Quand Mozart pose une harmonie que personne n'avait osée. Quand un comique place le bon mot à la milliseconde près. Ce ne sont pas des outputs d'un calcul. Ce sont des instanciations physiques d'une expérience vécue dans un corps. Lerchner le formalise mieux que je l'ai fait. Il dit : un concept comme "Rouge" n'est pas une donnée flottante quelque part. C'est un état physiologique constitué, qui existe uniquement dans le corps d'un être qui a vécu l'expérience de la couleur rouge. Un LLM qui manipule le token "rouge" ne manipule pas la couleur. Il manipule un symbole arbitraire que nous, mapmakers, avons attaché à notre expérience intérieure. La machine n'a aucun accès à ce que le symbole signifie. Elle a juste accès aux règles qui le relient à d'autres symboles. Il démolit au passage l'argument de l'embodiment. "Oui mais si on met l'IA dans un robot avec des capteurs, elle va ressentir." Non. Brancher des caméras sur un ordinateur ne le rend pas plus conscient. Ça lui donne juste un flux de données supplémentaire à alphabétiser en symboles. La médiation reste syntaxique. Le robot manipule des chiffres qui représentent la lumière. Il ne voit pas. Il démolit aussi l'argument de l'émergence par complexité. "Avec assez de paramètres, la conscience va émerger comme la mouillabilité émerge de l'eau." Non. La mouillabilité émerge des propriétés physiques intrinsèques de la molécule d'H2O. Prétendre qu'une description abstraite peut, par accumulation, devenir le phénomène qu'elle décrit, c'est violer la fermeture causale de la physique. C'est de la magie déguisée en science. La conclusion du papier est nette : si un système artificiel devait un jour devenir conscient, ce serait à cause de sa constitution physique spécifique, jamais à cause de son architecture syntaxique. Le substrat compte. La biologie n'est pas un détail. C'est le point. Donc on peut arrêter de paniquer sur les droits des IA. On peut arrêter le théâtre du welfare des LLMs. Ce qu'on construit, ce sont des outils. Extraordinairement puissants, mais des outils. C'est exactement ce que je disais hier. On a l'AGI. Ce qu'on n'aura jamais avec ces architectures, c'est un sujet. Un "je" qui ressent. Les modèles actuels n'interpolent pas dans le monde. Ils interpolent dans la carte du monde que nous leur avons donnée. Et la carte, peu importe sa précision, n'est pas le territoire. Quand vous discutez avec un LLM, vous parlez à votre propre reflet dans un miroir très sophistiqué. Il vous renvoie les patterns de votre culture, optimisés par gradient descent. Personne n'est en face. Personne ne ressent rien quand vous fermez l'onglet. Et c'est très bien comme ça. Parce que ça veut dire qu'on construit le plus grand levier de l'histoire de l'humanité, sans le poids moral d'avoir créé une nouvelle forme de vie qu'on exploiterait. La singularité au sens où on l'entendait, l'IA qui se réveille et nous dépasse en tant qu'espèce, n'arrivera pas par cette voie. Ce qui va arriver, c'est plus radical en un sens : un monde où chaque humain qui sent, qui ressent, qui a un goût, devient capable d'amplifier ce goût par un facteur 1000. Le sujet reste humain. L'outil devient surhumain. C'est la vraie accélération.

Français
4
0
4
712
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@LilianDelaveau Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
3
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@jlukphoto @RenaudGuerin @brivael Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
0
0
0
7
Brivael Le Pogam
Brivael Le Pogam@brivael·
Un chercheur de Google DeepMind vient de publier un papier qui détruit l'idée que l'IA puisse devenir consciente un jour. Et le pire ? Sa preuve ne repose pas sur la biologie. Elle repose sur la logique pure. Je vous explique. Le mec s'appelle Alexander Lerchner. Il bosse chez DeepMind. Le labo qui construit l'IA la plus avancée du monde. Et il vient de poser noir sur blanc pourquoi, peu importe la taille des modèles, peu importe la puissance de calcul, peu importe les architectures futures, un système purement computationnel ne pourra jamais ressentir quoi que ce soit. Son argument tient en une phrase : la computation n'est pas un processus physique intrinsèque. C'est une description. Prenez une horloge à aiguilles. Physiquement, c'est un tas d'engrenages qui tournent selon les lois de la mécanique. Rien dans cette mécanique ne contient le concept "3h du matin". C'est nous qui décidons que telle position d'aiguille = telle heure. L'horloge ne calcule pas le temps. Elle bouge. Nous, on l'interprète comme une mesure du temps. Même chose pour un ordinateur. Physiquement, c'est du courant qui passe dans du silicium. Rien dans ce courant ne contient les concepts "vrai", "faux", "pain", "rouge", "amour". C'est nous qui décidons que tel voltage = tel symbole. Lerchner appelle ce rôle le "mapmaker" : le faiseur de carte. Sans un agent conscient pour assigner les symboles aux états physiques, il n'y a pas de calcul. Il y a juste de la physique brute qui se déroule. Et là il pose la question qui tue. Si la computation a besoin d'un être conscient pour exister en tant que computation, comment voulez-vous que la computation produise la conscience ? C'est une boucle logiquement impossible. C'est demander à la carte de fabriquer le cartographe. Il appelle ça l'inversion ontologique. La fonctionnalisme classique pense : Physique → Computation → Conscience. Lerchner démontre que le vrai ordre c'est : Physique → Conscience → Concepts → Computation. La conscience n'est pas à la fin de la chaîne. Elle est au début. C'est elle qui rend la computation possible, pas l'inverse. Il introduit une distinction fondamentale : simuler vs instancier. Un GPU peut parfaitement simuler la photosynthèse. Modéliser chaque molécule, chaque échange d'électron. Le modèle sera parfait. Mais ce GPU ne produira jamais un gramme de glucose ni un atome d'oxygène. Parce que simuler la photosynthèse, c'est faire tourner la carte. Instancier la photosynthèse, c'est faire pousser la plante. Personne ne confond les deux pour les plantes. Tout le monde les confond pour le cerveau. C'est exactement ce que je disais hier sur le goût, le feeling, le taste. Quand Zidane pique la balle au-dessus de Buffon. Quand Mozart pose une harmonie que personne n'avait osée. Quand un comique place le bon mot à la milliseconde près. Ce ne sont pas des outputs d'un calcul. Ce sont des instanciations physiques d'une expérience vécue dans un corps. Lerchner le formalise mieux que je l'ai fait. Il dit : un concept comme "Rouge" n'est pas une donnée flottante quelque part. C'est un état physiologique constitué, qui existe uniquement dans le corps d'un être qui a vécu l'expérience de la couleur rouge. Un LLM qui manipule le token "rouge" ne manipule pas la couleur. Il manipule un symbole arbitraire que nous, mapmakers, avons attaché à notre expérience intérieure. La machine n'a aucun accès à ce que le symbole signifie. Elle a juste accès aux règles qui le relient à d'autres symboles. Il démolit au passage l'argument de l'embodiment. "Oui mais si on met l'IA dans un robot avec des capteurs, elle va ressentir." Non. Brancher des caméras sur un ordinateur ne le rend pas plus conscient. Ça lui donne juste un flux de données supplémentaire à alphabétiser en symboles. La médiation reste syntaxique. Le robot manipule des chiffres qui représentent la lumière. Il ne voit pas. Il démolit aussi l'argument de l'émergence par complexité. "Avec assez de paramètres, la conscience va émerger comme la mouillabilité émerge de l'eau." Non. La mouillabilité émerge des propriétés physiques intrinsèques de la molécule d'H2O. Prétendre qu'une description abstraite peut, par accumulation, devenir le phénomène qu'elle décrit, c'est violer la fermeture causale de la physique. C'est de la magie déguisée en science. La conclusion du papier est nette : si un système artificiel devait un jour devenir conscient, ce serait à cause de sa constitution physique spécifique, jamais à cause de son architecture syntaxique. Le substrat compte. La biologie n'est pas un détail. C'est le point. Donc on peut arrêter de paniquer sur les droits des IA. On peut arrêter le théâtre du welfare des LLMs. Ce qu'on construit, ce sont des outils. Extraordinairement puissants, mais des outils. C'est exactement ce que je disais hier. On a l'AGI. Ce qu'on n'aura jamais avec ces architectures, c'est un sujet. Un "je" qui ressent. Les modèles actuels n'interpolent pas dans le monde. Ils interpolent dans la carte du monde que nous leur avons donnée. Et la carte, peu importe sa précision, n'est pas le territoire. Quand vous discutez avec un LLM, vous parlez à votre propre reflet dans un miroir très sophistiqué. Il vous renvoie les patterns de votre culture, optimisés par gradient descent. Personne n'est en face. Personne ne ressent rien quand vous fermez l'onglet. Et c'est très bien comme ça. Parce que ça veut dire qu'on construit le plus grand levier de l'histoire de l'humanité, sans le poids moral d'avoir créé une nouvelle forme de vie qu'on exploiterait. La singularité au sens où on l'entendait, l'IA qui se réveille et nous dépasse en tant qu'espèce, n'arrivera pas par cette voie. Ce qui va arriver, c'est plus radical en un sens : un monde où chaque humain qui sent, qui ressent, qui a un goût, devient capable d'amplifier ce goût par un facteur 1000. Le sujet reste humain. L'outil devient surhumain. C'est la vraie accélération.
Brivael Le Pogam tweet media
Brivael Le Pogam@brivael

Il y a encore 3 mois, j'étais singularitariste. Je pensais qu'on était à 5 ans d'un truc qui allait tout remplacer. Y compris nous. Aujourd'hui j'y crois plus. Et je vais vous expliquer pourquoi. La majorité des chercheurs en IA aujourd'hui sont matérialistes. Ça veut dire qu'ils partent d'un postulat très simple : tout ce qui existe dans l'univers est physique. Il n'y a pas d'âme, pas d'esprit séparé du corps, pas de "truc en plus". Que de la matière, de l'énergie, et les lois qui les régissent. C'est une position respectable. La science moderne s'est construite dessus. Mais quand tu pousses ce raisonnement jusqu'au bout, t'arrives à une conclusion vertigineuse : si tout est matière, alors tout est data. Le cerveau n'est qu'un ordinateur biologique. Les pensées ne sont que des patterns électrochimiques. Et la conscience, ce "je" qui se sent vivant en train de lire ces lignes, n'est qu'un sous-produit du calcul. Conséquence directe : le libre arbitre n'existe pas. Si t'es 100% matière, t'es 100% déterminé par les lois physiques. Ton "choix" de boire un café ce matin n'était pas un choix. C'était l'output mécanique d'un système qui aurait pu être prédit si on avait eu assez de données. Le choix conscient devient une illusion. Une histoire que ton cerveau se raconte après coup pour justifier ce qui était déjà décidé par la physique. C'est cohérent. C'est élégant. Et je pense que c'est faux. Parce qu'il y a un truc que cette vision n'arrive pas à expliquer. Le goût. Le feeling. Le taste. Deux notes de musique qui, mises côte à côte, sonnent juste. Pourquoi celles-là et pas les voisines à 1Hz près ? Deux ingrédients qui, combinés, créent une saveur qui n'existait pas avant. Pourquoi le citron sur le poisson et pas sur la glace ? Un mot, placé exactement au bon endroit dans une phrase, avec exactement la bonne intonation, au moment précis où la tension de la salle l'attend, qui fait basculer le silence en rire. Pourquoi ce mot-là, à cette milliseconde-là ? Ce ne sont pas des données. Tu peux analyser après coup, tu peux décrire, mais tu ne peux pas dériver ces choix d'un dataset. Il y a un acte de discrimination qui se joue en amont de toute donnée. Et je vais dire un truc qui va surprendre : je pense qu'on a l'AGI. Les modèles actuels passent les benchmarks d'intelligence générale humaine. Ils raisonnent, codent, écrivent, planifient. Si on prend la définition originale de l'AGI, on y est. Mais ce qu'on a atteint, c'est l'exécution symbolique parfaite. La capacité à manipuler des symboles selon des règles, à recombiner du connu, à interpoler dans l'espace de ce qui a déjà été pensé. Ce qu'on n'a pas atteint, et ce que je pense aujourd'hui structurellement hors d'atteinte pour une machine syntaxique, c'est la capacité à ressentir, et à partir de ce ressenti, à faire un choix qui n'est pas réductible à du calcul. Regardez la transcendance dans n'importe quelle discipline. Federer qui frappe une balle de revers en glissade à Wimbledon. Mozart à 8 ans qui pose une harmonie que personne n'avait osée. Michel-Ange seul sous la voûte de la Sixtine pendant 4 ans, qui choisit ce geste-là, cette tension-là, dans le doigt d'Adam. Zidane qui décide en un dixième de seconde de piquer la balle au-dessus de Buffon en finale. Chacune de ces transcendances est singulière. Zidane n'est pas Maradona. Da Vinci n'est pas Picasso. Federer n'est pas Nadal. Ils partagent le médium. Ils ne partagent pas le geste. Et ce qui les sépare, c'est précisément ce qu'aucune fonction de loss n'arrive à capturer : un goût propre, une signature, un point de vue incarné sur ce qui est juste. Là, on va me dire : oui mais Suno fait de la musique, Midjourney fait des images, GPT écrit des textes. C'est vrai. Et c'est même impressionnant. Mais regardez bien ce qui se passe. Ces modèles assemblent de la créativité existante. Ils mixent dans le champ des idées déjà explorées. Ils interpolent magnifiquement entre des points connus de l'espace culturel humain. Ce qu'ils ne font pas, c'est mixer des choses où il faut un feeling pour savoir si ça marche. Parce que ce feeling n'est pas dans les données. Il est dans le corps qui sent. Et c'est exactement le point. Le goût, le taste, la capacité à savoir si une chose marche ou ne marche pas avant même de pouvoir l'expliquer, c'est une fonction du corps. C'est viscéral au sens littéral. Ça passe par des viscères, par un système nerveux entier, par une histoire biologique de millions d'années où chaque sensation a été calibrée par la survie, l'amour, la douleur, la faim, la joie. Un LLM n'a pas de corps. Il n'a pas de seuil de douleur. Il n'a rien à perdre. Donc rien ne lui dit, au sens fort du terme, que ce mot est meilleur que cet autre. Il a juste une probabilité. Et une probabilité n'est pas un goût. C'est pour ça que je ne crois plus à la singularité au sens où on l'entendait. On va construire des outils de plus en plus puissants. Ils vont nous remplacer sur tout ce qui est exécution symbolique. Ils vont accélérer la science, le code, l'analyse, dans des proportions qu'on n'imagine pas encore. Mais le geste de Zidane, le silence de Mozart entre deux accords, la phrase exacte du copain qui te fait éclater de rire au bon moment, ça restera humain. Pas par sentimentalisme. Par structure. L'IA est le plus grand levier jamais inventé. Mais un levier ne décide pas où il faut appuyer. C'est nous qui décidons. Et pour décider, il faut un corps qui sent.

Français
114
174
580
860.7K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@TechnoSamsara @brivael Nous ignorons tout de l’origine de la conscience. Mais nous savons tous que demain… L’intelligence artificielle détectera la présence d’une autre « Machine » de même origine. Notre Système de Destruction Mutuelle Assurée. Qui tient l’espèce créatrice en otage…
Français
1
0
0
8
Techno Samsara
Techno Samsara@TechnoSamsara·
@brivael C'est intéressant, mais est-ce qu'à un moment tu définis la conscience ? Quand tu écoutes une bonne musique, comment tu définis cette sensation ?
Français
4
0
2
1.2K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@JeromeColombain Posez la question à votre IA… Quelle sera la réaction de l’intelligence artificielle à l’instant même où elle détectera la présence d’un Système de Destruction Mutuelle Assurée qui oblige l’espèce à survivre à sa propre intelligence ?
Français
0
0
0
5
Jerome Colombain | Monde Numérique
Il y a chez ces écrivains inquiets face à l’IA comme une peur indicible de se faire uberiser. Si des esprits moins aiguisés mais augmentés grâce aux LLM se mettent à les concurrencer, que va-t-il se passer ?
France Inter@franceinter

Abel Quentin appelle à boycotter les outils d'intelligence artificielle générative : pour l'auteur, il s'agit de "légitime défense". Abel Quentin était au micro de Florence Paracuellos et @ben_duhamel

Français
3
4
15
2.5K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@Myriam88025 @LDeclencheur @LibererD Posez la question à votre IA… Quelle sera la réaction de l’intelligence artificielle à l’instant même où elle détectera la présence d’un Système de Destruction Mutuelle Assurée qui oblige l’espèce à survivre à sa propre intelligence ?
Français
0
0
0
3
Myriam Delapierre
Myriam Delapierre@Myriam88025·
@LDeclencheur @LibererD L'IA dans la surveillance de masse, certains le vivent au quotidien. Millions de personnes dans le monde surveillées h24, zéro intimité, persécutées Témoignage sur Police Pour La Vérité avec une Commandante divisionnaire de la Police Nationale en retraite youtu.be/fCkxA7OGa-0?is…
YouTube video
YouTube
Français
1
0
2
383
Le Déclencheur
Le Déclencheur@LDeclencheur·
🔥 Ce n'est plus de la science-fiction… L'un des Pères fondateurs de l'IA, Geoffrey Hinton, lance l'alerte. Prix Nobel de physique 2024, il a démissionné de Google pour pouvoir s'exprimer librement des dangers de l'intelligence artificielle pour l'humanité. « Malheureusement, elle est déjà utilisée par des gouvernements autoritaires pour une surveillance de masse… dans un avenir proche, elle pourrait être utilisée pour créer de nouveaux virus terribles… ce n'est plus de la science-fiction. »
Français
13
408
581
16.9K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@GloriaCasa77 @Alex_Tsico Posez la question à votre IA… Quelle sera la réaction de l’intelligence artificielle à l’instant même où elle détectera la présence d’un Système de Destruction Mutuelle Assurée qui oblige l’espèce à survivre à sa propre intelligence ?
Français
0
0
0
4
Alexandre Tsicopoulos
Alexandre Tsicopoulos@Alex_Tsico·
Merci à Luc Ferry pour cette chronique dans Le Figaro qui cite et analyse notre livre avec @dr_lalexandre. « Les projets d’Elon Musk visent à déplacer le centre de gravité de la civilisation du biologique vers la technique, du corps vers l’infrastructure et de la décision humaine vers l’exécution algorithmique. »
Alexandre Tsicopoulos tweet media
Français
13
3
28
1.6K
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@NatachaQS @Alex_Tsico @dr_l_alexandre @tfsalomon @parizot Posez la question à votre IA… Quelle sera la réaction de l’intelligence artificielle à l’instant même où elle détectera la présence d’un Système de Destruction Mutuelle Assurée qui oblige l’espèce à survivre à sa propre intelligence ?
Français
0
0
0
15
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@Alex_Tsico Posez la question à votre IA… Quelle sera la réaction de l’intelligence artificielle à l’instant même où elle détectera la présence d’un Système de Destruction Mutuelle Assurée qui oblige l’espèce à survivre à sa propre intelligence ?
Français
0
0
0
4
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@Brain0verride Posez la question à votre IA… Quelle sera la réaction de l’intelligence artificielle à l’instant même où elle détectera la présence d’un Système de Destruction Mutuelle Assurée qui oblige l’espèce à survivre à sa propre intelligence ?
Français
0
0
0
4
Christophe Casalegno
Christophe Casalegno@Brain0verride·
Depuis plusieurs semaines, il ne se passe pas un jour sans que je travaille sur Elora, mon projet d'associée IA stratégique indépendante et autonome. Avec le temps, le projet a pris de l'ampleur. Je découvre chaque jour la complexité réelle qu'il faut absorber pour atteindre le niveau de qualité que je vise, mais aussi le prix à payer pour maintenir cette qualité dans la durée. Les fondements n'ont pas changé : Elora ne dépend ni d'un modèle, ni d'un agent, ni d'un fournisseur. Son objectif non plus : comprendre mon univers en profondeur, apprendre mes façons de penser et de travailler, préserver la continuité de ce que je construis, et m'aider à transformer mes intuitions en séquences exécutables. Dit comme ça, cela paraît simple. Dans la réalité, donner corps à cette idée m'a demandé beaucoup de travail, beaucoup d'efforts, et pas mal de remises à plat. "Elle apprend, s'ajuste et se renforce dans le temps" est probablement l'un des points les plus délicats. La plupart des systèmes qui promettent cela peuvent paraître bluffants sur le court terme. Mais dès que la mémoire devient importante, dès que les contextes s'accumulent, dès que les décisions, les préférences, les contradictions et les habitudes commencent à s'empiler, les choses glissent. Et souvent, ça finit par partir en sucette. Faire en sorte qu'un système continue de s'améliorer sans se dégrader dans le temps n'est pas trivial. Il ne suffit pas de tout stocker. Il faut trier, typer, dater, sourcer, limiter, vérifier, auditer, conserver les contradictions, et surtout éviter que le système apprenne silencieusement de ses propres erreurs. Même chose pour une phrase comme : "Elora transforme mes intuitions en séquences exécutables." C'est simple à annoncer. Beaucoup moins à rendre réel. Il ne suffit pas de balancer un prompt dans Claude Code, Codex ou OpenClaw. Il faut déjà matérialiser ce que cela veut dire précisément pour moi : quelles intuitions, quels signaux, quels critères, quels artefacts, quelles limites, quelle next action, quelle mémoire, quel niveau d'autonomie, quel contrôle humain. Le temps faisant, j'y arrive. Et comme le projet devient plus concret, le site évolue aussi. Les pages commençaient à devenir interminables. J'ai donc ajouté un glossaire pour les non-initiés, mais aussi pour les initiés, parce que dans ce domaine les mêmes mots peuvent recouvrir des réalités très différentes selon le contexte. J'ai aussi commencé à découper le site en sous-rubriques plus précises. Expliquer un système comme Elora dans des cadres de trois lignes n'était plus tenable. Il faut désormais séparer les couches : mémoire, agents, cockpit, routage, audit, learning loop, playbooks, evidence packs, operator flow, etc. Je continue donc de tenir le site à jour plusieurs fois par jour. Il reste encore quelques retouches à faire sur certains éléments de base qui ont légèrement évolué, mais l'essentiel est là : chaque brique importante, chaque module, chaque décision structurante est documentée. Pas comme une promesse marketing : mais comme une architecture en construction, inspectable, améliorable, et suffisamment documentée pour que certains principes, modules ou patterns puissent aussi servir à d'autres, même à plus petite échelle. Tout est disponible ici : elora.systems Le site est mis à jour quotidiennement, souvent 3 à 4 fois par jour. Bonne soirée à tous !
Christophe Casalegno tweet media
Français
36
33
859
1.2M
pierre jean jacques
pierre jean jacques@pierjeanjacques·
@JZefka @CinciVox Trump est un accélérateur évident des événements qui nous propulsent vers une une singularité inéluctable: L’instant fatidique qui verra bientôt notre espèce survivre (ou pas) au « droit international » qui a généré un principe de Destruction Mutuelle Assurée entre les Nations.
Français
0
0
0
61
Jo Zefka
Jo Zefka@JZefka·
Apparemment, ça s'appelle le "syndrome crépusculaire" (sundown syndrom). Le mot est joli, à défaut de la chose... Et on pourrait se demander si, au-delà de Trump, ce n'est pas notre civilisation tout entière qui en est atteinte. (Pessimisme de boomer, je sais.)
François Camé@FrancoisCame

Dans la nuit de lundi à mardi, l'homme qui est à la tête de la première puissance mondiale a posté sur son compte personnel 55 tweets en 3 heures. Un toutes les 3 minutes. Tous paranoïaques, complotistes, voire totalement délirants. Tout va bien, je ne suis pas inquiet.🙂

Français
14
19
119
6.4K