Nicolas

2.1K posts

Nicolas banner
Nicolas

Nicolas

@Nicolas_Stanley

Pale Blue Dot Katılım Temmuz 2010
1.2K Takip Edilen311 Takipçiler
Louis
Louis@daumerval·
Brut-V is a low-level graphics runtime written in pure RISC-V assembly, designed for sketching and learning at the instruction-set level. It was built entirely with Hermes as part of @NousResearch Creative Hackathon. The agent also helped automate the creation of surprisingly convincing visuals around it. A few notes from the build (+ live demo) below
Louis tweet mediaLouis tweet media
English
16
8
140
13.4K
beeple
beeple@beeple·
TOTAL SLOP
beeple tweet media
Nederlands
234
280
2.5K
123.2K
Nicolas
Nicolas@Nicolas_Stanley·
You can ignore physics while driving a car. You cannot ignore physics while designing brakes. Likewise, you can ignore many abstraction layers while prototyping with AI. You cannot ignore them once reliability, security, scale, or safety matter.
English
0
0
0
19
Nicolas
Nicolas@Nicolas_Stanley·
@brivael "Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them." – Frank Herbert’s Dune
English
0
0
1
191
Brivael Le Pogam
Brivael Le Pogam@brivael·
L'enfer est pavé de bonnes intentions. Toujours. Sam Altman et Dario Amodei viennent chacun de publier leur vision du futur. J'ai pris le temps de tout lire. Document d'OpenAI "Industrial Policy for the Intelligence Age" (13 pages, avril 2026) et essai d'Amodei "The Adolescence of Technology" (20 000 mots, janvier 2026). Ce qu'ils proposent vraiment : Altman/OpenAI : Un "Public Wealth Fund" qui taxe les entreprises tech pour redistribuer un "AI dividend" à tous les citoyens Des "robot taxes" sur le travail automatisé pour financer les "transitions" Un "Right to AI" qui traite l'accès à l'IA comme l'électricité, avec subventions et infrastructure publique Référence explicite au New Deal de Roosevelt et à la Progressive Era Dans des écrits antérieurs, Altman a proposé une taxe de 2,5% par an sur la capitalisation boursière des grandes entreprises ET 2,5% sur la valeur des terres privées américaines Amodei : Prévoit la destruction de 50% des emplois cols blancs entry-level en 1 à 5 ans Appelle explicitement à de la fiscalité progressive pour gérer la concentration de richesse Rejette comme "fundamentally untenable" l'idée de ralentir le développement de l'IA Imagine un "pays de génies dans un datacenter" qui résoudra tout Disons les choses clairement. Ce qu'on a là, c'est une proposition de néo-collectivisme à l'échelle mondiale, conçue par deux hommes qui contrôlent les modèles d'IA les plus puissants jamais construits, vendue avec un vocabulaire emprunté aux années 30. Je le dis avec respect pour ce qu'ils ont construit techniquement. Mais sur le plan politique et économique, ce qu'ils proposent est extrêmement dangereux. L'enfer est pavé de bonnes intentions. Lénine voulait l'émancipation du prolétariat. Mao voulait sortir la Chine du féodalisme. Pol Pot était un intellectuel formé à la Sorbonne qui voulait "purifier" la société. Aucun ne s'est réveillé un matin en disant "je vais tuer 50 millions de personnes". Tous voulaient un monde meilleur. Maintenant, anticipons l'objection facile. "Mais Brivael, dans le cas du communisme classique, le système s'effondre par pénurie. L'URSS, la Chine, le Cambodge, c'est l'incapacité à produire qui crée la famine, donc la terreur. Avec l'IA c'est l'inverse, on va vers l'abondance, donc le pattern ne s'applique pas." Cette objection est faible. Et c'est précisément ce qui rend ce que proposent Altman et Amodei plus dangereux, pas moins. Oui, l'IA va probablement créer une abondance matérielle inédite. Énergie quasi gratuite, intelligence quasi gratuite, biens manufacturés à coûts marginaux qui s'effondrent. Sur ce point je suis d'accord avec eux. Le problème n'est pas là. Le problème, c'est qu'un système collectiviste dans un contexte d'abondance ne crée pas la même catastrophe que dans un contexte de pénurie, mais il crée une catastrophe d'un ordre différent, peut-être pire. Dans un système d'abondance redistribuée par une autorité centrale, ce qui devient rare ce n'est pas le pain. C'est la liberté. C'est l'agentivité. C'est la possibilité de sortir du système. Quand l'État ou un consortium de méga-entreprises distribue à tout le monde un "AI dividend", un revenu universel en compute, un accès subventionné à l'intelligence, qui décide des conditions ? Qui décide de qui a droit à combien ? Qui décide quelle IA tu as le droit d'utiliser, à quelles fins, avec quelles restrictions ? Qui décide ce que tu peux demander à ton modèle et ce que tu n'as pas le droit de demander ? Spoiler : ce sont les mêmes personnes qui ont conçu le système. C'est-à-dire un petit groupe d'hommes à San Francisco qui n'ont été élus par personne. Et c'est là que les asymétries explosent. Asymétrie d'accès : les concepteurs du système ont la version débridée. Toi, tu as la version filtrée, alignée, conformée. Tu peux t'en servir pour tes loisirs et tes tâches autorisées. Pas pour comprendre ce que les pouvoirs en place préfèrent que tu ne comprennes pas. Asymétrie d'information : ils savent ce que tu fais avec ton allocation. Tu ne sais pas ce qu'ils font avec la leur. Tous tes prompts passent par leurs serveurs. Asymétrie de pouvoir : tu dépends d'eux pour ton revenu de base, ton accès à l'intelligence, et donc à la productivité, et donc à la possibilité d'exister économiquement. Si tu critiques le système, on coupe. Pas par méchanceté. Par "violation des conditions d'utilisation". Asymétrie de sortie : il n'y a pas d'opt-out. Si l'IA est traitée comme l'électricité (proposition explicite d'OpenAI), alors ne pas en avoir, c'est ne pas exister dans la société moderne. Le coût de sortie tend vers l'infini. C'est exactement la définition d'un techno-féodalisme. Sauf qu'il s'appelle "Public Wealth Fund" et qu'il est vendu avec le vocabulaire de la justice sociale. Le besoin de contrôle d'hommes qui se croient assez intelligents pour gérer la coordination de 8 milliards d'humains est, par construction, l'opposé de la liberté individuelle. Il n'y a pas de "version douce" de ce projet. Quand tu décides ce que les autres doivent recevoir, tu décides aussi ce qu'ils ont le droit de faire avec, ce qu'ils ont le droit de penser, ce qu'ils ont le droit de demander. Ce n'est pas un effet secondaire. C'est la mécanique même. Et c'est là que le pattern historique resurgit, dans une forme nouvelle. Étape 1 : un groupe d'hommes très intelligents identifie un problème réel (concentration des richesses générée par l'IA). Ils sont sincères. Étape 2 : ils conçoivent un système de redistribution centralisé et universel. Ils ont les bons diplômes. Ils ont raison sur la technique. Étape 3 : ils mettent le système en place. L'abondance matérielle arrive. Mais avec elle arrivent les asymétries que j'ai décrites. Frustrations massives. Sentiment d'humiliation à devoir recevoir un "dividende" plutôt que de produire. Perte de sens. Dépendance totale à une infrastructure qu'on ne contrôle pas. Émergence de classes nouvelles : ceux qui codent les règles, ceux qui les subissent. Étape 4 : ces frustrations se cristallisent en colère. Les concepteurs refusent d'admettre que le problème est structurel. Pour eux, c'est juste un problème d'ajustement, de communication, de "désinformation". Ceux qui contestent sont des "complotistes", des "anti-progrès", des dangers pour le système. Étape 5 : on durcit. On ajoute du contrôle. Pas avec des goulags, mais avec du shadow banning, des coupures d'API, du déclassement social, du blocage d'accès à l'IA pour les "mauvais usages". La coercition prend la forme d'algorithmes plutôt que de tchéka, mais elle est plus efficace, plus diffuse, plus inéchappable. Étape 6 : on n'a plus 100 millions de morts par famine. On a 8 milliards de personnes vivant matériellement bien dans une cage cognitive et économique dont la clé est détenue par 50 personnes. Ce n'est pas le goulag. C'est pire à certains égards, parce que personne ne se rend compte qu'il est enfermé. Le techno-fascisme ne viendra pas d'un dictateur en uniforme. Il viendra d'un consortium d'entreprises bien intentionnées qui distribuent gratuitement à tout le monde un accès à l'intelligence, à condition qu'on accepte les "termes d'utilisation" qui définissent ce qu'on a le droit de penser et de faire. Ce que je veux dire à Sam et Dario : Vous n'êtes pas plus intelligents que Marx. Marx était brillant. Vous n'êtes pas plus sincères que Lénine au début. Lénine était sincère. Vous n'êtes pas plus rigoureux que les architectes du Gosplan, qui étaient les meilleurs mathématiciens de leur époque. Et vous échouerez pour la même raison fondamentale qu'eux. Parce qu'aucun groupe humain, aussi intelligent soit-il, n'a le droit ni la capacité de définir les conditions de la liberté de 8 milliards de personnes. La liberté individuelle ne se redistribue pas. Elle se respecte ou elle se nie. Il n'y a pas de troisième voie. La seule réponse civilisationnelle saine à l'IA, c'est l'opposé de ce qu'ils proposent. Décentralisation maximale. Marchés ouverts. Propriété privée renforcée. Concurrence entre les modèles. Pluralité des juridictions. Open source. Modèles locaux que les gens possèdent vraiment. Pluralité des États-nations qui se font concurrence plutôt qu'une gouvernance globale unique. Que chacun puisse acheter, posséder, faire tourner ses modèles, sans demander la permission à personne. L'IA est trop puissante pour être confiée à un système centralisé. Pas par méchanceté des concepteurs. Par physique des systèmes complexes et par éthique des libertés. Hayek, Mises, Popper, Nozick, Taleb. Tout est déjà dans les livres. Le néo-collectivisme techno n'est pas moins dangereux que l'ancien. Il est plus dangereux. Parce qu'il vient avec de meilleurs outils, une légitimité technique inattaquable, et un discours moral irréprochable. Il ne tuera pas par la faim. Il tuera par la cage dorée. L'enfer est pavé de bonnes intentions. Toujours.
VISION IA@vision_ia

Sam Altman et Dario Amodei, les deux hommes les plus puissants de l'IA, viennent chacun de publier leur vision du futur. Et pour la première fois, OpenAI propose un vrai plan pour réorganiser la société. Semaine de 4 jours, taxe sur l'automatisation, fonds de richesse publique. Pendant ce temps, 100 000 emplois supprimés dans la tech depuis janvier. Par les mêmes boîtes qui investissent 700 milliards dans l'IA. L'IA accélère, je décrypte ce qu'il se passe dans ma dernière vidéo. Tout est dedans. Lien de la vidéo : youtu.be/ojUP1aN9Vto

Français
60
140
497
89.4K
Nicolas
Nicolas@Nicolas_Stanley·
@Dan_Jeffries1 You assume new problems need more humans which was true before. But with software and AI, the solutions themselves scale. So why would new problems still mean more jobs, not just fewer people doing more?
English
0
0
2
75
Daniel Jeffries
Daniel Jeffries@Dan_Jeffries1·
AI will create more jobs than any other technology in history. The doomers' fundamental error isn't just the lump of labor fallacy. It's deeper than that. They assume a finite problem space. This is the fundamental error of AI and job doomers. They look at the economy and see a fixed amount of work to be done, a pie that can only be sliced thinner as machines take bigger bites. They see humans a competitive resource for a finite amount of work and a finite amount of problems to solve that must be eliminated. This is fundamentally, totally and completely wrong. The pie isn't fixed. It never was. And the reason it isn't fixed is baked into the very nature of technology itself. Technology is nothing but abstraction stacking. And abstraction stacking is infinite. Therefore the work is infinite. The hammer didn't reduce the amount of work. It moved the work up the stack. And the new work was more complex, more varied, and more interesting than the old work. Complexity breeds more complexity and more variety. Once you have houses instead of mud huts, you have a cascade of new problems that didn't exist before. Plumbing. Wiring. Insulation. Roofing materials that don't rot. Drainage systems so the foundation doesn't flood. Fire codes so your neighbor's bad wiring doesn't burn down the whole block. Each of those problems becomes a job. A plumber. An electrician. An insulator. A roofer. A civil engineer. A building inspector. None of those jobs existed when we lived in mud huts. They exist because we solved the mud hut problem. Think of all of human technological development as a stack of abstraction layers, each one built on top of the ones below it. At the bottom: raw survival. Finding food. Building shelter. Making fire. These are the base-layer problems. Each major technology wave solved a base-layer problem and in doing so created an entirely new layer of problems above it: Agriculture solved "how do we reliably eat?" — and created problems of land ownership, irrigation, crop rotation, storage, trade, taxation, and governance. Writing solved "how do we remember things across generations?" — and created problems of literacy, education, record-keeping, law, bureaucracy, and literature. The printing press solved "how do we spread knowledge at scale?" — and created problems of intellectual property, censorship, journalism, publishing, public opinion, and democratic discourse. The steam engine solved "how do we generate mechanical power without muscles?" — and created problems of factory design, worker safety, urban planning, railroad engineering, coal mining, labor relations, and environmental pollution. Electricity solved "how do we deliver energy anywhere?" — and created problems of grid design, power generation, appliance manufacturing, electrical safety codes, utility regulation, and an entire consumer electronics industry. The Internet solved "how do we connect all human knowledge?" — and created problems of cybersecurity, digital privacy, online commerce, content moderation, network infrastructure, cloud computing, social media dynamics, and an entire digital economy that employs tens of millions. Notice the pattern? Each solution didn't just solve a problem. It created an entirely new problem space that was larger, more complex, and more varied than the one it replaced. The stack grows. It never shrinks. It's turtles all the way down and all the way up.
English
247
340
1.4K
147.1K
Nicolas retweetledi
Brivael Le Pogam
Brivael Le Pogam@brivael·
Hello Julia, sans aucune ironie, c'est top que tu prennes le temps de te renseigner. Mais le problème quand on lit Marx aujourd'hui, c'est qu'on prend pour acquis sa prémisse de départ, alors qu'elle a été démontée scientifiquement il y a plus de 150 ans. Toute la pensée de Marx repose sur la théorie de la valeur-travail. L'idée que la valeur d'un bien vient de la quantité de travail nécessaire pour le produire. Si tu acceptes cette prémisse, alors oui, tout son raisonnement tient. Le capitaliste "vole" la plus-value du travailleur, l'exploitation est mathématique, la révolution est inévitable. Sauf qu'en 1871, trois économistes (Menger en Autriche, Jevons en Angleterre, Walras en Suisse) découvrent indépendamment la même chose : la valeur n'est pas objective, elle est subjective et marginale. Un verre d'eau dans le désert vaut une fortune. Le même verre à côté d'une rivière ne vaut rien. Le travail incorporé est identique. Donc le travail ne détermine pas la valeur. C'est le consommateur qui valorise un bien selon son utilité marginale dans un contexte donné. Exemple concret : tu peux passer 1000 heures à tricoter un pull moche que personne ne veut. Selon Marx, ce pull a énormément de valeur (beaucoup de travail incorporé). Selon la réalité, il ne vaut rien. Parce que personne n'en veut. À l'inverse, Bernard Arnault crée des milliards de valeur non pas parce qu'il "exploite" mais parce qu'il a su anticiper et organiser des désirs humains à grande échelle. La valeur est créée par la coordination, pas extraite par le vol. Cette découverte (la révolution marginaliste) a invalidé tout l'édifice marxiste. Pas pour des raisons idéologiques, pour des raisons scientifiques. C'est pour ça que plus aucun département d'économie sérieux au monde n'enseigne Marx comme un cadre d'analyse valide. On l'enseigne en histoire de la pensée. Maintenant, le truc important. Si ton intention en lisant Marx c'est d'aider les pauvres (c'est une intention noble), alors tu vas être surprise par ce qui suit. Regarde les chiffres de la Banque mondiale. En 1820, 90% de l'humanité vivait dans l'extrême pauvreté. Aujourd'hui, moins de 9%. Cette chute historique ne s'est PAS produite dans les pays qui ont appliqué Marx. Elle s'est produite dans les pays qui ont libéralisé leur économie. Chine post-1978, Vietnam post-1986, Inde post-1991, Pologne post-1989. À chaque fois qu'un pays libéralise, des centaines de millions de gens sortent de la pauvreté en une génération. À chaque fois qu'un pays applique Marx (URSS, Cambodge, Corée du Nord, Venezuela), c'est la famine et les goulags. Ce n'est pas une opinion, c'est l'expérience la plus massive jamais menée en sciences sociales. Plusieurs milliards de cobayes humains, sur un siècle. Donc paradoxalement, si tu aimes vraiment les pauvres, la position la plus cohérente n'est pas d'être marxiste. C'est d'être pour la liberté économique. Parce que c'est empiriquement la seule chose qui a jamais sorti massivement les gens de la misère. Pour creuser, je te recommande trois lectures qui vont changer ta vision : "La Loi" de Frédéric Bastiat (court, lumineux, gratuit en ligne) "La Route de la Servitude" de Hayek "Économie en une leçon" de Henry Hazlitt Bonne lecture, et vraiment chapeau de chercher à comprendre plutôt que de rester dans tes certitudes. C'est rare.
Julia ひ@lifeimitatlife

Depuis tout à l'heure je me renseigne sur les idées de Karl Marx sincèrement je n'arrive pas à comprendre comment on peut être pour le capitalisme et même plus généralement être de droite

Français
1.5K
11.2K
48.8K
3.3M
Nicolas retweetledi
signüll
signüll@signulll·
the craziest part now is that the modern computer probably has to be entirely reinvented, from scratch. pretty much like how jobs & co brought apple ii to market. like not improved. not given a chatbot sidebar or something but really from the ground up like the iphone redefined what it meant to be a pocket computer. the current paradigm for computers was built around a human staring at a screen, moving a cursor, opening apps, managing windows, naming files, remembering where things live, & manually translating intent into interface actions. that made sense when the human was the runtime. but in an ai native world, it starts to look kinda ridiculous. you can see this ridiculousness when you use computer use agents… they are useful sure, but they’re also obviously transitional. they’re teaching ai to operate machines designed for humans, which is clever, but also kind of absurd. it’s like making a robot hand so it can use a doorknob instead of asking why the door needs a knob at all. yes i know humans also need to use a door knob, but maybe in the future humans don’t need to use a computer, or at least what we think of a computer today at all. this all leads to some interesting questions: - what is a file when the system understands context? - what is an app when intent can route itself? - what is a desktop when work can be decomposed, executed, monitored, & summarized by agents? - what is a browser when the agent can retrieve, compare, transact, & remember? - what is an operating system when the primary user is no longer just a person, but a person plus a swarm of delegated intelligences? or no person at all. the old computer assumed navigation. the new computer has to assume a new kind of intention. the old computer organized information. the new computer has to try to organize agency. we’re still in the hacky middle stage at the moment with sidebars, copilots, agents clicking through legacy ui, & automation layers sitting on top of 40 year old metaphors. the new computer is likely one where memory, context, identity, permissions, tools, agents, & interfaces are native primitives. this means desktop, mobile, browser, apps, files, folders deserves another first principles look.
English
371
675
6.6K
577.6K
Nicolas
Nicolas@Nicolas_Stanley·
Ars longa, vita brevis
Español
0
0
0
32
The 🇫🇷 Joint Staff - Military operations
📍Finland | Participation of 🇫🇷 soldiers in the initial training of @JaakariPR 🇫🇮 recruits   ⛷️ Over 100 km ski raid, in severe climatic conditions and beyond the Arctic Circle ❄️ ➡️ Practical application and development of operational skills in the Arctic environment   🎯 Common commitment of 🇫🇷 and 🇫🇮 for European security, and strengthening the bond that unites us 🤝
English
2
45
384
13.2K
Nicolas
Nicolas@Nicolas_Stanley·
@TechSpatiales pas certain qu’ils acceptent que les chinois y aillent avant eux
Français
1
0
0
543
Techniques Spatiales
Techniques Spatiales@TechSpatiales·
L'inspecteur général de la NASA vient de publier un avis implacable sur Artemis: ils vont être très en retard si l'on se base sur les durées typiques de développement du New Space des 20 dernières années. Le scaphandre ne serait pas prêt avant 2031 si on ne change rien.
Techniques Spatiales tweet mediaTechniques Spatiales tweet media
NASA Office of Inspector General@NASAOIG

After nearly two decades, NASA's next-generation spacesuits remain incomplete. Today, the Agency continues to face delays and is reliant on Axiom Space to develop both the Artemis lunar suits and updated ISS suits. Read our new report to learn more: go.nasa.gov/4cGjdRT

Français
6
8
157
16K
Nicolas
Nicolas@Nicolas_Stanley·
kinda hilarious (and maybe predictive) to see Chinese engineers running after their robots
English
0
0
0
13
Nicolas
Nicolas@Nicolas_Stanley·
people low key proud of being on the autism spectrum is so cringe
English
0
0
0
10
Nicolas
Nicolas@Nicolas_Stanley·
@TechSpatiales question un peu bête : sait-on pourquoi ils ont remplacé les moteurs ?
Français
1
0
0
237
Techniques Spatiales
Techniques Spatiales@TechSpatiales·
Après le test de mise à feu du SuperHeavy hier, voici celui de la 3è New Glenn pour son 1er vol commercial. Son premier étage a déjà volé lors du 2è vol, par contre ses 7 moteurs sont tous neufs. Lancement pour l'instant prévu ce dimanche, 19 avril.
Français
3
10
179
9.2K
Nicolas
Nicolas@Nicolas_Stanley·
The sky is not the limit, tokens are
English
0
0
0
13
Brivael Le Pogam
Brivael Le Pogam@brivael·
Retour vers le Futur est le plus grand film de philosophie jamais déguisé en blockbuster pour enfants. Et personne ne parle des leçons de vie qu'il contient. 🧵 En surface c'est un film sur une DeLorean et un ado qui embrasse presque sa mère par accident. En profondeur c'est un traité sur la nature humaine, le libre arbitre et la responsabilité individuelle. Première leçon : l'homme peut devenir bon ou mauvais. C'est un choix, pas une fatalité. George McFly. Dans la timeline originale c'est un loser. Soumis. Écrasé par Biff. Incapable de tenir tête à qui que ce soit. Sa vie entière est définie par un moment de lâcheté. Même George McFly. Dans la timeline modifiée, il met un coup de poing à Biff. Un seul moment de courage. Et toute sa vie change. Il devient auteur. Confiant. Respecté. Heureux. Le film ne dit pas que George était "génétiquement" un loser ou un gagnant. Il dit que George avait les deux en lui. Et qu'un seul moment de décision a déterminé lequel des deux prendrait le dessus. C'est Dostoïevski en version pop. Le bien et le mal coexistent dans chaque homme. Le choix fait la différence. Deuxième leçon : rien n'est jamais écrit d'avance. "Your future hasn't been written yet. No one's has. Your future is whatever you make it. So make it a good one." Doc Brown dit ça à la fin du troisième film. C'est la phrase la plus anti-déterministe du cinéma. Et c'est exactement le contraire de ce que le marxisme, la sociologie bourdieusienne et le déclinisme français racontent. Le marxisme dit : ta classe sociale détermine ton destin. Bourdieu dit : ton capital culturel détermine ton destin. Le déclinisme dit : le système est foutu, rien ne changera. Doc Brown dit : ton futur n'est pas encore écrit. C'est toi qui le crées. Chaque timeline dans le film est la preuve que les petites décisions individuelles ont des conséquences massives. Un coup de poing change une vie. Un mot de trop détruit une famille. Un acte de courage crée un futur entièrement différent. C'est l'effet papillon comme philosophie de vie. Et c'est profondément libéral au sens originel du terme : l'individu est souverain sur son destin. Troisième leçon : le vrai ennemi c'est pas l'autre. C'est ta propre lâcheté. Biff est le méchant apparent. Mais le vrai antagoniste du film c'est la lâcheté de George. Biff ne fait qu'occuper l'espace que George lui cède. Le jour où George décide de ne plus céder, Biff n'est plus rien. Un bully sans victime consentante c'est juste un mec pathétique qui crie dans le vide. Combien de gens vivent dans la timeline où ils n'ont jamais mis le coup de poing ? Pas un coup de poing physique. Le coup de poing métaphorique. Dire non. Quitter le job. Lancer la boîte. Dire la vérité. Refuser le confort de la soumission. Quatrième leçon : le futur se construit avec de l'énergie. Le flux capacitor a besoin de 1.21 gigawatts. C'est pas un détail narratif. C'est une métaphore. Le voyage dans le temps, la capacité à changer son futur, demande une quantité d'énergie massive. Pas n'importe quelle énergie. Une énergie concentrée, focalisée, canalisée sur un seul point. C'est exactement ce que demande l'entrepreneuriat. Ce que demande la création. Ce que demande n'importe quel changement de trajectoire de vie. Une quantité massive d'énergie focalisée sur un seul point de décision. La majorité des gens n'ont pas 1.21 gigawatts. Pas parce qu'ils n'ont pas l'énergie. Parce qu'ils la dispersent. Un peu de plainte ici. Un peu de scroll là. Un peu de confort partout. L'énergie fuit de partout et il ne reste rien pour le flux capacitor. Cinquième leçon : le passé t'explique mais ne te définit pas. Marty découvre que son père était un loser. Que sa mère buvait. Que sa famille était dysfonctionnelle. La tentation aurait été de dire "je suis le produit de mon environnement". Le déterminisme social appliqué à la famille. Mais Marty ne fait pas ça. Il intervient. Il change le cours des choses. Non pas en niant le passé mais en refusant d'en être prisonnier. C'est la leçon la plus puissante pour quiconque vient d'un milieu difficile. Ton passé est réel. Tes circonstances sont réelles. Mais elles ne sont pas ton futur. Ton futur est le produit de tes décisions, pas de tes origines. Sixième leçon : la technologie est un outil. L'humain est le pilote. La DeLorean ne va nulle part sans quelqu'un au volant. La machine voyage dans le temps. L'humain choisit la destination. Doc Brown construit la machine. Marty décide quoi en faire. C'est exactement la relation qu'on devrait avoir avec l'IA. La technologie est le véhicule. L'humain est la vision. Sans vision, la DeLorean est une voiture moche qui traîne dans un parking. Avec une vision, elle change l'histoire. Robert Zemeckis a mis tout ça dans un film pour enfants en 1985. Pas dans un traité de philosophie. Pas dans un essai. Dans un film avec un skate, un ampli géant et un mec qui dit "Great Scott!". C'est la définition du génie de la vulgarisation. Les vérités les plus profondes emballées dans le divertissement le plus pur. Ton futur n'est pas écrit. Mets le coup de poing. Trouve tes 1.21 gigawatts. Et conduis. Roads ? Where we're going, we don't need roads.
Brivael Le Pogam tweet media
Français
57
182
657
37.9K