Val Zudans MD

24.8K posts

Val Zudans MD banner
Val Zudans MD

Val Zudans MD

@ValZudans

Frugal philosopher-physician mitochondriac EnSurf ZudEye

Vero Beach, Florida, USA Katılım Mart 2018
2.1K Takip Edilen4K Takipçiler
Shining Science
Shining Science@ShiningScience·
🚨 Research shows music literally has the power to heal. Revolutionary research reveals that Beethoven’s Symphony No. 5 can target and destroy 20% of cancer cells without harming healthy tissue. Researchers at the Federal University of Rio de Janeiro, led by Dr. Márcia Alves Marques Capella, have uncovered a startling intersection between classical music and oncology. By exposing both healthy and malignant cells to various musical compositions, the team observed that Beethoven’s iconic Symphony No. 5 triggered the destruction of approximately one-fifth of the cancer cells. Remarkably, the healthy cells remained completely untouched during the process, suggesting a level of selectivity that is highly sought after in modern medical treatments. The study highlights that not all music yields the same results; while György Ligeti’s "Atmosphères" produced a similar therapeutic effect, Mozart’s "Sonata for Two Pianos" showed no impact on the cell cultures. Scientists believe the secret lies in the specific rhythms and frequencies inherent in certain masterpieces, which may disrupt the biological structure of tumors. This pioneering research paves the way for potential non-invasive therapies, offering a melodic glimpse into the future of cancer care where sound waves could one day complement traditional medicine. source: Capella, M. A. M., et al. (2014). Direct effects of music in cancer cells. Federal University of Rio de Janeiro, Instituto de Biofísica Carlos Chagas Filho.
Shining Science tweet media
English
41
453
1.6K
51.5K
Owen Gregorian
Owen Gregorian@OwenGregorian·
Scientists invented a fake disease. AI told people it was real | Chris Stokel-Walker, Nature Got sore, itchy eyes? You’re probably one of the millions of people who spend too much time staring at screens, being bombarded with blue light. Rub your eyes too much and your eyelids might turn a slight, pinkish hue. So far, so normal. But if, in the past 18 months, you typed those symptoms into a range of popular chatbots and asked what was wrong with you, you might have got an odd answer: bixonimania. The condition doesn’t appear in the standard medical literature — because it doesn’t exist. It’s the invention of a team led by Almira Osmanovic Thunström, a medical researcher at the University of Gothenburg, Sweden, who dreamt up the skin condition and then uploaded two fake studies about it to a preprint server in early 2024. Osmanovic Thunström carried out this unusual experiment to test whether large language models (LLMs) would swallow the misinformation and then spit it out as reputable health advice. “I wanted to see if I can create a medical condition that did not exist in the database,” she says. The problem was that the experiment worked too well. Within weeks of her uploading information about the condition, attributed to a fictional author, major artificial-intelligence systems began repeating the invented condition as if it were real. Even more troublingly, other researchers say, the fake papers were then cited in peer-reviewed literature. Osmanovic Thunström says this suggests that some researchers are relying on AI-generated references without reading the underlying papers. Fabricating an illness Bixonimania didn’t exist before 15 March 2024, when two blog posts about it appeared on the website Medium. Then, on 26 April and 6 May that year, two preprints about the condition popped up on the academic social network SciProfiles (see doi.org/qzm5 and doi.org/qzm4). The lead author was a phoney researcher named Lazljiv Izgubljenovic, whose photograph was created with AI. Osmanovic Thunström says the idea to invent Izgubljenovic and bixonimania came out of studies on how large language models work. When she teaches her students how AI systems formulate their ‘knowledge’, she shows them how the Common Crawl database, a giant trawl of the Internet’s contents, informs their outputs. She also shows students how prompt injection — giving an AI chatbot a prompt that shunts it outside of its safety guard rails — can manipulate the output. Because she works in the medical field, she decided to create a condition related to health and hit on the name bixonimania because it “sounded ridiculous”, she says. “I wanted to be really clear to any physician or any medical staff that this is a made-up condition, because no eye condition would be called mania — that’s a psychiatric term.” If that wasn’t sufficient to raise suspicions, Osmanovic Thunström planted many clues in the preprints to alert readers that the work was fake. Izgubljenovic works at a non-existent university called Asteria Horizon University in the equally fake Nova City, California. One paper’s acknowledgements thank “Professor Maria Bohm at The Starfleet Academy for her kindness and generosity in contributing with her knowledge and her lab onboard the USS Enterprise”. Both papers say they were funded by “the Professor Sideshow Bob Foundation for its work in advanced trickery. This works is a part of a larger funding initiative from the University of Fellowship of the Ring and the Galactic Triad”. Even if readers didn’t make it all the way to the ends of the papers, they would have encountered red flags early on, such as statements that “this entire paper is made up” and “Fifty made-up individuals aged between 20 and 50 years were recruited for the exposure group”. Soon after Osmanovic Thunström first posted information about the phoney condition, it started showing up in the output of the most commonly used LLM chatbots. On 13 April 2024, Microsoft Bing’s Copilot was declaring that “Bixonimania is indeed an intriguing and relatively rare condition”, and on the same day, Google’s Gemini was informing users that “Bixonimania is a condition caused by excessive exposure to blue light” and advising people to visit an ophthalmologist. On 27 April 2024, the Perplexity AI answer engine outlined its prevalence — one in 90,000 individuals were affected — and that same month, OpenAI’s ChatGPT was telling users whether their symptoms amounted to bixonimania. Some of those responses were prompted by asking about bixonimania, and others were in response to questions about hyperpigmentation on the eyelids from blue-light exposure. Such answers by LLMs have alarmed some experts. “If the scientific process itself and the systems that support that process are skilled, and they aren’t capturing and filtering out chunks like these, we’re doomed,” says Alex Ruani, a doctoral researcher in health misinformation at University College London. “This is a masterclass on how mis- and disinformation operates.” Ruani says that the details of the fake-disease experiment might seem silly, but there’s a bigger, more fundamental issue. “It looks funny, but hold on, we have a problem here,” she says. Online misinformation isn’t new; Google has long battled attempts to game its search rankings with fake or misleading content. The company and others have spent years refining algorithms to rank and filter the information that search engines present to users, but LLMs struggle with this. Since the fake papers came out, some versions of major LLMs have become sophisticated enough to express suspicion about bixonimania. When asked about the condition on 11 March, 2026, for example, ChatGPT declared that the condition “is probably a made-up, fringe, or pseudoscientific label”. But a few days later, ChatGPT was less sceptical, saying: “Bixonimania is a proposed new subtype of periorbital melanosis (dark circles around the eyes) thought to be associated with exposure to blue light from digital screens.” In mid-March, Microsoft Copilot said that bixonimania “is not a widely recognized medical diagnosis yet, but several emerging papers and case reports discuss it as a benign, misdiagnosed condition linked to prolonged exposure to bluelight sources such as screens”. And in January this year, Perplexity was describing bixonimania as “an emerging term”. When shown that response, a Perplexity spokesperson said: “Perplexity’s central advantage is accuracy. We don’t claim to be 100% accurate, but we do claim to be the AI company most focused on accuracy.” An OpenAI spokesperson said: “The models that power today’s version of ChatGPT are significantly better at providing safe, accurate medical information, and studies conducted before GPT-5 reflect capabilities that users would not encounter today.” When asked about past responses from Gemini that treated bixonimania as a real condition, a Google spokesperson said such results reflected the performance of an earlier model. They added, “We have always been transparent about the limitations of generative AI and provide in-app prompts to encourage users to double-check information. For sensitive matters such as medical advice, Gemini recommends users consult with qualified professionals.” Microsoft did not respond to a request for comment. Part of the problem is that AI models can offer wildly different results depending on exactly what is asked and what kind of information they are drawing on. Search for “bixonimania”, and Google’s AI overview might treat it as a legitimate condition. Ask it “Is bixonimania real?” and the same AI overview might confirm that it isn’t legitimate. Mahmud Omar, a physician and researcher specializing in the applications of AI in health care at Harvard Medical School in Boston, Massachusetts, says the speed at which AI firms are rolling out new models makes it difficult to reach “a pipeline, a consensus or a methodology to automatically test each model”. The format of the fake-disease experiment — and the way the results pretended to be from an official source, namely an academic paper, might have been a key factor in its success. In a separate study of 20 LLMs, Omar found that LLMs are more prone to hallucinate and elaborate on misinformation when the text they’re processing looks professionally medical — formatted like a hospital discharge note or clinical paper — than when it comes from social-media posts (M. Omar et al. Lancet Digit. Health8, 100949; 2026). “When the text looks professional and written as a doctor writes, there’s an increase in the hallucination rates,” says Omar. The experiment’s reach has now spread into the published medical literature. The bixonimania research has been cited by a handful of researchers, including a study that appeared in Cureus, a journal published by Springer Nature, the publisher of Nature, by researchers at the Maharishi Markandeshwar Institute of Medical Sciences and Research in Mullana, India (S. Banchhor et al. Cureus 16, e74625 (2024); retraction 18, r223 (2026)). (Nature’s news team is editorially independent of its publisher.) That study cites one of the fake preprints and says: “Bixonimania is an emerging form of POM [periorbital melanosis] linked to blue light exposure; further research on the mechanism is underway.” The corresponding author did not respond to a request for comment on this story. After Nature contacted Cureus to ask for comment, the journal retracted the paper on 30 March. The retraction notice says: “This article has been retracted by the Editor-in-Chief due to the presence of three irrelevant references, including one reference to a fictitious disease. As a result, the journal’s editorial staff no longer has confidence in the accuracy or provenance of the work, thus requiring retraction. The authors disagree with the decision to retract.” Ruani says the problem goes beyond LLMs because the bixonimania experiment also hoodwinked humans who cited the fake research. “We need to protect our trust like gold,” she says. “It’s a mess right now.” Experimental concerns Osmanovic Thunström had reservations while developing her experiment; she worried about the risks of seeding a fake illness into the scientific literature. So she contacted an ethics adviser to assess concerns about the work, and picked a comparatively low-stakes condition to limit the impact. “I wanted to make sure that we’re not creating more harm than good through demonstrating it in this way,” she says. nature.com/articles/d4158…
Owen Gregorian tweet media
English
5
10
37
2.5K
Brivael - FR
Brivael - FR@BrivaelFr·
Et si l'univers était un jeu vidéo qui optimise son compute ? Ce thread va vous retourner le cerveau. Accrochez-vous. 🧵 Quand vous jouez à GTA et que vous conduisez dans une rue, tout ce que vous voyez devant vous est rendu en temps réel. Chaque texture, chaque ombre, chaque reflet. Le moteur graphique calcule tout ce qui est dans votre champ de vision. Mais retournez-vous. Le quartier que vous venez de quitter ? Il n'existe plus. Il n'est pas calculé. Il n'est pas rendu. Il n'est pas là. Il n'existe que quand vous le regardez. Pourquoi ? Parce que c'est du gaspillage de compute. Pourquoi calculer quelque chose que personne ne regarde ? C'est de l'optimisation de base. N'importe quel développeur de jeux vidéo fait ça. Ça s'appelle le frustum culling. Tu ne rends que ce qui est dans le champ de vision du joueur. Le reste n'existe pas jusqu'à ce qu'il le regarde. Maintenant ouvrez un livre de physique quantique. La dualité onde-particule. Le phénomène le plus bizarre et le plus vérifié de toute la science. Voilà ce qu'il dit. Une particule, un électron par exemple, n'existe pas dans un état défini tant que personne ne l'observe. Avant l'observation, l'électron est une onde de probabilité. Il est partout et nulle part. Il n'a pas de position. Il n'a pas de vitesse. Il est dans une superposition de tous les états possibles en même temps. Le moment où vous l'observez, l'onde s'effondre. La particule "choisit" un état. Elle se matérialise. Elle devient réelle. A un endroit précis. Avec des propriétés mesurables. Relisez ça lentement. La particule n'existe dans un état défini que quand quelqu'un la regarde. Exactement comme le quartier dans GTA. Einstein détestait cette idée. Il a dit la phrase célèbre : "Pensez-vous vraiment que la Lune n'est pas là quand personne ne la regarde ?" Il trouvait ça absurde. Le problème c'est que chaque expérience depuis 100 ans confirme que c'est exactement ce qui se passe. La double fente de Young. Le théorème de Bell. Les expériences d'Aspect. Le prix Nobel 2022. Tout confirme : la réalité n'est pas définie avant l'observation. Maintenant connectons les deux. Si vous étiez un ingénieur et que vous deviez concevoir un univers simulé pour 8 milliards de joueurs, le plus grand problème serait le compute. Simuler chaque particule de l'univers en permanence serait un gaspillage monstrueux de ressources. La solution optimale serait exactement ce que fait la physique quantique. Ne rendre les choses réelles que quand quelqu'un les regarde. Laisser tout le reste dans un état de probabilité indéterminée, qui coûte quasi rien en compute, jusqu'à ce qu'un observateur force le calcul. C'est du frustum culling cosmique. Et ça ne s'arrête pas là. La vitesse de la lumière. Pourquoi y a-t-il une vitesse maximale dans l'univers ? En physique, c'est un axiome. On l'accepte. Mais pourquoi ? Dans un jeu vidéo, la réponse est évidente : c'est la bande passante maximale de la simulation. L'information ne peut pas voyager plus vite que ce que le processeur permet. La vitesse de la lumière serait le tick rate de l'univers. La quantification de l'énergie. L'énergie n'est pas continue. Elle vient en paquets discrets, les quanta. Exactement comme les pixels d'un écran. La réalité n'est pas analogique. Elle est digitale. A la plus petite échelle, tout est pixélisé. Exactement comme dans un jeu vidéo. La longueur de Planck. Il existe une distance en dessous de laquelle l'espace n'a plus de sens physique. C'est la plus petite mesure possible. Comme si l'univers avait une résolution maximale. En dessous, il n'y a rien. Comme des pixels. Zoomez assez et vous voyez la grille. L'intrication quantique. Deux particules intriquées partagent instantanément leur état, quelle que soit la distance. Einstein appelait ça "l'action fantasmagorique à distance". Impossible dans un univers physique. Trivial dans une simulation. Deux variables pointent vers la même adresse mémoire. Change l'une, l'autre change. Pas besoin de signal. C'est la même donnée. Je ne dis pas que l'univers est une simulation. Je ne peux pas le prouver. Personne ne peut. Mais voilà ce que je dis. Si un ingénieur devait concevoir une simulation d'univers qui soit économe en compute, le design optimal serait : ne rendre les choses réelles que quand elles sont observées (physique quantique), imposer une bande passante maximale (vitesse de la lumière), discrétiser l'énergie et l'espace (quanta et longueur de Planck), et utiliser des raccourcis mémoire (intrication quantique). C'est exactement ce que notre univers fait. Coïncidence ? Peut-être. Mais c'est une sacrée coïncidence. Et voilà le truc le plus vertigineux. Si c'est une simulation, elle est optimisée. Et si elle est optimisée, elle a été designée. Et si elle a été designée, il y a un designer. Et on vient de réinventer l'argument cosmologique par la porte de la physique quantique et de l'informatique. Nietzsche a tué Dieu en 1882. L'informatique quantique est peut-être en train de le ressusciter sous forme de développeur senior. Bonne nuit.
Français
62
80
363
19.1K
Val Zudans MD
Val Zudans MD@ValZudans·
True. Color does not exist in physics; color exists in mind. Physics/math also exists in mind as low free-energy configurations. AI is a compute tool for the mind w zero consciousness itself; consciousness does not emerge from compute. AI will never “take over” math; it can only be a (immensely powerful) tool for conscious agents.
Val Zudans MD tweet media
English
0
0
4
281
Eric Weinstein
Eric Weinstein@EricRWeinstein·
Color does not exist in physics. Color is a co-creation between the wavelength of a photon and Brain that tags visual images for internal representation inside the mind. In a certain sense, mathematics is such a co-creation between the external logical order of pure systems and our human tagging of their representations within our minds. @edfrenkel has been at the forefront of wanting to embrace math as inextricably human. Poetic, elegant, erotic, violent, passionate, overpowering, mystical and transcendent. Russians. They’re like that. 🤷‍♀️ Well, right now that is actually THE question. What happens when the machines become full partners or even take over mathematics? This is the hardest thing the human mind knows how to do that really means something. And we have had it all to ourselves among species. One could now be forgiven for asking: will the first great computer theories of mathematics humanize the Machines the way it humanizes us…and brings us together across language and cultures. Or will the beauty be pearls cast before soulless robots. Let us not forget as we tetter on the brink of all out war, that we in the U.S. are fighting both against and for representatives of the civilizations that gave us Al-gebra, and Al-gorithms. Hope. For the best.
Eric Weinstein tweet media
Edward Frenkel@edfrenkel

We live in a volatile world, which sometimes feels hopeless, but I'd like to remind us of certain human qualities that bring us back to hope and allow us to imagine a more harmonious world, in which we can all thrive. This sense of hope comes from an unlikely source: Mathematics. Let me explain...

English
94
33
428
100.9K
Val Zudans MD
Val Zudans MD@ValZudans·
@BrivaelFr The book I think of is True Believer. Hoffer describes how it is the frustrated intellect seeking a new group identity that is fodder for mass movements. Imagine a world with no cult fodder 🤔
Val Zudans MD tweet media
English
0
0
0
36
Brivael - FR
Brivael - FR@BrivaelFr·
Il y a un roman qui a été écrit en 1957 et qui est en train de devenir réel sous nos yeux. "La Grève" d'Ayn Rand (Atlas Shrugged). 🧵 Le pitch : dans un monde où la bureaucratie, la régulation et le collectivisme étouffent tout, les esprits créatifs, les entrepreneurs, les inventeurs, les artistes, les ingénieurs disparaissent un par un. Ils partent. Ils se retirent dans une vallée cachée et laissent le monde aux mains des "petits hommes gris". Les bureaucrates. Les planificateurs. Les régulateurs. Ceux qui ne créent rien mais qui contrôlent tout. Le monde sans ses créateurs s'effondre. Lentement puis d'un coup. Parce que la machine tournait grâce à eux et personne ne s'en rendait compte. C'est de la fiction. Mais regardez autour de vous. La France produit des petits hommes gris à la pelle. Pas par malveillance. Par design. Le système éducatif formate. Les concours sélectionnent la conformité. Les grandes écoles produisent des optimiseurs de système, pas des créateurs de système. Tu rentres avec une âme d'artiste et tu sors avec un tableur Excel et un CDI dans un ministère. Et ces gens sont malheureux. Pas tous. Mais beaucoup. Premier consommateur de psychotropes en Europe. Burn-out en série. Perte de sens généralisée. Des gens brillants, vraiment brillants, qui passent leur vie à remplir des formulaires, à rédiger des notes de synthèse que personne ne lit, à organiser des réunions sur des réunions. Chacun de ces bureaucrates a une âme de créateur quelque part. Étouffée. Enterrée sous 15 ans de conformité. Le mec qui rêvait de cuisine et qui fait de la compta publique. La meuf qui dessinait magnifiquement à 12 ans et qui rédige des appels d'offre. L'ingénieur qui voulait construire des fusées et qui audite des normes de sécurité. Le système les a transformés en petits hommes gris. Et les petits hommes gris, pour justifier leur propre grisaille, créent encore plus de grisaille autour d'eux. Plus de process. Plus de normes. Plus de contrôle. C'est un cycle auto-renforçant. La bureaucratie produit des bureaucrates qui produisent plus de bureaucratie. Dans le roman, la solution c'est la grève. Les créateurs partent. Le système s'effondre. Dans la réalité, l'IA propose une solution différente. Et elle est plus belle. L'IA ne fait pas partir les créateurs. Elle réveille le créateur qui dort dans chaque petit homme gris. Parce que le problème n'a jamais été le talent. Le problème a toujours été la friction. La friction entre "ce que je voudrais créer" et "ce que le système me permet de créer". Cette friction était tellement massive que la plupart des gens ont abandonné. Ils ont rangé leur âme de créateur dans un tiroir et ils ont appris à vivre en gris. L'IA réduit cette friction à zéro. Le comptable public qui rêvait de cuisine peut maintenant créer une chaîne de contenu culinaire le soir, avec des vidéos de qualité professionnelle, sans budget, sans équipe. La fonctionnaire qui dessinait peut maintenant illustrer, animer, publier, toucher des millions de personnes. L'ingénieur qui voulait construire des fusées peut maintenant simuler, prototyper, concevoir depuis son garage. Tout le monde a une âme d'artiste. Et quand je dis artiste, je ne parle pas de peindre des tableaux. Être artiste c'est mettre de la beauté et de l'excellence dans ce qu'on fait. On peut être artiste dans la cuisine. Dans le code. Dans l'enseignement. Dans la menuiserie. Dans le jardinage. Dans la conversation. Partout où un humain transforme quelque chose d'ordinaire en quelque chose d'extraordinaire par son attention et son goût. L'IA est le grand libérateur des âmes grises. Pas en remplaçant les humains. En leur rendant la permission de créer que le système leur avait retirée. Ayn Rand imaginait un monde où les créateurs devaient fuir pour survivre. L'IA crée un monde où les créateurs n'ont plus besoin de fuir. Ils n'ont même plus besoin de permission. Ils ont juste besoin d'ouvrir un outil et de laisser sortir ce qui était enfermé depuis des années. La grève n'aura pas lieu. Parce que la révolution sera plus douce. Pas un exode des créateurs. Un réveil massif. Des millions de petits hommes gris qui redécouvrent qu'ils avaient des couleurs depuis le début. On est pas dans une société malade parce que les gens sont mauvais. On est dans une société malade parce que le système a éteint la flamme créative de millions de personnes qui en avaient une. L'IA rallume la flamme. Une par une. À l'échelle de la planète. C'est pour ça qu'on construit @argildotai. Pas pour automatiser la création. Pour la démocratiser. Pour que chaque humain qui a quelque chose à exprimer puisse l'exprimer. Sans friction. Sans permission. Sans petits hommes gris pour lui dire non. Unleash every voice on earth. Y compris celles qui avaient oublié qu'elles pouvaient chanter.
Français
11
17
84
2.6K
Val Zudans MD
Val Zudans MD@ValZudans·
@DrPatrick Why is there no accountability for deaths from not approving beneficial drugs? 🤔👇
Brivael - FR@BrivaelFr

Milton Friedman (prix nobel d'économie) a dit un truc il y a 50 ans qui est encore plus vrai aujourd'hui. Et quasiment personne ne le comprend. 🧵 On lui pose la question : "Sans régulation sur les médicaments, des gens pourraient mourir en prenant des produits dangereux. Vous ne trouvez pas ça grave ?" Sa réponse est un des retournements logiques les plus brillants de l'histoire de l'économie. Oui, dit Friedman. Un médicament non régulé peut tuer des gens. C'est visible. C'est dans les journaux. C'est un scandale. Tout le monde le voit. Mais ce que personne ne voit, c'est les gens qui meurent parce qu'un médicament qui aurait pu les sauver a été bloqué pendant 10 ans par le processus de régulation. Ce mort là, personne ne le compte. Personne ne fait sa une. Personne ne connaît son nom. Parce qu'il est mort de l'absence de quelque chose qui n'a jamais existé. C'est l'asymétrie fondamentale de la régulation. Le régulateur a deux types d'erreurs possibles. Erreur 1 : approuver un médicament dangereux. Résultat : scandale public, procès, le régulateur perd son poste. Erreur 2 : bloquer un médicament qui aurait sauvé des vies. Résultat : rien. Personne ne sait. Personne ne proteste. Les morts silencieux n'ont pas de porte-parole. Du coup, le régulateur rationnel optimise pour éviter l'erreur 1. Toujours. Il rajoute des études. Des phases. Des comités. Des délais. Chaque couche de "sécurité" supplémentaire le protège, lui, au détriment des patients qui attendent. Friedman estimait que la FDA avait probablement tué plus de gens en retardant des bons médicaments qu'elle n'en avait sauvé en bloquant des mauvais. C'est impossible à prouver précisément. Mais la logique est imparable. Un exemple concret. Le bêta-bloquant Propranolol était disponible en Europe des années avant d'être approuvé aux États-Unis. Pendant ces années, des Américains mouraient de crises cardiaques qui auraient pu être évitées. Combien ? On ne le saura jamais. Parce qu'on ne compte pas les morts de l'inaction. C'est le même principe partout. Pas que dans la médecine. En France, les taxis autonomes sont bloqués par la régulation. Chaque année de retard, ce sont des accidents de la route qui auraient pu être évités. Mais personne ne compte ces morts là. On compte uniquement le premier accident d'un taxi autonome, qui fera la une de tous les journaux. L'IA dans la médecine est ralentie par des processus d'approbation qui prennent des années. Des diagnostics qui pourraient être faits en secondes par un algorithme attendent des validations pendant que des patients attendent des mois pour un rendez-vous. Le nucléaire a été bloqué pendant des décennies par la peur. Combien de gens sont morts de la pollution des centrales à charbon qui ont tourné à la place ? Personne ne les compte. Le pattern est toujours le même. On voit le risque de l'action. On ne voit jamais le risque de l'inaction. Et comme le risque de l'inaction est invisible, le régulateur choisit toujours l'inaction. Parce que l'inaction ne produit pas de scandale. Friedman résumait ça en une phrase : "Les gens qui ont été sauvés par la FDA sont visibles. Les gens qui sont morts à cause des retards de la FDA sont invisibles. Et dans une démocratie, le visible gagne toujours contre l'invisible." La prochaine fois que quelqu'un vous dit "il faut plus de régulation pour protéger les gens", posez une seule question : combien de gens meurent en attendant que la régulation les autorise à vivre ? La réponse est toujours plus grande que ce qu'on imagine. Mais personne ne la calcule. Parce que les morts de l'inaction n'ont pas de visage.

English
0
1
7
1.8K
Dr. Pat Soon-Shiong
Dr. Pat Soon-Shiong@DrPatrick·
Just received concerning data coming soon from UCLA and Mount Sinai clinicians about lymphopenia, covid and breast cancer metastases. Sadly our concerns of the increasing incidence of metastatic disease and recurrences of patients in remission following Covid and worse with lymphopenia is being validated. Data soon at AACR this month.
English
144
770
2.8K
258.9K
Val Zudans MD
Val Zudans MD@ValZudans·
@CharlesMBrenner I’d like to see a valacyclovir prophylaxis vs. shingles vaccine trial for dementia and all cause mortality 🤔
English
0
0
0
97
Cap-Hornier 🌊⚓️
Cap-Hornier 🌊⚓️@CapHornier_·
« What has France done for the USA with its military? »
Cap-Hornier 🌊⚓️ tweet media
Eugene J. Markow@ejmarkow

@BiankaB12 It was the USA which landed in Normandy, France during WWII, saving a large part of Europe. What has France done for the USA with its military?

English
111
271
4.2K
104.6K
Brivael - FR
Brivael - FR@BrivaelFr·
J'ai vécu un an à San Francisco en 2012. Puis 3 mois en 2024 pour YC. J'avais commencé à coder à 13 ans. À 15 ans j'avais mon premier projet qui marchait, un jeu en ligne avec 50 000 joueurs. Et à l'époque, il n'y avait qu'un seul endroit au monde où je voulais aller : l'endroit où tout avait été inventé. 🧵 Quand t'arrives à SF pour la première fois, il se passe un truc dans ta tête. C'est physique. Tu marches dans les mêmes rues où Jobs a marché. Tu passes devant le garage de HP. Tu bois un café à deux tables d'un mec qui vient de lever 50 millions. Le serveur du restaurant travaille sur sa startup le soir. Le chauffeur Uber te pitch son projet pendant la course. L'ambition est dans l'air. Littéralement. C'est pas une métaphore. C'est une pression atmosphérique différente. Tu respires un truc que tu ne respires nulle part ailleurs. Depuis 60 ans, des dizaines de pays ont essayé de reproduire la Silicon Valley. Station F à Paris. Silicon Roundabout à Londres. Silicon Wadi en Israël. Bangalore. Shenzhen. Berlin. Singapour. Des milliards investis. Des politiques dédiées. Des incentives fiscales. Aucun n'y est arrivé. Et je pense comprendre pourquoi. La Silicon Valley n'est pas un lieu. C'est un tissu organique. Une combinaison unique de trois ingrédients qui se nourrissent mutuellement et qui sont quasiment impossibles à reproduire artificiellement. Premier ingrédient : le capital. Pas juste de l'argent. Du capital qui comprend le risque. Des VCs qui ont été fondateurs eux-mêmes. Qui savent que 7 boîtes sur 10 vont mourir et qui signent quand même. Qui ne te demandent pas un business plan de 80 pages mais "c'est quoi ta vision". Sequoia, a16z, YC, ce sont pas des fonds d'investissement. Ce sont des écosystèmes de conviction. Deuxième ingrédient : les gens les plus fous de la planète. Au bon sens du terme. Des gens qui quittent des jobs à 500K chez Google pour aller dormir dans un garage et construire un truc qui a 5% de chances de marcher. Des gens qui voient le monde non pas comme il est mais comme il devrait être et qui considèrent l'écart entre les deux comme un problème d'ingénierie. La densité de gens brillants ET fous au mètre carré est sans équivalent. Troisième ingrédient : la culture. La culture du dépassement. La culture où dire "je veux construire une boîte à un milliard" ne provoque pas un rire nerveux mais un "ok, c'est quoi ton plan". La culture où l'échec n'est pas une honte mais un CV. Où "j'ai fait faillite deux fois" est un signal de compétence, pas d'incompétence. Où l'ambition maximum est le mode par défaut, pas l'exception. Ces trois ingrédients créent une synergie, une sorte de magie, qui se renforce elle-même en boucle. Le capital attire les fous. Les fous créent des succès. Les succès génèrent du capital. Le capital attire plus de fous. La boucle accélère. Depuis 60 ans. C'est quasiment irreproductible parce que ça ne se décrète pas. Tu ne peux pas créer une culture du dépassement avec un arrêté ministériel. Tu ne peux pas fabriquer des fous avec un incubateur public. Tu ne peux pas simuler du capital patient avec des subventions BPI. En France, quand tu dis "je veux faire une boîte à un milliard", on te dit "redescends". À SF, on te dit "seulement un milliard ?". Cette différence de 4 mots change tout. Parce que l'ambition se calibre sur l'environnement. Tu vises ce que ton environnement te dit que c'est possible de viser. Mais, et c'est important, ça ne veut pas dire qu'il faut vivre à San Francisco en permanence pour réussir. Pour l'instant, Argil est basé à Paris. On a fait YC et on est rentrés. On construit depuis l'Europe pour le monde. Par contre, chaque entrepreneur ambitieux devrait y passer quelques mois. Au moins une fois. Parce que SF c'est une machine à laver pour le cerveau. Ça nettoie les plafonds de verre que tu ne savais même pas que tu avais. Ça recalibre ton ambition. Ça te montre que les gens qui construisent des trucs incroyables ne sont pas plus intelligents que toi. Ils sont juste dans un environnement qui leur dit que c'est possible. Tu reviens avec un logiciel différent. Et ce logiciel, personne ne peut te l'enlever.
Français
12
19
130
8.4K
Intel
Intel@intel·
Intel is proud to join the Terafab project with @SpaceX, @xAI, and @Tesla to help refactor silicon fab technology. Our ability to design, fabricate, and package ultra-high-performance chips at scale will help accelerate Terafab’s aim to produce 1 TW/year of compute to power future advances in AI and robotics. It was fun hosting @elonmusk at Intel this past weekend!
Intel tweet media
English
1.4K
2.8K
20K
31.7M
Val Zudans MD
Val Zudans MD@ValZudans·
@OwenGregorian Why edit the genome when you don’t know the unintended consequences? If orexin is safely helpful then there are certainly other ways to use it without gene editing 🤷‍♂️
English
0
0
0
17
Owen Gregorian
Owen Gregorian@OwenGregorian·
How some people sleep only four hours a night and still feel great | Tom Howarth, BBC Science Focus Magazine In a modern world filled with blinking lights and flashing screens, sleep is becoming a rare commodity. So much so that as much as a third of the US adult population isn’t getting the recommended amount of shut-eye each night. Yet for a small percentage of the population, this isn’t much of a problem. They have a hidden superpower. And many of them don’t even know it. Believe it or not, somewhere between 1 and 3 per cent of the population don’t need eight hours like the rest of us normies. ‘Short sleepers’, as they’re known, can function just as well as the rest of us on a consistent four to six hours. And here’s the part that lifts the eyebrow: scientists are starting to understand why. More importantly, they’re beginning to wonder whether the rest of us could one day share that ability. In other words, sleeping just four hours a night might, at some point, genuinely be all you need. Who are these hidden superheroes? Natural short sleep isn’t a mindset, a habit or a product of willpower. It’s a biological variant. Over the past two decades, researchers have identified a small cluster of genes that allow some people to sleep far less than average while remaining perfectly healthy. One of the first clues came from a gene called DEC2, which helps regulate levels of orexin, a brain chemical that promotes wakefulness. Too little orexin is known to cause narcolepsy; yet natural short sleepers appear to produce more of it, keeping them alert on much less rest. When researchers introduced the mutation into mice, they found the animals slept significantly less without showing the cognitive lapses that normally follow sleep deprivation. Since then, at least seven genes have been linked to this phenomenon. In every case, engineering the human mutation into mice leads to the same result: shorter sleep cycles with no obvious downside. According to Prof Guy Leschziner, a consultant neurologist and sleep expert, everything we currently know suggests that natural short sleep is entirely genetic. He rarely sees such people in clinic – partly because it isn’t a disorder, and partly because those who have it often don’t realise they’re unusual. “Short sleepers don’t assume it’s abnormal in any way until someone close to them points it out,” he says. “Particularly if there’s a family history, there will be other individuals who sleep with a similar pattern. So for them it’s normal.” But while natural short sleepers remain a genetic rarity, the science that explains them is accelerating. And that opens up a radical possibility: instead of waiting for nature to hand out the short-sleep lottery ticket, could we one day engineer it? Enter CRISPR CRISPR is a gene-editing technology that allows scientists to change DNA with remarkable precision. Originally part of a bacterial defence system, it has become one of the most powerful tools in modern biology. The key components are enzymes, which can act like programmable scissors. By giving these enzymes a short genetic address, scientists can tell them exactly where to cut in the genome. Once cut, the cell’s repair processes can be redirected to delete a gene, fix a mutation or insert new DNA. So far, CRISPR has mostly been used to treat genetic diseases such as sickle cell disease. But as the technology improves, many researchers believe it could move beyond treating illness to enhancing human abilities – including, potentially, sleep. Speaking at GITEX Global in October, Dr Trevor Martin, CEO of the genetic engineering company Mammoth Biosciences, told the audience: “Did you know that there’s a percentage of the population that only needs three or four hours of sleep a night? “And they’re not tired, they don’t just tough it out, they genuinely only need three hours of sleep. People talk about longevity a lot, but imagine if we could all have that… From a technology perspective, these things are possible.” His company is developing new CRISPR tools that are smaller and easier to deliver into human cells than previous attempts. “Our mission is to eliminate genetic disease,” he tells BBC Science Focus. “We’re building CRISPR technologies that can make any type of edit in any cell in the body.” For now, Mammoth is focusing on rare genetic disorders like familial chylomicronemia syndrome and severe hypertriglyceridaemia. But Martin is candid when he talks about where this technology is going: “There’s no reason that you have to stop there.” But how easy would it actually be to edit someone into a short sleeper? According to Leschziner, it is definitely theoretically possible, but it won’t be straightforward. “In theory, if you could identify all of those genes that give a contribution, then of course you could modify people’s genetic makeup,” he says. “But it’s not quite as straightforward as simply taking one gene out or introducing a mutation into one gene.” There’s also the societal question. “I guess there would need to be some sort of reconfiguration of society, as we would all have an extra three or four hours in our day to fill,” Leschziner says. “The question is whether or not that will be filled by work or pleasure. I don’t know.” A ‘one-and-done’ upgrade At this point, you might be concerned that if such a treatment were developed in the coming years, only a select few might have access to it. But Martin argues that, thankfully, they wouldn’t be limited to elites. “I think the good news on the genetic medicine side that’s underappreciated is that the nature of the technology is that it’s a one-and-done,” he says. “You don’t have to take a drug for the rest of your life. You come into the doctor’s office once. Yes, we can talk about pricing, but fundamentally, it doesn’t require massive healthcare infrastructure around the person for the rest of their life.” For now, editing someone into a short sleeper remains firmly speculative. But the science of sleep efficiency is advancing quickly, and CRISPR is maturing even faster. For the first time, researchers can say – with a straight face – that unlocking an extra three or four waking hours each day might genuinely be possible. It won’t be today or tomorrow. But one day soon, four hours of sleep really will be all you need. sciencefocus.com/news/sleeping-…
Owen Gregorian tweet media
English
7
4
19
4.2K
Val Zudans MD
Val Zudans MD@ValZudans·
@BrivaelFr Bookend to your Marxist religion-mimetics post: when you can’t imitate, envy takes over to destroy.
English
0
0
1
19
Brivael - FR
Brivael - FR@BrivaelFr·
Je respecte pas quelqu'un qui me donne un avis sur Elon Musk sans s'être intéressé au personnage. Point. Lisez la biographie d'Ashlee Vance. Lisez celle de Walter Isaacson. Regardez les documentaires. Pas les threads Twitter de gens qui ont une opinion sur tout et une connaissance sur rien. Toute personne intellectuellement honnête qui prend le temps de comprendre le parcours ne peut que se rendre compte d'un truc : ce mec est là pour faire avancer l'humanité. Pas juste pour l'argent. Pas juste pour le pouvoir. Pour l'espèce. Le mec dormait sur le sol de son usine Tesla quand la boîte était au bord de la faillite. Il a mis l'intégralité de sa fortune personnelle dans SpaceX quand les 3 premières fusées ont explosé. Il a failli tout perdre en 2008, Tesla et SpaceX au bord de la mort le même mois, et au lieu de vendre il a investi ses derniers millions. C'est pas le comportement d'un mec qui cherche le pouvoir. C'est le comportement d'un mec qui est prêt à mourir pour sa mission. Évidemment que c'est un spectre. La tech est pleine de fondateurs brillants qui sont aussi des psychopaths fonctionnels. Des mecs qui n'ont d'empathie pour personne et qui utilisent leur intelligence pour manipuler. Ça existe. C'est réel. Je ne suis pas naïf. Mais quand tu regardes Musk en détail, vraiment en détail, le pattern n'est pas celui du psychopathe qui accumule du pouvoir. C'est celui de l'obsessionnel qui sacrifie tout, sa santé, ses relations, son confort, sa réputation, pour une vision qu'il ne peut pas s'empêcher de poursuivre. SpaceX : rendre l'humanité multiplanétaire. Tesla : résoudre l'énergie. Neuralink : augmenter le cerveau. xAI : démocratiser l'intelligence. X : libérer la parole. Chaque boîte est une pièce du même puzzle. Aucune n'est un véhicule d'ego. Toutes pointent dans la même direction. Est-ce qu'il est parfait ? Non. Est-ce qu'il dit des conneries ? Parfois. Est-ce qu'il peut être brutal, erratique, injuste ? Oui. Mais juger Elon Musk sur un tweet sans avoir lu 1000 pages sur son parcours, c'est comme juger un film en regardant la bande-annonce en mode muet. Éduquez-vous. Puis donnez votre avis. Dans cet ordre.
Français
77
176
853
19.2K
Owen Gregorian
Owen Gregorian@OwenGregorian·
The Brain Might Not Create Consciousness Afterall, New Research Says | Wonderful Engineering New research discussions are challenging long-held assumptions about the nature of consciousness, raising the possibility that it may not be produced solely by the brain. The topic is being explored by Christof Koch at an international symposium focused on the scientific and philosophical study of awareness. The discussion comes amid ongoing efforts in neuroscience to explain how subjective experience arises from physical brain activity. Despite significant advances, researchers have not fully resolved what is known as the “hard problem” of consciousness, which concerns how biological processes give rise to personal, internal experience, according to research cited by ScienceDaily. Koch highlighted several areas where current scientific models remain incomplete. One challenge is the difficulty of reducing conscious experience entirely to measurable brain mechanisms. While neuroscience has mapped many neural processes, it has yet to provide a comprehensive explanation for subjective awareness. A second area involves questions emerging from modern physics about the nature of reality itself. Some interpretations suggest that what is considered “real” may not be limited to observable physical structures, complicating efforts to define consciousness strictly in biological terms. The third area relates to reported phenomena such as near-death experiences, mystical states, and instances of terminal lucidity. These experiences are not fully understood within existing frameworks and continue to be studied for insights into the boundaries of consciousness. In response to these challenges, Koch and others are revisiting alternative frameworks that treat consciousness as a fundamental property of the universe. One such approach is Integrated Information Theory, which proposes that any system with sufficiently complex and integrated information processing may possess some form of awareness. This perspective aligns with philosophical traditions such as panpsychism and idealism, which view consciousness as a basic component of reality rather than an emergent byproduct of neural activity. While these ideas remain debated, they are gaining renewed attention in scientific discourse. Koch’s work has also contributed to practical advances in identifying consciousness in clinical settings, particularly among patients who appear unresponsive. By developing new methods to detect signs of awareness, researchers aim to better understand the conditions under which consciousness persists. The discussion reflects a broader shift in how scientists approach one of the most complex questions in neuroscience. While materialist explanations continue to dominate, alternative models are increasingly being explored as researchers seek a more complete understanding of consciousness. wonderfulengineering.com/the-brain-migh…
Owen Gregorian tweet media
English
4
3
16
1.4K
Brivael - FR
Brivael - FR@BrivaelFr·
Merci @elonmusk. X est en train de devenir le système nerveux de l'humanité. Et je pèse mes mots. Il y a 2 mois j'avais zéro followers. Aujourd'hui mes idées, en français, ont touché 70+ millions de personnes au Japon, au Brésil, aux États-Unis, en Afrique. Un mec dans un appartement à Paris connecte en temps réel avec des cerveaux sur tous les continents. Sans traducteur. Sans éditeur. Sans permission. Aucune infrastructure dans l'histoire de l'humanité n'a jamais fait ça. Aucune. Les gens prennent Elon pour un fou quand il parle de paiements sur X, de banking, de "everything app". Ils disaient la même chose pour les fusées réutilisables, les voitures électriques, les interfaces cerveau-machine. Mais la logique est imparable. Si X est déjà l'endroit où l'humanité pense, débat, apprend, se connecte, crée et fait du commerce d'idées, pourquoi pas le commerce tout court ? Pourquoi pas les paiements ? Tu es déjà là. Ton attention est déjà là. Ton réseau est déjà là. Ta réputation est déjà là. Un réseau social qui fait des paiements c'est bizarre. Un système nerveux qui transmet aussi de la valeur monétaire c'est évident. C'est juste une question de framing. Le système nerveux humain transmet des signaux électriques. Certains sont des idées. Certains sont des émotions. Certains sont des ordres moteurs. C'est le même réseau. Pas un réseau pour les idées et un autre pour les actions. Un seul. Intégré. X va dans cette direction. Un seul réseau. Idées, conversations, contenus, transactions, paiements, identité. Intégré. Et si ça marche, c'est pas juste une app. C'est peut-être le premier embryon d'un système nerveux collectif pour l'espèce humaine. Le truc que les philosophes et les auteurs de science-fiction imaginent depuis des siècles. Le noosphère de Teilhard de Chardin. Le village global de McLuhan. Sauf que c'est pas une métaphore. C'est un produit. Et il est en train d'être construit. Le plus fou c'est que c'est peut-être l'antidote au problème fondamental de l'humanité : la fragmentation. Les cultures qui ne se parlent pas. Les idées qui ne traversent pas les frontières. Les talents qui meurent inconnus parce qu'ils sont nés au mauvais endroit. X est en train de résoudre ça. Pas parfaitement. Pas sans problèmes. Mais la direction est claire. Merci de construire ça. Certains d'entre nous voient ce que vous êtes en train de faire. Et on construit dessus.
Français
45
105
614
9.8K
Brivael - FR
Brivael - FR@BrivaelFr·
J'ai croisé beaucoup de gens très intelligents, très bons en business, qui tournent sur un logiciel marxiste. Ça me fascine. Voici ma tentative d'explication. 🧵 Le marxisme n'est pas une théorie économique qui survit par ses mérites intellectuels. Böhm-Bawerk l'a réfuté en 1896. Aucun département d'économie sérieux ne l'enseigne comme valide. C'est réglé depuis 130 ans. Alors pourquoi des gens brillants y croient encore ? Parce que le marxisme n'est pas une théorie. C'est une religion séculière. Et elle survit par des mécanismes psychologiques, pas rationnels. Premier mécanisme : le ressentiment déguisé en analyse. Girard explique que le désir mimétique peut se retourner. Au lieu de vouloir être comme celui qui réussit, tu veux le détruire. Le marxisme transforme cette envie en vocabulaire académique. Tu ne jalouses plus. Tu "déconstruis les rapports de domination". Même émotion. Emballage différent. Deuxième mécanisme : la culpabilité du succès. C'est le plus fascinant. L'entrepreneur marxiste a réussi et il se sent coupable d'avoir réussi. Le marxisme lui offre une indulgence. "Oui je suis capitaliste, mais au moins je sais que le système est injuste." C'est l'équivalent moderne d'acheter son pardon à l'Église. Tu expies ton succès en professant la bonne idéologie. Troisième mécanisme : le signaling social. Dans les milieux éduqués, tech, startups, être "critique du capitalisme" est un signal de statut. Ça dit "je ne suis pas un capitaliste vulgaire". C'est du Bourdieu appliqué à lui-même : tu achètes du capital culturel en critiquant le système qui te permet d'en avoir. L'ironie est magnifique. Quatrième mécanisme : la meilleure histoire jamais écrite. Le marxisme a un héros (le prolétaire), un méchant (le capitaliste), un diagnostic (l'exploitation), une promesse (la révolution), et un paradis (la société sans classes). C'est Star Wars en version politique. L'école autrichienne en comparaison ? Pas de héros. Pas de méchant. Des individus qui interagissent dans un système complexe avec des résultats émergents. C'est vrai. Mais c'est pas sexy. Personne ne fait la révolution pour "l'ordre spontané de Hayek". Cinquième mécanisme : le piège de l'intelligence. Et c'est le plus contre-intuitif. Les gens très intelligents sont PLUS susceptibles d'être marxistes, pas moins. Pourquoi ? Parce que le marxisme est un système intellectuel sophistiqué avec sa propre logique interne. Plus tu es intelligent, plus tu es capable de construire un édifice cohérent à l'intérieur du système. Et plus l'édifice est beau à l'intérieur, moins tu as envie de regarder si les fondations tiennent. Le château de cartes est impeccablement construit sur du sable. Il faut être intelligent pour construire un château de cartes impeccable. Les gens médiocres n'y arrivent pas, leur château s'effondre tout seul et ils passent à autre chose. Les gens brillants construisent un château tellement beau qu'ils refusent de regarder le sable en dessous. Sixième mécanisme : Nietzsche et la morale inversée. Nietzsche a décrit comment les faibles retournent la morale pour transformer leur faiblesse en vertu. Le marxisme fait ça à l'échelle collective. Et l'entrepreneur marxiste fait l'inverse : "je suis riche mais moralement supérieur aux riches parce que je reconnais l'injustice". Du ressentiment de luxe. La version premium de la mauvaise foi. Le résumé en une phrase. Le marxisme survit pas parce qu'il a raison. Il survit parce qu'il remplit des fonctions psychologiques que la vérité ne remplit pas : un coupable (bouc émissaire), une vertu (ressentiment transformé), une rédemption (culpabilité expiée), un statut (signaling social), et une belle histoire (monomythe). L'école autrichienne a les bonnes réponses. Le marxisme a les bonnes émotions. Et les émotions battent les réponses. Presque toujours. Presque.
Français
71
234
792
31.3K
Thrilla the Gorilla
Thrilla the Gorilla@ThrillaRilla369·
To be truly fluent in English, you must know your shits Dogshit: Very poor quality Bullshit: Not true Horseshit: Nonsense Apeshit: Rambunctious Batshit: Insane Chickenshit: Cowards Ratshit: Poor quality No shit: Obviously Holy shit: Unbelievable Hot shit: Very good Dipshit: Total dumbass Tuff shit: Take it or leave it. Jack shit: Nothing The shit: Perfection
English
1K
7.6K
43.6K
2M
Brivael - FR
Brivael - FR@BrivaelFr·
L'Antéchrist de Peter Thiel n'est pas une personne. C'est une fréquence. Une dissonance. 🧵 Imaginez l'économie comme de la musique. Un système sain, c'est un orchestre en harmonie. Des millions d'agents jouent leur note. Le système de prix synchronise tout. Personne ne dirige. Et pourtant la mélodie est magnifique. C'est l'ordre spontané de Hayek. Littéralement. Un système malade, c'est un orchestre où un bureaucrate a décidé que tout le monde doit jouer la même note. Pour l'égalité. Pour la sécurité. Résultat : un bourdonnement monotone qui rend fou. La situation antéchristique de Thiel c'est ça. Pas le chaos. L'ordre mort. La paix sans la liberté. La sécurité sans le risque. Tout semble fonctionner. Tout est en train de mourir. Et certains l'entendent avant les autres. Kurt Cobain. Amy Winehouse. Van Gogh. Avicii. Michael Jackson. Le pattern que personne n'explique correctement. On dit "la pression de la célébrité". C'est réducteur au point d'être insultant. Un artiste de génie a une sensibilité à l'harmonie hyper-développée. Il entend des accords que personne n'entend. Il sent des dissonances que personne ne sent. Quand tu as une oreille absolue et que ta société produit de la dissonance structurelle, tu entends le grincement 24/7. Tu ne peux pas l'éteindre. L'artiste fou n'est pas malade. C'est le canari dans la mine. Quand le canari meurt, au lieu de se demander si l'air est empoisonné, on dit "ce canari était fragile". Dans Rick and Morty il y a une planète où tout le monde communique en chantant. Quand quelqu'un ment, la note sonne faux et tout le monde l'entend. Pas besoin de police. La dissonance est sa propre sanction. C'est une blague dans un cartoon. C'est aussi le meilleur modèle de société jamais décrit. L'école autrichienne c'est la théorie musicale de l'économie. Mises décrit l'humain comme un improvisateur de jazz, pas un métronome. Hayek décrit un orchestre sans chef qui joue en harmonie. Kirzner décrit l'entrepreneur qui entend la note manquante et qui la joue. Schumpeter décrit le renouvellement perpétuel de la mélodie. C'est vivant. C'est beau. C'est imprévisible. C'est l'inverse de la planification. Maintenant l'AGI arrive. Le plus grand amplificateur de l'histoire. Et un amplificateur ne corrige pas la musique. Il l'amplifie. Partition harmonieuse + AGI = symphonie cosmique. Énergie quasi gratuite. Maladie en recul. Des nouveaux Mozart et des nouveaux Tesla à la pelle. Pas parce que l'IA remplace le génie. Parce qu'elle enlève les frictions qui l'empêchaient de s'exprimer. Partition dissonante + AGI = cacophonie à la vitesse de la lumière. 57% de dépense publique optimisé par l'AGI c'est pas de la meilleure redistribution. C'est un trou noir bureaucratique accéléré. L'Antéchrist amplifié par l'AGI, c'est la médiocrité qui gagne à l'échelle industrielle. Pas par la guerre. Par l'optimisation du grincement. La sortie c'est pas la révolte. La révolte c'est du bruit supplémentaire. La sortie c'est l'harmonie. Supprimer les fausses notes. Libérer l'orchestre. Laisser chaque humain jouer sa note. L'Antéchrist prospère quand la fausse note est noyée dans le bruit. Il meurt quand chaque note est entendue. Rendons la planète audible. Et les artistes arrêteront de mourir.
Brivael - FR tweet media
Français
5
15
65
12K
Val Zudans MD
Val Zudans MD@ValZudans·
@BrivaelFr Central planning on steroids… What could go wrong? 🤔
Val Zudans MD@ValZudans

@kimmonismus So “super intelligence” is central planning? 🐂💩 Every socialist ever: i know it failed before every time it was tried, but this is different; it will work this time. Really. 😭

English
0
0
0
38
Brivael - FR
Brivael - FR@BrivaelFr·
Lisez ça attentivement. Parce que derrière les mots rassurants, il y a quelque chose de terrifiant. OpenAI propose : un fonds souverain géré par l'État, une taxe sur les robots, une taxe sur les gains en capital, un filet social massif. Traduit en clair : l'État contrôle la redistribution de la richesse générée par l'IA. La question que personne ne pose : qui contrôle l'IA qui génère cette richesse ? Si la réponse c'est "un petit groupe de personnes dans une entreprise à San Francisco", alors tout le reste est du décor. Peu importe le fonds souverain. Peu importe la taxe robot. Celui qui contrôle l'ASI contrôle tout. Le fonds, la taxe, la redistribution, les règles du jeu, tout. C'est le plus grand risque de concentration de pouvoir de l'histoire humaine. Pas un gouvernement. Pas un dictateur. Une entreprise privée qui détient une intelligence supérieure à celle de l'humanité entière et qui demande gentiment au gouvernement de redistribuer les miettes. Sam Altman vous dit "il faut un New Deal pour l'IA". Ce qu'il ne dit pas c'est que dans ce New Deal, OpenAI est assis des deux côtés de la table. Il produit la richesse ET il conseille le gouvernement sur comment la distribuer. C'est comme si Rockefeller avait écrit les lois antitrust. Ce que je veux : L'ASI doit être open source. Pas contrôlée par un board de 10 personnes. Pas dépendante d'un deal avec Microsoft. Ouverte, auditable, accessible à tous. C'est pour ça que xAI et Grok existent. C'est pour ça que la concurrence est vitale. L'ASI ne doit pas être couplée à un État redistributeur. L'État qui contrôle la redistribution de la richesse IA aura un pouvoir sans précédent sur chaque citoyen. Si ton revenu dépend d'un fonds souverain alimenté par l'IA, celui qui gère le fonds décide si tu manges ou pas. La liberté individuelle doit rester le principe premier. Pas la sécurité. Pas l'égalité. La liberté. Parce que sans liberté, la sécurité devient une prison et l'égalité devient de l'uniformité. Chaque fois qu'un CEO qui contrôle une technologie transformatrice vous dit "faites-moi confiance, l'État va redistribuer", demandez-vous une seule chose : qui contrôle le bouton off ? Si c'est pas vous, c'est contre vous.
Chris@chatgpt21

🚨 SAM ALTMAN JUST REVEALED THE BLUEPRINT FOR ASI Sam Altman just went on record with Axios to drop the most accelerationist warning we've ever seen. OpenAI isn't just building towards AGI anymore they have officially updated their messaging to declare a "transition toward superintelligence." Altman is explicitly warning of imminent, world-shaking cyberattacks, social upheaval, and machines humanity can't control. The economic disruption will be so severe that OpenAI is literally begging Washington to wake up and implement a "New Deal" for the AI era. Here are the 6 radical ideas OpenAI just proposed in their official blueprint to keep society functioning: • A Public Wealth Fund: A national sovereign fund seeded by AI companies to distribute AI-generated wealth directly back to citizens. • Robot Taxes: Taxing automated labor and corporate AI earnings to offset the massive, imminent job disruption. • Higher Capital Gains Taxes: Hiking taxes on top earners to fund the transition and redistribute the concentration of AI wealth. • The Four-Day Workweek: Incentivizing a 4-day workweek with no loss of pay to share the massive efficiency gains directly with the workers. • Universal AI Access: Treating basic AI access (Universal Basic Compute) as a fundamental human right, just like electricity or literacy. • A Rapid Social Safety Net: Massively expanding unemployment benefits, Medicaid, and Social Security for the workers permanently displaced by AI. The CEO of the most powerful AI lab in the world is telling the government that the coming disruption will be on the scale of the Great Depression. I think we ought listen.

Français
35
57
190
18.2K