Ceki Gülcü

4.4K posts

Ceki Gülcü banner
Ceki Gülcü

Ceki Gülcü

@ceki

Founder of several Open Source projects, including log4j 1, logback, SLF4J and reload4j. I am not affiliated with log4j 2.

Vaud, Switzerland Katılım Haziran 2008
325 Takip Edilen1.6K Takipçiler
Ceki Gülcü
Ceki Gülcü@ceki·
@nantermod J’espère que mon appréciation du sujet est erronée. Mais à mon avis, c’est l’une des propositions les plus absurdes jamais sorties du Parlement suisse.
Français
0
0
1
129
Philippe Nantermod
Philippe Nantermod@nantermod·
Les Suisses ont accepté l’imposition individuelle. Une réforme attendue qui met fin à une pénalisation fiscale du deuxième revenu et renforce l’égalité réelle entre femmes et hommes. En ce 8 mars, ce vote a une portée symbolique forte. Une avancée concrète pour l’égalité.
Français
7
0
15
1.8K
Ceki Gülcü
Ceki Gülcü@ceki·
Who said "Kardashian 2 or you are not even trying." ?
English
0
0
0
96
Ceki Gülcü
Ceki Gülcü@ceki·
@CertumIter @WesRoth @ylecun To what extent is Yann LeCun aware of the various techniques recently introduced by Grok or Gemini? The state of the art does not stand still.
English
1
0
0
17
Wes Roth
Wes Roth@WesRoth·
Yann LeCun argues that large language models (LLMs) cannot reach human-level or superintelligence just by scaling. He says the current LLM paradigm is hitting its limits. Many researchers are now exploring “agentic systems,” but building them on top of LLMs alone is flawed. LLMs can't plan actions well because they don’t truly understand or predict consequences. To get intelligent behavior, we need something fundamentally different.
English
105
122
718
71.5K
Spencer
Spencer@scotsrule08·
My first safety-related disengagement in months. FSD 14.2.2.4 decided to move into the opposing traffic’s lane to avoid some snow/ice ruts; however, an opposing vehicle was coming, and the vehicle did not move back over, leading me to disengage. Would you have disengaged? @Tesla_AI
English
246
24
919
128.1K
Ross Dixon
Ross Dixon@RossADixon·
@ceki @TeslaBoomerMama @farzyness It would have been plausible had Tesla (Elon, Lars, etc etc) confirmed multiple times that the car was not designed to have a human driving. It would be under braked, under powered / geared and so on.
Edinburgh, Scotland 🇬🇧 English
1
0
0
24
Gad Saad
Gad Saad@GadSaad·
@elonmusk It truly is. Grokipedia is immeasurably better than Wikipedia.
English
10
14
191
7.5K
Ceki Gülcü
Ceki Gülcü@ceki·
@elonmusk Wikipedia had some wrong headed principles and could be hijacked by a mob. Grokipedia's edit rules can also be interpreted as arbitrary. Grokipedia is a less brain dead Wikipedia.
English
0
0
0
33
Ceki Gülcü
Ceki Gülcü@ceki·
@CertumIter oui, UDC menace le référendum. Les verts devraient remercier l'UDC qui les sauve de l'ire du peuple et par conséquent de leur disparition en tant que parti politique.
Français
0
0
0
13
Christophe Alexandre
Christophe Alexandre@CertumIter·
@ceki Ah non pas encore ... le projet définitif va finir en votation, j'imagine ?
Français
2
0
0
25
Christophe Alexandre
Christophe Alexandre@CertumIter·
Leçon à tirer : ✅ porter qq'un sur ses épaules ✅ mousse au plafond ✅ feu de bengale ✅ porter qq'un sur ses épaules + mousse au plafond ✅ feu de bengale + mousse au plafond ✅ porter qq'un sur ses épaules + feu de bengale ☠️ porter qq'un sur ses épaules + feu de bengale + mousse au plafond
Français
2
0
2
266
Ceki Gülcü
Ceki Gülcü@ceki·
@CertumIter Un des amendements adoptés prévoit l'annulation de la clause qui interdit la réparation des chaudières tombées panne. J'ai l'impression que les écolos sont devenus fous et ont pris le contrôle de l'asile.
Français
0
0
1
19
Ceki Gülcü
Ceki Gülcü@ceki·
@elonmusk Are you planning to release a competitor to Claude Code, i.e Grok client, running in a terminal working on a local folder on a specific project?
English
0
0
2
72
Elon Musk
Elon Musk@elonmusk·
This is not even our strongest model
X Freeze@XFreeze

Grok 4.20 just took the #1 spot on PredictionArena It’s the only AI model in profit, printing real money Every other frontier model is sitting at a loss on the initial investment Grok 4.20 is beating top frontier models by a massive gap: Gemini 3.0 Pro, Claude Opus 4.5, and GPT-5.2 Current performance snapshot: • $10,627.40 cash • $11,075.63 account value • $1,075.63 PnL • +10.76% return

English
4.5K
4.1K
40.6K
11.8M
Ceki Gülcü
Ceki Gülcü@ceki·
@CertumIter @VilRaoul Tout dépend comment l'information est ingurgitée. De toute façon, la preuve est dans le pudding: les IA arrivent à répondre à des questions subtiles comme un être doué d'intelligence.
Français
0
0
0
10
Christophe Alexandre
Christophe Alexandre@CertumIter·
Il n'est pas facile d'estimer la quantité d'information intégrée par l'être humain ... Ce qui est sûr, c'est que la quantité phénoménale de documents ingurgitée par les LLM n'est pas suffisante pour leur faire acquérir une capacité de raisonnement même basique. Mais il reste possible que la capacité de raisonnement des humains émerge naturellement d'une quantité d'information bien plus grande encore (via l'héritage génétique, la multiplicité des canaux sensoriels, ...) que celle du corpus d'entraînement des LLM.
Français
2
0
1
197
Raoul
Raoul@VilRaoul·
Les IA ne sont « intelligentes » qu’à la condition d’ingurgiter au préalable une quantité colossale de données sans commune mesure avec ce qu’une intelligence humaine est capable d’absorber au cours d’une seule vie, voire d’une centaine de vie. Il est là, le problème. 1/…
Samuel Fitoussi@SamuelFitouss10

Les grands modèles de langage (LLM, l’architecture qui sous-tend ChatGPT), ne seraient, dit-on, que des simulacres d’intelligence, de simples « perroquets stochastiques » se contentant de régurgiter des fragments recombinés de leurs données d’entraînement. Deux essais passionnants déconstruisent cette critique : Ultraintelligence d’Aymeric Roucher et La Parole aux Machines de Thibault Giraud (alias Monsieur Phi), professeur de philosophie. L’argument du perroquet stochastique est d’abord contredit empiriquement par les progrès spectaculaires des dix-huit derniers mois. Confrontés à des problèmes de raisonnement jamais rencontrés dans leur corpus d’entraînement, les LLM obtiennent désormais d’excellents résultats, démontrant leur capacité à mobiliser des outils logiques pour faire face à un problème nouveau, ce qui correspond à une forme d’intelligence fluide. Comment expliquer cette capacité de généralisation ? [...] Lors de leur entraînement, les modèles de langage ingèrent des volumes de données textuelles colossaux, très supérieurs à ce qu’ils peuvent stocker. Ils sont donc contraints de compresser cette donnée – tout en optimisant leur capacité de restitution cette même donnée. Or la meilleure façon de restituer fidèlement une donnée sans la mémoriser terme à terme consiste à en comprendre la logique génératrice. Que fait un bon élève qui révise le baccalauréat de mathématiques ? Il n’apprend pas toutes les annales par cœur, il cherche plutôt à comprendre la logique sous-jacente à la résolution de chaque problème pour pouvoir, le jour J, répondre à problème inédit. Aymeric Roucher évoque un commentaire de Saint-Exupéry sur Newton, qui, en découvrant la gravitation, a comprimé la complexité du monde en une règle : « La vérité, c’est le langage qui découvre l’universel. Newton a fondé un langage qui put exprimer à la fois la chute d’une pomme dans un pré et l’ascension du soleil. La vérité, c’est ce qui simplifie. » Il est à ce titre intéressant de s’intéresser au comportement d’un modèle entraîné à effectuer des additions modulaires. Tant que le volume de données d’entraînement restait faible, le modèle mémorisait les exemples d’entraînement et restait incapable de généraliser. Mais dès lors que le nombre d’exemples a excédé sa capacité de stockage, il a été contraint de compresser l’information. Pour cela, il a internalisé une représentation équivalente à une fonction trigonométrique, transformant l’addition modulaire en opération de rotation sur un cercle. Bien qu’il n’ait jamais rencontré de trigonométrie dans ses données d’entraînement, le modèle avait reconstruit la structure géométrique régissant le comportement de l’addition modulaire. Il devenait alors capable de réaliser des additions modulaires sur des cas jamais rencontrés durant l’entraînement. On se doute que cet exemple illustre ce que font les LLM dans d’autres domaines. À partir de leur vaste corpus d'entraînement, ils se construisent des représentations abstraites des règles implicites qui structurent notre monde - règles qui ont donné naissance à ces données d'entrainement. En schématisant, si le modèle est entraîné sur des raisonnements mathématiques, il en extrait nos règles de logique (et devient capable de s’attaquer à des problèmes nouveaux, voire jamais résolus) ; s’il est entraîné sur des scénarios de long-métrages, il en déduit les grands principes dramatiques (et devient capable de produire des œuvres nouvelles), etc. On observe d’ailleurs qu’entraîner un modèle sur du code informatique améliore ses capacités à raisonner en langage naturel. En apprenant à programmer, le modèle découvre une structure logique commune au langage et au code, qu’il peut ensuite exploiter transversalement. Les heuristiques que le modèle accumule au cours de son entraînement constituent souvent la matière de notre propre raisonnement. Face à un problème nouveau, nous mobilisons un faisceau d’heuristiques que nous combinons pour atteindre la vérité. C’est pourquoi, à terme, lorsque les modèles seront entraînés sur des volumes de données suffisamment riches et variés (pouvant ainsi internaliser un immense répertoire d’heuristiques, enrichissant leur représentation interne de notre monde), rien ne s’oppose, en principe, à ce qu’ils égalent ou surpassent l’intelligence humaine dans tous les domaines (on parle d'Intelligence Générale Artificielle). L’AGI relèverait alors non d’un changement de paradigme mais d’une montée en échelle des modèles actuels : davantage de données, davantage de puissance de calcul. Certains objectent qu’il est abusif de parler « d’intelligence » et de « raisonnement » pour des systèmes qui fonctionnent en prédisant le mot (et même le sous-mot) le plus probable au regard du contexte qui précède. Roucher et Giraud tordent le cou à cette idée. Prédire correctement le coup suivant d’un bon joueur d’échec implique de « comprendre » les échecs, souligne Giraud ; anticiper la résolution d’un roman policier exige d'avoir saisi la psychologie des personnages et les mécaniques de l'intrigue, note Roucher. Celui-ci rappelle d’ailleurs que dès 2017, des chercheurs d’Open AI ont découvert que la meilleure façon de créer un modèle performant en « analyse de sentiment » (capable de déterminer si un avis en ligne exprime une opinion positive ou négative) était d’entraîner le modèle à prédire le mot suivant dans des avis tronqués. La raison ? Pour réussir cette tâche, le modèle devait développer une compréhension de la psychologie des utilisateurs. La simplicité de l'objectif (prédire le prochain mot) n'empêche pas la complexité du moyen (une forme de compréhension, de raisonnement, ou d’intelligence). Adam Brown, chercheur chez DeepMind, compare ce mécanisme à l’évolution humaine. L’intelligence humaine elle-même est le produit d’un mécanisme aveugle, la sélection naturelle, guidée par une règle simple : maximiser le nombre de descendants viables. Cette règle n’a rien d’intelligente, mais pour la satisfaire, la sélection naturelle a produit des solutions sophistiquées, dont le cerveau humain. De la même manière, pour pouvoir prédire, mot par mot, la suite d’un texte, un modèle d’IA est contraint de développer des représentations internes complexes et d’apprendre à les exploiter de manière transversale - une forme d’intelligence. D’aucuns rétorquent que l’IA ne sera jamais véritablement intelligente car elle est faite de couches de neurones artificiels échangeant des signaux numériques dans des puces de silicium. Mais le cerveau humain n’est-il pas, lui aussi, un assemblage de neurones communiquant par des signaux électrochimiques ? À l’échelle du neurone individuel, qu'il soit biologique ou artificiel, il n'y a pas d'intelligence, seulement un signal mécanique. L'intelligence est une propriété du système, pas de ses composants. Thibaut Giraud consacre des pages incisives à ceux qui, explicitement ou non, postulent un « je ne sais quoi » censé séparer à jamais l’intelligence humaine de toute intelligence artificielle. Le grand avantage du « je-ne-sais-quoi », observe-t-il avec ironie, c’est qu’il dispense précisément de dire ce qu’il est.

Français
4
0
4
15K
Ceki Gülcü
Ceki Gülcü@ceki·
@CertumIter C'est une décision relativement raisonnable. Tu as regardé le projet de loi vaudoise sur l’énergie? J'ai l'impression que nos parlementaires sont des militants écolos déconnectés du monde réel.
Français
1
0
0
14
Uncle Bob Martin
Uncle Bob Martin@unclebobmartin·
As good as claude is, compared to grok, it's still a child. I have to babysit every action and deal with issues at a microscopic level.
English
43
2
134
48.3K
Ceki Gülcü
Ceki Gülcü@ceki·
@unclebobmartin The sentence is confusing. Is Claude a child compared to Grok which is presumably more mature?
English
0
0
0
28
Ceki Gülcü
Ceki Gülcü@ceki·
@CertumIter Pour information, le Canton de Vaud vient d'interdire la pyrotechnie dans les établissements publics.
Français
1
0
1
20
Christophe Alexandre
Christophe Alexandre@CertumIter·
@ceki Oui, mais il a aussi fallu que quelqu'un applique un feu directement sur cette mousse. Bizarrement, on n'en entend pas parler.
Français
2
0
0
19