Q²Ubik

1.5K posts

Q²Ubik banner
Q²Ubik

Q²Ubik

@Partenote

Something always happens.

SVQ Katılım Ekim 2019
96 Takip Edilen61 Takipçiler
Sabitlenmiş Tweet
Q²Ubik
Q²Ubik@Partenote·
The urge to investigate can only be released if you stop pretending you know answers you don't know.
English
0
2
2
0
Q²Ubik
Q²Ubik@Partenote·
@NewsReputation A mí me aparecen como anuncios, señalado en gris, en la esquina superior derecha.
Español
1
0
1
75
Francesc Pujol 🇺🇦
Francesc Pujol 🇺🇦@NewsReputation·
Patético. Ahora Twitter me muestra los tuits patrocinados sin marcar que son publicidad, haciéndolod pasar por cuentas que sigo. Cuando el nuevo propietario dio como una de las razones de compra el mejorar la experiencia de los usuarios con la publi. Ya.
Español
3
3
11
3.2K
Robert ® 
Robert ® @Delnilorobert·
Desayuno con carburantes.
Robert ®  tweet media
Español
31
535
2.2K
46.9K
Q²Ubik
Q²Ubik@Partenote·
@NewsReputation 'Forty' es el primer número en inglés que tiene las letras en orden.
Español
0
0
0
13
Q²Ubik
Q²Ubik@Partenote·
AI lies for sure.
Nav Toor@heynavtoor

🚨BREAKING: OpenAI published a paper proving that ChatGPT will always make things up. Not sometimes. Not until the next update. Always. They proved it with math. Even with perfect training data and unlimited computing power, AI models will still confidently tell you things that are completely false. This isn't a bug they're working on. It's baked into how these systems work at a fundamental level. And their own numbers are brutal. OpenAI's o1 reasoning model hallucinates 16% of the time. Their newer o3 model? 33%. Their newest o4-mini? 48%. Nearly half of what their most recent model tells you could be fabricated. The "smarter" models are actually getting worse at telling the truth. Here's why it can't be fixed. Language models work by predicting the next word based on probability. When they hit something uncertain, they don't pause. They don't flag it. They guess. And they guess with complete confidence, because that's exactly what they were trained to do. The researchers looked at the 10 biggest AI benchmarks used to measure how good these models are. 9 out of 10 give the same score for saying "I don't know" as for giving a completely wrong answer: zero points. The entire testing system literally punishes honesty and rewards guessing. So the AI learned the optimal strategy: always guess. Never admit uncertainty. Sound confident even when you're making it up. OpenAI's proposed fix? Have ChatGPT say "I don't know" when it's unsure. Their own math shows this would mean roughly 30% of your questions get no answer. Imagine asking ChatGPT something three times out of ten and getting "I'm not confident enough to respond." Users would leave overnight. So the fix exists, but it would kill the product. This isn't just OpenAI's problem. DeepMind and Tsinghua University independently reached the same conclusion. Three of the world's top AI labs, working separately, all agree: this is permanent. Every time ChatGPT gives you an answer, ask yourself: is this real, or is it just a confident guess?

English
0
0
0
16
Dukenan
Dukenan@Dukenan16·
Es cierto que en tiempos de IA el periodismo tiene una función fundamental que desempeñar. La pregunta es si unos periodistas que con frecuencia dejan que el activismo se imponga al rigor tienen la autoridad para ejercer dicha función. Algo de autocrítica vendría bien.
Español
2
6
20
599
Daniel Glez-Peña 🇪🇺
Qué pasada es construir software supervisando e interactuado con agentes! El problema es ese complejo de cangrejo en el agua calentándose poco a poco que te entra...
Español
1
1
4
276
Q²Ubik retweetledi
Kiko Llaneras
Kiko Llaneras@kikollan·
"ChatGPT solo es un predictor de palabras". ¿Has oído eso? Es una crítica habitual contra los LLM como ChatGPT o Claude. Suena inteligente; es perezosa. Primero: es una crítica *anticuada*. Predecir el siguiente token describe el pretraining: el modelo ve milmillones de textos y aprende a predecir qué palabra viene después. Pero hace un año que los modelos pasan una segunda fase distinta: reinforcement learning con tareas verificables (RL). Ahí el modelo recibe un problema con solución conocida. Genera intentos ("razona"), recibe señal de acierto/error y ajusta sus parámetros. ¿El resultado? Aprende a resolver problemas por sí solo. DeepSeek lo documentó: sin ejemplos que imitar, adquirió espontáneamente trucos como razonar paso a paso, autocorregirse o explorar alternativas. Todo eso emergió de la presión por obtener la máxima recompensa durante el RL. Segundo: nunca me convenció en general. Decir que "solo predicen" confunde cómo se entrena algo con lo que ese algo es o hace. El símil es Karate Kid 🥋. Se entrena dando cera y puliendo cera… pero de ahí emerge un karateca, no un pulidor de vallas. ¿Otro ejemplo extremo? Los humanos fuimos moldeados por la evolución. ¿Alguien nos definiría como "meros maximizadores de genes"? No. Escribimos poesía, nos sacrificamos por desconocidos. El proceso que nos dio forma no nos define. Los LLM no son omnipotentes. Tienen limitaciones que serán algunas provisionales y otras intrínsecas. Pero es un error —imho— definirlos como "meros predictores". Un entrenamiento simple puede hacer emerger algo distinto y sorprendente. Y eso empuja una pregunta incómoda: ¿qué otras capacidades podrían emerger sin que lo planeemos?
Kiko Llaneras tweet media
Español
16
33
155
19.1K
Q²Ubik
Q²Ubik@Partenote·
@congosto Ni para usted ni creo que para nadie.
Español
0
0
1
24
Mariluz Congosto (@congosto.bsky.social)
Cuando Twitter/X te recomienda que sigas a tu ex-director que sigue tan "singer morning" y vende-humo como antaño. Efectivamente, el algoritmo de X no es para mi
Español
3
1
7
1.2K
Q²Ubik retweetledi
Cliff Pickover
Cliff Pickover@pickover·
Glimpse the past. Electric vehicle. Krieger "Landaulette" automobile, circa 1906. tinyurl.com/43c2hf37
Cliff Pickover tweet media
English
1
6
25
1.8K
Q²Ubik retweetledi
Science Magazine
Science Magazine@ScienceMagazine·
Gone are the days when a football helmet consisted of a simple rigid shell lined with foam padding. Instead, new materials, designs, and technologies enable a modern helmet to flex and deform. Learn more: scim.ag/4a5XMcK @NewsfromScience
Science Magazine tweet media
English
7
45
206
21.6K
Francesc Pujol 🇺🇦
Francesc Pujol 🇺🇦@NewsReputation·
Ostras tú, qué vergüenza lo del Ministerio de Vivienda, cambiando de mes de referencia, nada menos que de agosto a noviembre, para pretender y vender que la dinámica cambia. Qué regalo las Notas de Comunidad, que retratan a los tramposillos. Qué patético que lo sea un Ministerio.
Ministerio de Vivienda y Agenda Urbana@viviendagob

📊 El número de viviendas turísticas registra su mayor caída de la serie histórica: 🔸Descenso interanual del 12,4%, el dato más alto desde que hay registros. 🔸Las viviendas comercializadas en plataformas se redujeron entre mayo y noviembre de 2025 en más de 52.000 unidades.

Español
8
293
725
36.6K
Q²Ubik
Q²Ubik@Partenote·
@Dukenan16 Estos de electomanía empezaron haciendo ruido, con sus frescos y frutales pronósticos de resultados, y ahora hacen "música de acompañamiento".
Español
0
0
1
23
Dukenan
Dukenan@Dukenan16·
Lo de elegir demagogos oportunistas para encabezar la izquierda ya se ha probado y no acaba bien. Necesitamos volver a tener políticos solventes. x.com/electo_mania/s…
EM-electomania.es@electo_mania

‼️Gabriel Rufián 🍋 llevará a cabo una 'gira' con líderes de la izquierda desde el próximo 18 de febrero, según adelanta @laSextaXplica Habría hablado con todo el espectro político a la izquierda del PSOE 🌹 para explorar una candidatura unitaria. 👇 electomania.es

Español
3
14
58
1.2K
Q²Ubik retweetledi
Science Magazine
Science Magazine@ScienceMagazine·
The evolution of the football helmet, a critical safety device, has accelerated in recent years, driven by concerns over the long-term effects of concussions, new concepts and materials, and data-driven test protocols. Learn more this week in Science: scim.ag/4tjrPoI
English
14
36
150
192.8K