Joao

5.2K posts

Joao banner
Joao

Joao

@jlsan92

Katılım Haziran 2010
226 Takip Edilen322 Takipçiler
Joao
Joao@jlsan92·
@Juliococo @TheMercuryal @HSB773 Chequia es una gema oculta en la Europa “multicultural”. No por accidente, los checos saben preservar su vaina…
Español
0
0
0
20
Julio Jiménez Gédler 🇻🇪
@TheMercuryal @HSB773 De yo vivir en otro país, que nunca lo he pensado, creo que solo Dominicana y Chequia son buenos destinos para mí. Chequia es un país infravalorado cultural y económicamente.
Español
2
0
4
335
Joao retweetledi
Julio Jiménez Gédler 🇻🇪
He leído acá algunas críticas, sarcasmos e insultos contra los jóvenes que manifestaron ayer. Me resultó cruel, desagradable e injusto. No solo por el contexto, sino que está generación nunca se había manifestado. En 2017 tenían 12-8 años, en 2014 7-3 años, en 2010 estaban recién nacidos. Los conozco, los entiendo, son de la edad de mis hijos y para nada piensan y sienten como yo, ni como las generaciones anteriores. Están definidos por cánones diferentes. Salir hoy a juzgar a la generación Z en Venezuela es de una ignorancia contextual solo justificable por el quiebre emocional de personas de generaciones anteriores. Sus formas, sus métodos o sus palabras son de ellos y no tienen porqué gustarme a mí. Para mí lo VALIOSO es que atrevieron y ahora salen unos cagalitrosos a vomitar. Lo táctico/estratégico es otra cosa y que tal vez no lo tuviesen, hoy puede ser lo mejor porque sería la comprobación de que nadie les está dando órdenes. La juventud es el derecho sagrado a equivocarse haciendo para madurar. Joven venezolano, de pana, no le pares bola a los culo roto 🙏🏼
Español
109
984
3.8K
77.9K
Joao retweetledi
Gonzalo Himiob S.
Gonzalo Himiob S.@HimiobSantome·
UNA BREVE NOTA PERSONAL A los queridos y respetados amigos de la prensa. Espero que este comentario sea recibido con buena fe, no como una crítica negativa, sino como las palabras de un amigo que les respeta y valora profundamente su trabajo. Gonzalo Himiob Santomé 16/01/2026
Gonzalo Himiob S. tweet media
Español
50
911
2K
82.2K
Joao retweetledi
Luis Carlos 🏴‍☠️ One Piece
A los liberados italianos no les prohibieron hablar, como han hecho con los españoles excarcelados en Venezuela. El relato de los dos presos italianos liberados en Venezuela: “Era peor que Alcatraz, 14 meses durmiendo en el suelo con cucarachas” archive.ph/iyQlI
Español
43
2.2K
3K
83.2K
Alex Pérez.
Alex Pérez.@honordetigre·
¿Un hábito que mejoró enormemente tu salud mental?
Español
1.4K
159
4.7K
1.4M
Joao retweetledi
YO SOY 🇻🇪🇺🇸✈️
YO SOY 🇻🇪🇺🇸✈️@ElGanadorHenry·
🇻🇪🚨SE PERDIÓ EL MIEDO ! líderes estudiantiles de la UCV, se acaban de jugar la vida sin miedo al éxito! Y exigiendo a Diosdado la liberación de todos los presos políticos y que se avance con una verdadera transición democrática.
Español
138
5.7K
17.3K
188.6K
Joao retweetledi
J.K. Rowling
J.K. Rowling@jk_rowling·
If you claim to support human rights yet can’t bring yourself to show solidarity with those fighting for their liberty in Iran, you’ve revealed yourself. You don’t give a damn about people being oppressed and brutalised so long as it’s being done by the enemies of your enemies.
J.K. Rowling tweet media
English
19.8K
92K
387.1K
15.9M
Joao
Joao@jlsan92·
When Free Venezuela, Free Iran? Ah, shit true, when the “international law” is involved, we forget about oppressed people.
English
0
0
0
38
Joao retweetledi
Alfredo Romero
Alfredo Romero@alfredoromero·
#10ene 9:30am Lamentablemente no ha habido más excarcelaciones de presos políticos en Venezuela. Solo 9 desde 8 de enero. Quedan 811. Unfortunately, there have been no further releases of political prisoners in Venezuela. Only nine since Jan. 8. There are 811 remaining.
Alfredo Romero tweet mediaAlfredo Romero tweet media
Español
91
2.4K
2.8K
100.1K
Joao retweetledi
Alfredo Romero
Alfredo Romero@alfredoromero·
3:00pm Hasta ahora sólo 9 excarcelaciones de presos políticos se han producido desde el 8 de enero. Quedan 811 presos políticos en Venezuela
Alfredo Romero tweet mediaAlfredo Romero tweet media
Español
66
2.4K
2.5K
88.7K
Joao
Joao@jlsan92·
@ForoPenal @alfredoromero Alguien tiene la data en digital? Estoy dispuesto a construir una pagina web publica donde la gente pueda revisar el progreso de los liberados.
Español
0
0
0
16
Joao retweetledi
New York Post
New York Post@nypost·
Pro-Maduro motorcycle gang, ‘Colectivos,’ hunting for Trump supporters in Caracas trib.al/1zB8SoA
New York Post tweet media
English
1.8K
2.7K
11K
2.5M
Joao retweetledi
Michael Welling
Michael Welling@WellingMichael·
#Venezuela A lot of talk about the armed militias of Maduro called “Colectivos” …below is a short description for the English readers👇
Michael Welling tweet media
English
91
1.7K
3K
109.3K
Joao
Joao@jlsan92·
@Juliococo Sí, Starlink es un arma en este caso.
Español
0
0
1
562
Lúcás
Lúcás@lgrodev·
@beginbot I use Pinecone, which is good, but separating my vector/embeddings from my database is challenging. I want vectors integrated with my data.
English
13
1
67
20.6K
beginbot 🃏
beginbot 🃏@beginbot·
whatever happened to Pinecone raised $100M 2 years ago and I haven't heard a dev mention them since is the vector DB grift over?
beginbot 🃏 tweet media
English
109
8
926
226.2K
Joao retweetledi
Brian Roemmele
Brian Roemmele@BrianRoemmele·
IT FREAKING WORKED! At 4am today I just proved DeepSeek-OCR AI can scan an entire microfiche sheet and not just cells and retain 100% of the data in seconds… AND Have a full understanding of the text/complex drawings and their context. I just changed offline data curation!
Brian Roemmele tweet media
Brian Roemmele@BrianRoemmele

BOOOOOOOM! CHINA DEEPSEEK DOES IT AGAIN! An entire encyclopedia compressed into a single, high-resolution image! — A mind-blowing breakthrough. DeepSeek-OCR, unleashed an electrifying 3-billion-parameter vision-language model that obliterates the boundaries between text and vision with jaw-dropping optical compression! This isn’t just an OCR upgrade—it’s a seismic paradigm shift, on how machines perceive and conquer data. DeepSeek-OCR crushes long documents into vision tokens with a staggering 97% decoding precision at a 10x compression ratio! That’s thousands of textual tokens distilled into a mere 100 vision tokens per page, outmuscling GOT-OCR2.0 (256 tokens) and MinerU2.0 (6,000 tokens) by up to 60x fewer tokens on the OmniDocBench. It’s like compressing an entire encyclopedia into a single, high-definition snapshot—mind-boggling efficiency at its peak! At the core of this insanity is the DeepEncoder, a turbocharged fusion of the SAM (Segment Anything Model) and CLIP (Contrastive Language–Image Pretraining) backbones, supercharged by a 16x convolutional compressor. This maintains high-resolution perception while slashing activation memory, transforming thousands of image patches into a lean 100-200 vision tokens. Get ready for the multi-resolution "Gundam" mode—scaling from 512x512 to a monstrous 1280x1280 pixels! It blends local tiles with a global view, tackling invoices, blueprints, and newspapers with zero retraining. It’s a shape-shifting computational marvel, mirroring the human eye’s dynamic focus with pixel-perfect precision! The training data? Supplied by the Chinese government for free and not available to any US company. You understand now why I have said the US needs a Manhattan Project for AI training data? Do you hear me now? Oh still no? I’ll continue. Over 30 million PDF pages across 100 languages, spiked with 10 million natural scene OCR samples, 10 million charts, 5 million chemical formulas, and 1 million geometry problems!. This model doesn’t just read—it devours scientific diagrams and equations, turning raw data into a multidimensional knowledge. Throughput? Prepare to be floored—over 200,000 pages per day on a single NVIDIA A100 GPU! This scalability is a game-changer, turning LLM data generation into a firehose of innovation, democratizing access to terabytes of insight for every AI pioneer out there. This optical compression is the holy grail for LLM long-context woes. Imagine a million-token document shrunk into a 100,000-token visual map—DeepSeek-OCR reimagines context as a perceptual playground, paving the way for a GPT-5 that processes documents like a supercharged visual cortex! The two-stage architecture is pure engineering poetry: DeepEncoder generates tokens, while a Mixture-of-Experts decoder spits out structured Markdown with multilingual flair. It’s a universal translator for the visual-textual multiverse, optimized for global domination! Benchmarks? DeepSeek-OCR obliterates GOT-OCR2.0 and MinerU2.0, holding 60% accuracy at 20x compression! This opens a portal to applications once thought impossible—pushing the boundaries of computational physics into uncharted territory! Live document analysis, streaming OCR for accessibility, and real-time translation with visual context are now economically viable, thanks to this compression breakthrough. It’s a real-time revolution, ready to transform our digital ecosystem! This paper is a blueprint for the future—proving text can be visually compressed 10x for long-term memory and reasoning. It’s a clarion call for a new AI era where perception trumps text, and models like GPT-5 see documents in a single, glorious glance. I am experimenting with this now on 1870-1970 offline data that I have digitalized. But be ready for a revolution! More soon. [1] github.com/deepseek-ai/De…

English
419
793
7.5K
1.3M
Joao retweetledi
Javier Cañavate #ThePitt #From
Este momento de Kimetsu No Yaiba fue el que lo explotó todo. Es, en la era moderna, lo que fue el SSJ2 de Gohan, Naruto con su transformación sabia, o Luffy haciendo el Gear 2. CINE
Español
226
1.1K
12.4K
511.3K