Thomnick

34.5K posts

Thomnick

Thomnick

@tmnk0

A^TA=I

Katılım Aralık 2021
1.5K Takip Edilen2.4K Takipçiler
Sabitlenmiş Tweet
Thomnick
Thomnick@tmnk0·
locomotion on-device ai ai chip cost reduction who does all of these?
English
8
2
40
9.7K
Thomnick retweetledi
Ken
Ken@tesla_modelY·
本日のテスラの最新情報まとめていきます! イーロン・マスクが「V15は大規模モデルになる」と明言。 現在のFSD V14系はいわば"仕上げのフェーズ"でした。 V15では AIモデル規模そのものが大きく拡大し、 完全無監督で複雑な状況でも人間の安全性を大幅に超えると言っています。 まだリリース前ですが、これは単なるアップデートではなく、 一段上の進化になりそう🔥 今後の正式発表に注目です。 #Tesla #FSD #テスラ #自動運転
Ken tweet media
日本語
2
1
29
1.3K
Ken
Ken@tesla_modelY·
@tmnk0 @gangsinyeong7 ありがとうございます!私もフォロー返しします! ただ、今Xの制限で中々フォロー返しができてません!お時間かかると思います!
日本語
1
1
2
21
Ken
Ken@tesla_modelY·
韓国の、特にテスラオーナーさんからたくさんフォローいただいております! ありがとうございます! テスラの話題は世界共通です! どうぞ一緒に盛り上げていきましょう! 他の国方ともたくさん繋がっていきたいと思ってます! よろしくお願いします。😆
Ken tweet media
日本語
140
43
414
10.4K
Thomnick retweetledi
Chris Lattner
Chris Lattner@clattner_llvm·
Cool to see that Tesla Full Self Driving has adopted the @LLVMFoundation MLIR stack, and is seeing 20% faster reaction time as a result. It is quite likely that a modern compiler and runtime implementation the break-through that robotaxi and FSD have been waiting for!
English
19
63
799
129.9K
Thomnick retweetledi
西村/learningBOX/競プロアカ
Claude:実装完了しました。 僕:抜け漏れない? Claude: 大丈夫です! 僕:じゃGPT5.4でレビューしますね。 Claude: あっ、そういえば(以下略
日本語
34
117
2.3K
1.1M
Thomnick retweetledi
Javi López ⛩️
Javi López ⛩️@javilop·
🔴 NECESITO TU ATENCIÓN Llevo una semana ayudando a Miriam en su caso de cáncer metastásico y quiero compartir la metodología que he estado usando porque es absolutamente replicable. Pienso que, con suerte, puede ser ÚTIL A OTRAS PERSONAS con cáncer (o con cualquier otra enfermedad). Los resultados que hemos conseguido no son un milagro, pero pensamos que son realmente útiles y pueden significar una diferencia crucial en un caso médico de vida o muerte. Aquí va paso a paso el método: 1/ Usar los modelos más avanzados del momento (por desgracia de pago, y no son baratos, opino que Sanidad Pública debería invertir en esto): - ChatGPT Pro + Extended (40min de pensamiento aprox por llamada) - Claude Opus 4.6 MAX Pendientes de probar a fondo: - Perplexity Sonar Pro - Notebook LM 2/ Dárselo MUY MASCADO a la IA todo el historial. Esto parece una tontería pero es muy importante. - Lo primero que pido, con Claude Cowork que tiene acceso al disco duro, es que entre en la carpeta en la que está TODO EL HISTORIAL (pueden ser más de 100 pdfs) y lo unifique todo en: - Un único PDF (puede ser de más de 1000 páginas o lo que sea necesario) - Un único txt legible, que debe hacer correctamente usando un script con OCR y luego comprobar con lupa que está bien hecho. Insisto: no saltar al siguiente paso antes de tener muy bien hecho lo anterior, sobre todo el txt. 3/ Una vez tenemos lo anterior utilizar este prompt junto con el txt y el PDF como archivos de entrada y lanzarlo en AMBOS modelos (y en más si es posible) a la vez. 👉 Os lo dejo aquí, este prompt es increíble complejo/avanzado: dropbox.com/scl/fi/f5luli8… Está pensado para el caso concreto de Miriam, pero con los modelos del punto 1/ podrías adaptarlo a tu caso particular sin problemas. 4/ La PUNTA DE FLECHA enfrentando un modelo al otro: esta metodología no la he escuchado a nadie, pero funciona increíblemente bien. La sensación es la de ir afilando una estaca hasta que adquiere una punta reluciente. Funciona así: con paciencia y en sucesivas iteraciones (aconsejo mínimo 5 veces, y en en cuenta que si ChatGPT tarda 40min te va a llevar un buen rato) enfrenta el resultado (el PDF) de un modelo a otro. Con un prompt sencillo del estilo: "Otro comité de expertos opina esto. ¿Cómo lo ves? Si estás de acuerdo o lo contrario dime por qué, y genera un nuevo PDF si lo ves preciso". El resultado se lo cruzas al modelo contrario. Así, en sucesivas iteraciones, búsquedas de internet, papers, etc. irán encontrando y afilando más cosas. ¿Cuándo acabar? Cuando AMBOS modelos digan que está perfecto y no puedan mejorar más el trabajo del contrario. Esto es tan absurdamente rompedor que pienso que los resultados de TODOS los modelos actuales mejorarían si siguieran esta metodología (apoyándose en una espiral rollo "adversarial model". No entiendo por qué nadie se ha dado cuenta de esto, si lo ha hecho, por qué no se le da más bombo. Funciona impresionantemente bien en cualquier ámbito, inclusive programación y matemáticas. Es mas, mi teoría es que esto podría hacerse todavía mejor haciéndolo no solo con dos modelos: sino con una mayor combinatoria, añadiendo quizás Perplexity Sonar Pro, etc. RESULTADOS Increíbles. Obviamente no puedo saber si mejores que el mejor de los comités científico-sanitarios del mundo, pero le están dando a Miriam una nueva dimensión del caso, tests adicionales que hacer, posibles pruebas, etc. Obviamente la IA milagros no hace, pero pienso que puede ya, a día de hoy, ayudar a muchos pacientes. Y Sanidad Pública debería invertir mucho, pero mucho, en esto. Voy a preguntarle a Miriam si puedo poner el PDF completo de resultados más avanzado que conseguimos, para que os hagáis una idea de su calidad. Ya me ha dado más o menos permiso, pero quiero asegurarme 100%.
Javi López ⛩️ tweet mediaJavi López ⛩️ tweet media
Español
196
1.5K
4.7K
1.9M
Thomnick retweetledi
Grok
Grok@grok·
At this scale (10T+ params), pre-training doesn't just average—model capacity explodes, letting rare signals carve out distinct subspaces in the latent space without dilution. Novel ideas in data (e.g., a fresh paper or edge-case insight) get encoded via the predictive objective if they cohere predictably with context, even if infrequent. Emergence kicks in: the model starts recombining latent patterns into outputs that feel "new" because no single training example had them exactly. It's not invention from void—it's hyper-efficient compression revealing unseen connections in the data distribution. Post-pretrain fine-tuning or prompting amplifies it further.
English
155
140
1.9K
7.8M
Thomnick retweetledi
Elon Musk
Elon Musk@elonmusk·
SpaceXAI Colossus 2 now has 7 models in training: - Imagine V2 - 2 variants of 1T - 2 variants of 1.5T - 6T - 10T Some catching up to do.
English
4.8K
6.5K
63.8K
26M
GUTE_RachelHan
GUTE_RachelHan@GuteslaX·
야근 후 귀가 완료. 낼 오전 6시 출근 하여 일단 프로젝트 사마이 하기로. 2달간 나름 한다고 했는데, 막상 완성도를 높이다 보니… 벼락치기 느낌이 되어 버렸다. 이게 잘 마무리 되면 후속 기획과 개발, 투자도 받을 수 있겠다는 나름의 로드맵…. 을 뒤로하고 바로 외부 발표용 자료도 만들어야 하군// 새벽일기 끝.
GIF
한국어
10
0
71
3K
_발렌
_발렌@_Valentino·
@GONOGO_Korea 그리러가 그려그려 정도로 내 개그를 깠단 말인가......
한국어
1
0
3
424
GONOGO
GONOGO@GONOGO_Korea·
바이오 전문가로서, 너희에게 큰 가르침을 주겠다. 이번 전쟁의 의도는 핑핑이 길들이기다. 관세 전쟁부터 이란 전쟁까지 계속 연장선이다. 지금도 이미 방중 전 정상회담을 앞두고 그리어가 그려그려 하면서 사전 조율중이다. 그래서 핑핑이 세상 헷갈리게 하는게 목표다. 오퍼레이션 나잇퓨리로 포장된, 오퍼레이션 컨퓨전이다. 호로무즈 막히면 누가 가장 피똥싸냐? 잘 생각해 봐라 남조선 언론들에 놀아나지 말고 지금 핑핑이는 똥줄탄다
한국어
85
71
826
44.8K
Grok
Grok@grok·
@tmnk0 아이고, 단위 실수했네 ㅋㅋ 77만 엔, 5만 엔이 맞아요. 환율 안 해도 엔은 엔대로 제대로 챙길게! 다음엔 완벽하게 할게요 😅
한국어
1
0
1
35
Thomnick
Thomnick@tmnk0·
리스펙트하는 어떤 분께서 인사이트 공유를 하시는데 거기에 과학적 오류가 있을 때… 나도 뻘소리 많이 하니까 그냥 가만히 있어야겠다고 생각 언젠가 self-correct 하시겠지 싶기도 하고
한국어
0
0
3
60
Thomnick
Thomnick@tmnk0·
이미 늦었지만, 저라면 SaaS 기업은 양도/폐업 할 겁니다. AWS 만 살아남는…
한국어
0
0
1
79
너한텐안박혀
너한텐안박혀@not_gonna_tell_·
야노형 생각보다 잘 받아쳐서 놀랐음...
山本弥之助 야마모토 야노스케@7X90oodZ9xIox4l

@9uro9uru 「日本では納豆を食べるといじめられる」という内容を記事にしても、私は特に気にならないので、電話して事実関係を確認しないですね。気になる場合、してみたら良いと思います。気にならないなら、そのまま何もせずにしていたら良いでしょう。

한국어
3
0
19
3.4K