Tsubasa Kato

3.8K posts

Tsubasa Kato banner
Tsubasa Kato

Tsubasa Kato

@_stingraze

CEO at Inspire Search Corp. & Curioforce Corp. B20 India '23 Delegate. Building next gen search engine. Perplexity AI Business Fellow https://t.co/wo9M0cNDSL

Japan Katılım Nisan 2020
2.2K Takip Edilen296 Takipçiler
Deeps
Deeps@soulblissX·
@_stingraze All the best for the launch man :)
English
1
0
1
28
Tsubasa Kato
Tsubasa Kato@_stingraze·
Good development time tonight. Will see how the next build will turn out.
English
0
0
0
16
ディープブリザード✨
令和に完動品の「コレ」をついに入手することに成功した魔王 て言うか現物自体初めて見たのである…当時は雑誌でちらっと載ってるくらいしか知らなかったのでジャンクで投げ売りされててダメ元で買ったら動いて嬉しすぎる😭
ディープブリザード✨ tweet media
日本語
18
428
1.5K
189.7K
Tsubasa Kato retweetledi
hardmaru
hardmaru@hardmaru·
A "Neural Computer" is built by adapting video generation architectures to train a World Model of an actual computer that can directly simulate a computer interface. Instead of interacting with a real operating system, these models can take in user actions like keystrokes and mouse clicks alongside previous screen pixels to predict and generate the next video frames. Trained solely on recorded input and output traces, it successfully learned to render readable text and control a cursor, proving that a neural network can run as its own visual computing environment without a traditional operating system. arxiv.org/abs/2604.06425 Cool work by @MingchenZhuge @SchmidhuberAI et al.!
GIF
Mingchen Zhuge@MingchenZhuge

🫱 Introducing 𝐍𝐞𝐮𝐫𝐚𝐥 𝐂𝐨𝐦𝐩𝐮𝐭𝐞𝐫s: 𝐰𝐡𝐚𝐭 𝐢𝐟 𝐀𝐈 𝐝𝐨𝐞𝐬 𝐧𝐨𝐭 𝐣𝐮𝐬𝐭 𝐮𝐬𝐞 𝐜𝐨𝐦𝐩𝐮𝐭𝐞𝐫𝐬 𝐛𝐞𝐭𝐭𝐞𝐫, 𝐛𝐮𝐭 𝐛𝐞𝐠𝐢𝐧𝐬 𝐭𝐨 𝐛𝐞𝐜𝐨𝐦𝐞 𝐭𝐡𝐞 𝐫𝐮𝐧𝐧𝐢𝐧𝐠 𝐜𝐨𝐦𝐩𝐮𝐭𝐞𝐫 𝐢𝐭𝐬𝐞𝐥𝐟? Beyond today's conventional computers, agents, and world models, Neural Computers (NCs) are new frontiers where computation, memory, and I/O move into a learned runtime state. We ask: whether parts of runtime can move inward into the learning system itself. This is our first step toward the Completely Neural Computer (CNC): a general-purpose neural computer with stable execution, explicit reprogramming, and durable capability reuse. Work done with Mingchen Zhuge (@MingchenZhuge), Changsheng Zhao, Haozhe Liu (@HaoZhe65347 ), Zijian Zhou (@ZijianZhou524 ), Shuming Liu (@shuming96 ), Wenyi Wang (@Wenyi_AI_Wang ), Ernie Chang (@erniecyc ), Gael Le Lan, Junjie Fei, Wenxuan Zhang, Zhipeng Cai (@cai_zhipeng ), Zechun Liu (@zechunliu ), Yunyang Xiong (@YoungXiong1 ), Yining Yang, Yuandong Tian (@tydsh ), Yangyang Shi, Vikas Chandra (@vikasc), Juergen Schmidhuber (@SchmidhuberAI)

English
27
87
736
69.5K
Tsubasa Kato retweetledi
むっちゃん
むっちゃん@spmaker·
MacOS用アプリ[MLSharp]を公開します。 MLSharpは、たった1枚の2D画像から、高品質な3D Gaussian Splatting (3DGS)モデルを生成するmacOS向けツールです。 生成した3DGSはもちろん、汎用の3DGS用3Dビューワーとしても使えます。 suto.bex.jp/mac/mlsharp/in…
日本語
7
66
434
36.4K
Tsubasa Kato
Tsubasa Kato@_stingraze·
Quantum Native Dojoを買った!これから勉強する。Bought Quantum Native Dojo book. Will be studying from now. ☺️
Tsubasa Kato tweet media
日本語
0
0
2
46
Tsubasa Kato retweetledi
夢の図書館+マイコン博物館+模ラ博物館(公式) Microcomputer Museum Japan
幻の超合体マシン「ラテカピュータ」が戻ってきました。 角川武蔵野ミュージアムにて開催した「電脳秘宝館・マイコン展」の目玉展示の一つだった「ラテカピュータ」と、大量の貸し出し機材が戻ってきました。 本日から「マイコン博物館」にてご覧いただけます。
夢の図書館+マイコン博物館+模ラ博物館(公式) Microcomputer Museum Japan tweet media
日本語
10
312
906
31K
Tsubasa Kato retweetledi
根来誠 QuEL
根来誠 QuEL@makoto_ne56·
【拡散希望】大阪大学大学院情報科学研究科の協力講座「量子情報システム講座」の指導教員になりました。量子ビットデバイスと量子アルゴリズム(とユーザー)をつないだ「量子情報システム」での博士号を目指す講座になります。興味ある方はDMやメール(HP問合先に)を下さい ist.osaka-u.ac.jp/japanese/resea…
日本語
2
38
88
13.4K
Tsubasa Kato
Tsubasa Kato@_stingraze·
1-bit Bonsai on my M2 Macbook Air. 31.4 t/s for a very simple prompt.
Tsubasa Kato tweet media
English
1
0
0
61
Bongquisitive
Bongquisitive@bongquisitive·
@_stingraze @NVIDIA_AI_PC Great👍 "Its main aim is to predict where to hop to in the next n steps." --seems like a perfect recipe to apply bayesian learning...would be eager to see your results!
English
1
0
1
11
NVIDIA AI PC
NVIDIA AI PC@NVIDIA_AI_PC·
Are you using agents? If so, what are they working on?
English
154
7
352
24.3K
Tsubasa Kato
Tsubasa Kato@_stingraze·
Thanks for asking. We are in the process of mapping the features of each node in the web to a quantum circuit / simulated QRAM. We calculate many variables fast this way. We have scripts to benchmark against normal web crawling algorithms. Its main aim is to predict where to hop to in the next n steps. We are also training an AI so the precious quantum compute time won’t be wasted, but still have similar effects. (Concept done on GPU Qiskit simulation). The first step of running on QPU (IBM Quantum) succeeded. ☺️
English
1
0
1
19
Tsubasa Kato retweetledi
小崎 資広 (KOSAKI Motohiro)
去年の9月にメディアに大きく取り上げていただいた、LLMの 1bit量子化技術を OneCompressionテクノロジーとしてOSS化しました。(URLはリプライに記載します) AI研究者にとっては釈迦に説法ですが、AIの世界ではGPUメモリが足りなさすぎるので、いかにメモリを節約するかというのがキーテクノロジの1つ。最初はふつうにFP32で行列計算していたのが、NVIDIA GPUが2020年のAmpereからBF16サポート、2022年のHopperからFP8サポートと、低精度サポートに進んで来ました。 単に低精度レジスタ使うだけだと計算精度がボロボロになるため、ソフトウェア面の研究も競争が進んでおり、去年の段階で4bitぐらいならまあいけるかなぐらいの世界になっていました。 というところで、富士通が2025年9月に1bit量子化で実用的な精度でるって発表して話題をさらったというのが、ここまでの話。 それで、この技術のキモは1bitで動くことじゃなくて任意のbit数で精度落ちを防ぐところにあるため、 result = estimate_wbits_from_vram(MODEL_ID, total_vram_gb=0.8) みたいにRAMサイズ指定すると、そのRAMに収まるようにいい感じに精度落すところと高精度のままにするところとを調整してくれるAutoBitを新たに搭載、特にEdgeやオンプレなどのGPUのRAMサイズに制約がある環境でLLMを数倍賢くすることが出来ました。 現在、Llama、Qwen3に対応済みです(仕組み自体にはモデル依存性がないため、今後対応モデルは増やしていけるとおもいます) 開発者たちが、パートナーや大学の研究者たちとの連携を加速していきたいのでフィードバック欲しいといっていますので、よければ使ってやってください。 ※ 一応ですが, onecomp だけでいま動かしているGPUの使えるメモリ使用量を算出して, それに合うように量子化が動きます。
GIF
日本語
3
180
542
113.5K
Suni
Suni@suni_code·
I'm ready to invest $20, which one should I get? (Only Serious suggestions.) 1. Claude Code 2. Antigravity 3. Codex 4. Cursor 5. Copilot
English
509
7
515
108.3K