nob

7.5K posts

nob banner
nob

nob

@nobstrong

The world is made up of someone else's work. So I'm interested in products, services, technology and productivity-enhancing techniques.

Beigetreten Aralık 2007
974 Folgt759 Follower
nob retweetet
Andrej Karpathy
Andrej Karpathy@karpathy·
LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.
English
1.5K
3.2K
29.6K
6M
nob retweetet
Satya Nadella
Satya Nadella@satyanadella·
We’re bringing our growing MAI model family to every developer in Foundry, including … · MAI-Transcribe-1, most accurate transcription model in world across 25 languages · MAI-Voice-1, natural, expressive speech generation · MAI-Image-2, our most capable image model yet Start building: microsoft.ai/news/today-wer…
GIF
English
175
254
1.6K
167.6K
nob
nob@nobstrong·
サーバーとクライアントのClaude Codeがお互いの作業を連携するための、かんばん方式のMCPツールです。 github.com/nob-git-dev/dg…
日本語
0
0
0
39
nob
nob@nobstrong·
@zenjinishikawa GroqはNPUとも違うんでしょうか? 今後、民生品(RTX系)でも搭載されるような技術なのかすごく興味があります。
日本語
0
0
1
23
西川善司
西川善司@zenjinishikawa·
テクノエッジ誌での新連載「歌うテックニュース」向けの新曲 記事自体は明日以降に AIチップなどとも呼ばれるAIアクセラレータの歌です。 データが星々だとすると、AIアクセラレータはそこを走り抜けていく銀河鉄道みたいなイメージかな…とそのあたりを意識して作詞しました youtu.be/N4mjY3I2m-w
YouTube video
YouTube
日本語
2
3
17
5.8K
nob retweetet
Maxwell
Maxwell@mvxvvll·
@npmjs @GHSecurityLab there is an active supply chain attack on axios@1.14.1 which pulls in a malicious package published today - plain-crypto-js@4.2.1 - someone took over a maintainer account for Axios
English
60
410
1.5K
1.9M
nob
nob@nobstrong·
Gemini 3.1 Proが登場して40日で、Qwen3.5 omniが追いついてきています 日本もせめて半年から1年遅れでついていけるようにしないと、どんどん引き離されちゃいますよね Generic AI をちゃんと作っていかないと qwen.ai/blog?id=qwen3.…
日本語
0
0
0
26
nob
nob@nobstrong·
@gta_gta6 @iwiwi @SakanaAILabs めちゃくちゃ長く思考するエージェントができたら、この名前をつけて欲しいかも。 竜宮城に行って帰ってきたら何年も経っている的な
日本語
0
0
1
182
リブ
リブ@gta_gta6·
@iwiwi @SakanaAILabs リュウグウノツカイを使って欲しい 名前がかっこいいから 以前に使われたかどうかはわからないけど🫥
リブ tweet media
日本語
2
0
12
24.8K
Takuya Akiba
Takuya Akiba@iwiwi·
本件、個人的にとても反省しております。 Sakana AIでは魚に関連した日本語をプロジェクト名に利用する慣習があります。本プロジェクトについて初期に暫定的につけた名前がNamazuでした。その後、リリースに当たって様々な正式名称案を広く検討しましたが、商標調査・人気投票・ステークホルダー間の 議論等の過程を行き来し(これはとても難航しました)、最終的にNamazuだけが候補に残りました。恥ずかしながら、我々の大部分は全文検索システムNamazuを存じ上げておりませんでした。会社全体がNamazuという名前でリリースされることを数ヶ月前から認識していましたが、名前について懸念する声は上がりませんでした。 今回の指摘を受けて、個人的にも改めて調査をさせて頂きました。世代的なギャップもあり、最初はピンと来なかったのですが、全文検索システムNamazuは90年代後半から日本のウェブを支えた重要な存在であることをやっと実感することが出来ました。また、大きな感銘を受けたのが、作者の高林哲さんについて知ることが出来たことです。私は技術書をじっくり読むのがとても苦手な性格をしており、ちゃんと読んだ認識のある技術書は多くありません。高林さんは、そんな私が何度も開いた数少ない思い出の技術書の1つ「Binary Hacks」の著者でもある、ということを今更ながら知るとともに、敬意・感謝・申し訳なさがとても強まりました。(Binary Hacksに関する私の2024年のポスト: x.com/iwiwi/status/1… ) 高林さんに直接ご相談し、名称変更の覚悟も含めてお詫びを差し上げたところ、名称は問題視せず、また身に余る応援のお言葉を頂きました。自分の至らなさを反省するとともに、今後も精一杯頑張ります。
Sakana AI@SakanaAILabs

【新LLMシリーズ「Namazu」の名称について】 先日、公開した Sakana Chat(chat.sakana.ai)に搭載した新LLMシリーズ「Namazu」の名称に関して、1990年代から2000年代にかけて広く親しまれた全文検索システム「Namazu」を想起される皆様から、貴重なご意見をいただきました。 全文検索システムNamazuは、日本語全文検索の礎を築いたシステムです。Sakana AIではNamazuの命名に際して商標等の法的な確認は行っていたものの、この分野の歴史的背景に対するリサーチが不足しておりました。 ご指摘を受け、全文検索システムNamazuの作者である高林様へ当社からご連絡差し上げ、経緯のご説明とともに、名称について相談いたしました。高林様からは、名称の使用をご快諾いただいたのみならず、「Namazuの発展に期待している」という旨の激励のお言葉を頂戴いたしました(私信のため大意のみ)。 偉大な先達が築き上げたその名に相応しいものとなるよう、今後の開発に取り組んでまいります。

日本語
42
1K
4.6K
1.4M
nob
nob@nobstrong·
ちなみに、1セッションしかリモートにできないですよね? 内容に合わせてセッションを分けてリモートにしようとすると、いつの間にか先に設定していた接続が途切れているような気がしています。 ちゃんと検証できていないので仕様通りの挙動なのかは分からないのですが、 1. 時間経過によってセッションが切れているのか 2. 複数のセッションを張ろうとしているから切れているのか そのあたりの原因がいまいちよく分からないんですよね。
日本語
0
0
0
16
nob
nob@nobstrong·
@drikin 同じ目に遭ってます🫩
日本語
2
0
2
319
プロ散財家 どりきん
Claude Code Remote Controlってサーバー側で定期的にコマンド再起動しないと繋がらなくなるの常識ですか?僕だけ?!
日本語
1
0
12
4.6K
nob
nob@nobstrong·
ショウジョウバエのニューロンをコピーしてシリコン=プログラムで再現した研究がある ニューロンの仕組みを模して作ったのではなく、個体の構造をコピーした凄い研究 人間のニューロンもマッピングできたら、犯罪を犯す人か否かがわかってしまうのか? なんかそんなアニメなかった?
日本語
0
0
0
24
nob retweetet
かめ@日本一のAI講座/コミュニティ"DataScienceHub"やってます
もう何年も前から言ってるけど、統計学や機械学習、深層学習がちゃんとわかって実装できる人ってそんないないのよ、、、 数式レベルで理解できて実装できるだけで年3000万は普通にいけると思う
日本経済新聞 電子版(日経電子版)@nikkei

数学はもうかる AI時代の人材争奪戦、アメリカで平均年収2400万円 nikkei.com/article/DGXZQO… AIは線形代数や微積分、三角関数など基礎数学の組み合わせ。 数学人材の重要性が増す一方、日本の博士号取得者はアメリカの1割以下で、企業就職もわずかです。

日本語
16
137
1.2K
198.6K
nob retweetet
Nobi Hayashi 林信行
Swift、Android正式対応へ――越境する言語の現在地 SwiftがAndroidを公式サポート。 Swift 6.3においてAndroid向けSDKが正式対象へ昇格 9to5google.com/2026/03/28/swi… •SwiftでAndroidネイティブアプリ開発が可能 •Java/Kotlinとの相互運用 •Swift 6.3で公式サポート扱い ちなみに2025年10月から実験的にAndroid SDKは提供されていました。 Apple系OS専用からクロスプラットフォーム対応のSwift - ロジック共通化(Swift)+UI分離(各OS) - 現実的クロスプラットフォーム戦略 やReact NativeやFlutterとは異なる系譜。ネイティブ実行志向が鍵。 ただし現状は過渡期 •SwiftUI未対応 •環境未成熟 •Kotlin主導は維持
日本語
8
144
556
56.7K
nob retweetet
クロヒョウ
クロヒョウ@chiruota34·
すごいわー ピストンの速さも変更可能
日本語
79
2.7K
21.3K
1.2M
nob
nob@nobstrong·
@GOROman え? 私のならないな updateしたみたけど。。。
日本語
0
0
0
25
nob retweetet
Parker Kligerman
Parker Kligerman@pkligerman·
Pro Motorsport: Spends billions over the last 50 years on safety advancements Vintage racers at goodwood: that’s cute
English
226
1.3K
30.7K
1.9M
nob retweetet
HiMorishige
HiMorishige@_himorishige·
NVIDIA Developers Forumでも話題になっていたので、現時点でどれくらい使えるのか調べてみました✍️ TurboQuant と RotorQuant を DGX Spark で試してみた dev.classmethod.jp/articles/dgx-s… #DevelopersIO
日本語
0
26
61
15.5K
nob
nob@nobstrong·
こんな目次だったみたい。 今だったら、シミュレーション技術とか、熱交換のジュール、みたいな項目もできそう。楽しそうだな 目次(章立て) F1ってなんだろう? 新幹線よりも速い!! オリンピックと同じ大きな大会! 世界中のセレブがやってくる F1は世界一の自動車レース! 算数 国語 理科 社会 ファクトリー 体育 図工 音楽 給食 図書室
日本語
0
1
1
1.3K
米家 峰起 Mineoki YONEYA
2026年の最新版を作りたいですね。 当時、全国2万3000校の小学校に無償で配布された『F1の教科書』。自分が子供の頃にF1が大好きだった気持ちを思い出しながら、子供がワクワクするような夢をいっぱいに詰め込んだ1冊です。 10年後、20年後に価値が生まれる活動に賛同してくれたトヨタさんは、2009年に撤退しても間違いなく次世代のF1ファン、モータースポーツファンを生み出すことに貢献しています。 今すぐに結果に繋がらなくても、数字という結果には見えづらくても、真の意味で次世代に向けた価値ある活動。今のご時世、なかなか難しいでしょうかね・・・ #f1jp
Takuma@TakumaRacing

小学校の頃狂ったように読んでた本に再会して感動😭 F1は5教科だけでなく、副教科も学べる素晴らしい教材なのです! 全国の小学校で『F1』を必修にしましょう!笑 P.S. この本の監修、F1ライフの米家さん(@m_yoneya )やったのさっき初めて知った😳 #f1jp

日本語
12
162
1.5K
121.8K