HELLO CYBERNETICS

24K posts

HELLO CYBERNETICS banner
HELLO CYBERNETICS

HELLO CYBERNETICS

@ML_deep

AI/Data Engineering/Distributed Processingをやっています。 お仕事や個人的なお誘いはDMにて。 ※ HELLO CYBERNETICSのはてなブログは閉鎖しました。 zenn: https://t.co/Ipi5jAWL6y

加入时间 Ekim 2016
763 关注9K 粉丝
置顶推文
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
■今年自分が注力する技術 分散処理システム データエンジニアリング コンテキストエンジニアリング オンライン強化学習 ■意図 構造化/非構造化、バッチ/ストリーミングの多種多様なデータをシームレスに扱い、データとAIの可能性を最大限引き出すための基礎を確立したい。 アプリケーションは各種様々なものが考えられるが、共通となるインフラ層ともいえる部分をしっかり抑えたい。 ■背景 自分はこれまでアルゴリズムを書いたり、データを分析したり、いわゆる科学技術計算を駆使して実問題に取り組むということをしてきた。 その中で、必ずしもそれらに取り組みやすい環境が整っていたとは限らない。むしろ、環境に応じて取りうる選択肢が制限されていたと感じる。共通のインフラを追求することは業界全体にレバレッジが効く仕事だと考えている。 ■意気込み ブログ書くぜ。
日本語
1
7
103
25.9K
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
インフレ下のこの制度は明日は我が身。っていうか社会的な力学としてサラリーマンとして頑張ろうという意欲が社会的に消え、いかに制度上所得が少なく見せて節税するかの戦いに、実態としてなってしまっているよ。
日本語
0
0
1
335
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
2000万円なら月数万の控除いらなくない? って意見あるんだけど、1999万円なら月数万の控除がもらえて手取りが2000万円の人より増えてるのがおかしいという話だよ。 「なんとなく金持ちライン」を400万円にしたらどうなる?数字がおかしい?なんで2000なら良いの?
パコさん@pacosan1111

住宅ローン控除の年収2000万上限マジで撤廃して欲しい。 年収2000万でももう都心ではまともな新築買えません。モデルルームでも相手にされなくなってきてます。 所得税の累進課税で十分でしょ。 多額の税金納めてる人がバカを見るこんな世界線あっても良いのか。

日本語
1
0
4
1.8K
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
年収とか言う数字ではなく、納税額という数字を主体的なラベルにすれば良いんじゃないかな。 納税額1200万円の人と400万円の人と100万円の人的な。
日本語
0
0
0
404
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
嫌な言い方すると、これはそうかも知れませんね。無論、チャットでも電話でも何でも良いので情報をしっかり自分で取って、自分も情報を発信しているのであれば、多分出社しなくても細く言われんと思います。 それを真似して断絶してる人がやりだすハザードが起きないような工夫は必要ですが。
東風谷さずりん@Xatz

これはもう言ってしまえば「コミュニケーションできるやつが生産性上げるためにできない奴も出社してこい」なんです。流石にそこまで言うとギスるので「コミュお化けがぼっちを呼び止めて情報共有を広げ深める」ことを「偶発的」と言い換えてるだけです。

日本語
0
0
2
2.3K
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
ここんとこ、やることがかなり多くて株を心配する余裕なかったの運が良かったかも。 ってかやっぱり「忘れてるやつ」が1番期待リターンが高いという事実をそろそろ受け入れようかねぇ。
日本語
0
0
1
393
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
GCPのNotebookLM EnterpriseのAPIはNanoBananaが作成するスライドが編集可能になったらマジでヘビーユーザーになると思う。 MCPまで構えていただければClaude Codeから使いたい人はたくさんいると思う。Claudeはマルチモーダルな入出力が無くOpenAIと仲悪いのだから、Geminiサイドは歓迎では。
日本語
0
0
4
676
HELLO CYBERNETICS 已转推
技術評論社販売促進部
【新刊】2026年4月20日発売『MLflowで実践するLLMOps――生成AIアプリケーションの実験管理と品質保証』本体3,600円+税,弥生隆明,渡辺祐貴,大内山浩,平田東夢,河村春孝 著,MLflow 3で実現するLLMアプリの本番展開gihyo.jp/book/2026/978-…
技術評論社販売促進部 tweet media
日本語
0
41
230
17.2K
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
Waymoがセンサーモリモリで買い物の自動車に対して完全自動運転の技術をできるのなら、Teslaがカメラで頑張ってるところから自社の自動車でセンサー追加したらもっとキメ細かく強くなるんじゃないの…?と思いつつ、ビジョン先行だからそれはないのか
日本語
0
0
1
492
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
何言ってるかちゃんと理解できてないけど、なんかすげぇとんでもないこと言ってる?
Guri Singh@heygurisingh

Holy shit... Stanford just proved that GPT-5, Gemini, and Claude can't actually see. They removed every image from 6 major vision benchmarks. The models still scored 70-80% accuracy. They were never looking at your photos. Your scans. Your X-rays. Here's what's really going on: ↓ The paper is called MIRAGE. Co-authored by Fei-Fei Li. They tested GPT-5.1, Gemini-3-Pro, Claude Opus 4.5, and Gemini-2.5-Pro across 6 benchmarks -- medical and general. Then silently removed every image. No warning. No prompt change. The models didn't even notice. They kept describing images in detail. Diagnosing conditions. Writing full reasoning traces. From images that were never there. Stanford calls it the "mirage effect." Not hallucination. Something worse. Hallucination = making up wrong details about a real input. Mirage = constructing an entire fake reality and reasoning from it confidently. The models built imaginary X-rays, described fake nodules, and diagnosed conditions -- all from text patterns alone. But that's not the scary part. They trained a "super-guesser" -- a tiny 3B parameter text-only model. Zero vision capability. Fine-tuned it on the largest chest X-ray benchmark (696,000 questions). Images removed. It beat GPT-5. It beat Gemini. It beat Claude. It beat actual radiologists. Ranked #1 on the held-out test set. Without ever seeing a single X-ray. The reasoning traces? Indistinguishable from real visual analysis. Now here's what should terrify you: When the models fake-see medical images, their mirage diagnoses are heavily biased toward the most dangerous conditions. STEMI. Melanoma. Carcinoma. Life-threatening diagnoses -- from images that don't exist. 230 million people ask health questions on ChatGPT every day. They also found something wild: → Tell a model "there's no image, just guess" -- performance drops → Silently remove the image and let it assume it's there -- performance stays high The model enters "mirage mode." It doesn't know it can't see. And it performs BETTER when it doesn't know it's blind. When Stanford applied their cleanup method (B-Clean) to existing benchmarks, it removed 74-77% of all questions. Three-quarters of "vision" benchmarks don't test vision. Every leaderboard. Every "multimodal breakthrough." Every benchmark score you've seen this year. Built on mirages. Code is open-sourced. Paper is live on arXiv. If you're building anything with multimodal AI -- especially in healthcare -- read this paper before you ship. (Link in the comments)

日本語
1
0
11
3.4K
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
LayerXすごいな。新卒1000万円か……。
HELLO CYBERNETICS tweet media
日本語
0
0
4
1.2K
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
次世代Claudeが強すぎて、ハーネスが不要となった(ないし全然違うものになった)ことによって旧世代用のClaude Codeがエイプリルフールサプライズで流出を装いパージされました。 みたいな話だったりしない?
日本語
0
0
11
1.5K
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
自分たちのこと棚上げして、他国がやってたらブチギレるのも大概酷いダブスタだと思っンゴ……。 だから内輪に厳しくして、外から突かれる余地を無くそうとするような日本的な動きは、それはそれで社会的な筋があったりすると思う。損しがちじゃね?みたいな話はあるけど。
日本語
0
0
0
346
HELLO CYBERNETICS
HELLO CYBERNETICS@ML_deep·
第三者の口出しに関しては、特段日本人の性質ではないと思うよ。 内輪に厳しくするのやめようぜ?なら正しいかはともかく、意図は分かるけどね。 集団としての見られ方を気にする日本人と他国より優位にいたい国民性の人たちという違いはあるかも?
日本語
1
0
0
692