がっちゃ

365.6K posts

がっちゃ banner
がっちゃ

がっちゃ

@take_gattcha

なんちゃって Device Driver Engineer, Windows, Linux, Embedded, Firmware, Low-layer... RT 専門。稀にポスト。RT は私が好きなこと。気になること。どうでもいいけどなんとなく。議論は参加しません。

Katılım Şubat 2018
2.3K Takip Edilen2.2K Takipçiler
がっちゃ retweetledi
もふ社長@もふもふ不動産
そんな気がしてて、ずっと同じ絵を使い回してる…パワポもAIで作ると、YouTubeにAI判定されてインプ落ちそうな兆候が見られたし、最悪収益停止のリスクもあるので、今まで通りに戻した。完璧よりももふもふさと人間味を出す🐧 ってか、偉そうに俺に「YouTubeではサムネイルが大切です。僕がサムネイルを作ればあなたのYouTubeをもっと伸ばせます」とか、「編集すればもっと伸ばせる」とか、クソみたいな営業メールを送ってきてたフリーランサーはみんな消えた🐧付加価値がどこにあるか?なにに時間を使うか?を見極めないと人生詰むね
もふ社長@もふもふ不動産 tweet media
ぱぱおやじ🇯🇵🇺🇸アメリカ本土48州を毎日移動中@papaoyaji07

これ、YouTubeコンサルだった私の推測ですが、過去11年のYouTubeのやり方を見てると、ある日「AIサムネの動画を一斉にインプさげる」みたいなことをやる気がする。過去に「本編にないシーン」のサムネを釣り動画認定したこともあったんでね。コツコツ手作りしてるほうが、あとあと効いてくる… かも。

日本語
3
3
19
5.6K
がっちゃ retweetledi
ぱぱおやじ🇯🇵🇺🇸アメリカ本土48州を毎日移動中
これ、YouTubeコンサルだった私の推測ですが、過去11年のYouTubeのやり方を見てると、ある日「AIサムネの動画を一斉にインプさげる」みたいなことをやる気がする。過去に「本編にないシーン」のサムネを釣り動画認定したこともあったんでね。コツコツ手作りしてるほうが、あとあと効いてくる… かも。
日本語
1
4
15
6.3K
がっちゃ retweetledi
ぱぱおやじ🇯🇵🇺🇸アメリカ本土48州を毎日移動中
これは「AIサムネが悪い」じゃなくて、「魅力的なAIサムネに飛びつかせて再生させたものの、中身が伴ってなくて初期離脱を起こさせている」ことが、チャンネルにとってダメージだからです。視聴者の滞在時間の少ない動画の大量生産はYouTubeにとってはマイナスでしかないからです
日本語
1
1
6
414
がっちゃ retweetledi
リュウジ@料理のおじさんバズレシピ
@ma_ma_dayo @masa_0083 こういう意見を料理研究家が放置したから無駄に料理のハードルが上がったんです  この人は一生この考えでいいけどこの投稿をみた人が「料理ってハードルたけえ」と思うのは避けたい この投稿、すでにバズってますから
日本語
20
343
3.3K
239K
がっちゃ retweetledi
リュウジ@料理のおじさんバズレシピ
僕のレシピが嫌いなのは全然良い、でも 「鯛一匹でご飯とおかずと汁物を検索せずに作れたらギリ料理の入り口」 は違う 昔の人が料理のハードルを上げすぎたから作る人が苦労する世の中になった 料理を一部の人のもんにしちゃダメ 簡単でも自分が旨いと思うもん作れたらそれは立派な料理です
リュウジ@料理のおじさんバズレシピ tweet mediaリュウジ@料理のおじさんバズレシピ tweet media
日本語
1.5K
4.2K
28.7K
2.6M
がっちゃ retweetledi
とあるコンサルタント
これに関しては本当にそうで、どんなコンテンツでも初期のハードルが上がりすぎると新規の流入が止まって死ぬのよね まして人間毎日飯食べないといけないんだから、料理のハードルなんて低ければ低いほど良いのよ 簡単な料理でも作れたら人生の喜びが増えるのだわ
リュウジ@料理のおじさんバズレシピ@ore825

僕のレシピが嫌いなのは全然良い、でも 「鯛一匹でご飯とおかずと汁物を検索せずに作れたらギリ料理の入り口」 は違う 昔の人が料理のハードルを上げすぎたから作る人が苦労する世の中になった 料理を一部の人のもんにしちゃダメ 簡単でも自分が旨いと思うもん作れたらそれは立派な料理です

日本語
8
14
109
11.2K
がっちゃ retweetledi
Kohya Tech
Kohya Tech@kohya_tech·
Anima Preview3用のinpainting ControlNet-LLLiteのサンプル重みを公開しました。mask付きi2iとの併用推奨です。 huggingface.co/kohya-ss/Anima… ComfyUIのノードも更新しましたので、最新版にしてご利用ください。学習コードも近日中に公開予定です。
日本語
1
27
170
25.2K
がっちゃ retweetledi
トミナガハルキ | フリーランス歴10年な人
イラストレーターさんにイラストをお願いして広告をつくることがある。AIじゃないよという意味も込めて「イラスト制作:〇〇」とイラスト横に入れてみては?とお客さんに提案したら、確かに!!と快諾されることが。 イラストレーターさんに依頼することが、一層値打ちのあることになっているのかも。昔なら広告のノイズになるし嫌がっただろう。 イラストレーター側にとってもメリットがあるし、皆さんも提案してみては。
日本語
34
3K
8.9K
874.4K
がっちゃ retweetledi
がっちゃ retweetledi
MIDORI🌱 RUNTEQエンジニア
エンジニア2社目むずい 前職のやり方しか知らないから、 「前はこうしてたんですが、こちらではどうしてますか?」って聞くことが多い でも、その聞き方が今のチームにやりづらさを与えてないか少し不安。 転職後の“文化のキャッチアップ”って、みんなどうコミュニケーション取ってるんだろう〜教えて
日本語
23
24
528
122.7K
がっちゃ retweetledi
elvis
elvis@omarsar0·
// LLMs Improving LLMs // Interesting progress the past of couple of weeks around self-improving AI agents. If autoresearch was interesting, you will like this read. (bookmark it) We've been hand-tuning test-time scaling for a year. This work asks what happens when you let an LLM search the space instead. The paper introduces AutoTTS, a framework that reframes the human role: instead of designing branching, pruning, and stopping heuristics directly, you construct a discovery environment where TTS strategies can be searched automatically. They formulate width–depth TTS as controller synthesis over pre-collected reasoning trajectories and probe signals, so candidate controllers can be evaluated cheaply without repeated LLM calls. Two design choices carry the search. Beta parameterization makes the control space tractable. Fine-grained execution-trace feedback tells the explorer LLM why a candidate failed, not just that it did. On math reasoning benchmarks, the discovered controllers beat strong hand-designed baselines on the accuracy–cost Pareto frontier and generalize zero-shot to held-out benchmarks and model scales. Entire discovery cost: $39.9 and 160 minutes. Why it matters: The era of researchers hand-crafting CoT, best-of-N, and self-consistency recipes is on a clock. Once the search loop is cheap enough, TTS becomes another thing LLMs do for themselves. Paper: arxiv.org/abs/2605.08083 Learn to build effective AI agents in our academy: academy.dair.ai
elvis tweet media
English
13
46
199
12.1K
がっちゃ retweetledi
NVIDIA Robotics
NVIDIA Robotics@NVIDIARobotics·
The next chapter of space computing is here 🛰️ Together with our ecosystem, we're advancing AI from Earth to space across: ✔️ Earth orbit and infrared imagery ✔️ Radio frequency and synthetic aperture radar ✔️ Autonomous space operations 🧵 Here’s a look at commercial space companies scheduling deployments of NVIDIA Jetson Orin, IGX Thor, and testing of the Vera Rubin Space-1 module. Learn more ➡️ nvda.ws/4ddGWsD
NVIDIA Robotics tweet media
English
41
163
1.1K
123.3K
がっちゃ retweetledi
Daisuke Okanohara / 岡野原 大輔
自然に画像を生成できるAIは、すでに視覚世界を理解しているのではないか。つまり、物体、奥行き、空間構造、そしてどこに何が存在するかといった情報を、内部的に獲得しているのではないかと考えられてきた。 今回、強力な画像生成モデルである Nano Banana Pro を視覚理解タスク向けに指示チューニングすることで、専用モデルに匹敵、あるいはそれを上回る性能を達成できることが示された。セグメンテーションでは SAM 3 を上回る性能を達成し、深度推定では Depth Anything 3を上回る性能を達成している。 これは、自然言語処理において、LLM の登場により、翻訳、要約、質問応答、推論などのタスクが、すべて生成モデルの適応として統一的に扱われるようになったのと同じ現象が、画像処理においても起き始めたといえる。予想されていた流れではあるが、それが実際に成立し始めた重要なタイミングだといえる。 本研究では、Nano Banana Pro に対して少量の画像タスクデータで指示チューニングを行い、画像認識・視覚理解タスクを解かせている。この際、視覚タスクの出力をすべて RGB 画像に変換し、各タスクを画像生成問題に帰着させる。 例えば、セグメンテーションタスクでは、「これはセグメンテーション画像です。ピンクの服を着た人は白に、他の人は緑に塗ってください」というように指示を与え、セグメンテーション結果を得る。 インスタンスセグメンテーションタスクでは、例えば「それぞれのクロワッサンを別々の単色で塗ってください」と指示し、生成後に色ごとにクラスタリングすることで、個々のインスタンスを取り出す。 深度推定の場合は、深度情報を RGB 色空間上の色に対応させる。具体的には、深度値を近くの解像度をあげるよう変換したうえで、RGB 立方体上の経路に沿って色へ対応づけ、モデルにはその疑似カラー画像を生成させる。 法線推定の場合は、法線の3次元情報を RGB チャンネルに対応させる。右手系のカメラ座標系において、左右方向、上下方向、カメラ方向の成分をそれぞれ色として表現する。 これらの開発において特殊なアーキテクチャ、専用ヘッド、専用損失を使っていない点である。基本的には、「このような画像を生成してください」と指示し、通常の画像生成損失によって学習している。 また、これらの視覚タスクへの指示チューニングを行っても、元の画像生成能力が失われないように、生成データも混ぜて追加学習している。その結果、作られたモデルは、画像生成と視覚理解の両方を扱えるようになっており、汎用モデルとして扱える。 なおnano bananaの学習データ規模、学習手法が公開されていないのと同様に、本手法においてもデータ規模、画像生成手法は公開されていない(おそらく拡散モデルの変種と考えられるが) コメント === 自然言語処理で起きた「生成タスクで強力に事前学習されたモデルが、汎用タスクに使えるようになる」という現象が、視覚理解においても起き始めた瞬間(GPT-3ぐらい)といえる。 本論文では、各タスクを画像出力に統一したことが大きな貢献の一つである。ただし、これが重要というより本質は、画像生成モデルがここまで強力になると、その副産物として視覚理解能力も獲得されることを示した点にあるだろう。 今後は LLM と同様に、視覚においても、巨大な学習工程による事前学習、各タスク向けの事後学習、さらに高速化のための蒸留や特化モデルへの展開が進んでいくと考えられる。 この流れは、Richard Sutton の Bitter Lesson を思い出させる。つまり、汎用的で計算資源を大量に投入できる手法が、ドメイン特化のさまざまな手法を最終的に上回っていく、という見方である。AI研究者にとって苦い教訓として知られている。 もちろん、これであらゆる用途にそのまま使えるというわけではない。視覚認識では速度やコストが重要であり、巨大な生成モデルは重いため、実用上は専用モデルを作る場面も重要であろう。しかし、多くの汎用的な視覚タスクをこの枠組みで扱える可能性が示されたこと、そして性能をさらにスケールさせるための明確な方法論が見えたことは重要である。 また、すでに動画生成モデルについても、汎用的な視覚理解や世界モデルとしての可能性が示され始めている。今後も、様々なタスクにおいて、大規模な生成タスクによる事前学習から、様々な専用タスクへ適応させる流れがさらに進んでいくだろう。
日本語
3
56
243
25K
がっちゃ retweetledi
鈴木貫太郎
鈴木貫太郎@Kantaro196611·
「7➗2=3あまり1 」慣習的に許されているけど、60歳を過ぎた今頃になって、これってよろしくないよなと思ってなるべく書かないようにしている。  等号(=)は矢印(→)ではなく、あくまで「両辺が等しい」という意味。  等号を矢印と同じと認識していると、「4人で食事をして12000円で割り勘だったが私は500円分のクーポンを持っていた。私が払った現金は?」で、小学生がよく「12000÷4=3000-500=2500」と書くけど、私は「その書き方は絶対にダメ‼️」と注意してきたが、算数の先生でも等号と矢印を混同してそう書いてしまう人がいる。
鈴木貫太郎 tweet media
せきゅーん@integers_blog

数学をやっていると、コンセンサスの取れていない記法がたくさんある。だから、記法の意味は逐一説明すべきだし、説明されていない記法についてはいくらでも質問していいはずだ。にもかかわらず、高校までの数学では、あたかも数学にはコンセンサスの取れた記法しか存在しないかのような印象を受ける。

日本語
29
78
524
194.8K
がっちゃ retweetledi
数学
数学@tooooottttteeee·
√a²=±a
QST
21
11
59
79.7K
がっちゃ retweetledi
ぴんく
ぴんく@PINKSAWTOOTH·
リサーチ系のカンファレンスもやばそう。AIでいくらでも作業してペーパーもかけるから、CFPに投稿1000本とかきたら死ぬ。
日本語
0
3
16
1.4K
がっちゃ retweetledi
lumin
lumin@lumin·
サイバー攻撃による被害発生時のインシデント報告様式の統一について NCOによってExcel方眼紙で統一されています。 cyber.go.jp/policy/group/c…
日本語
0
37
82
5.3K
がっちゃ retweetledi
kurenaif🪄🗝
kurenaif🪄🗝@fwarashi·
今のままのbug bountyだと正直破綻しかねないんだけど、 そもそものbug bountyの目的としては0dayが裏のマーケットに流れたりする前に報酬を出すことでそれを防ぐみたいな目的もあったと思っており、 そういった意味ではなくなるとどうなるんだろうという気持ちもある
日本語
1
9
66
7.4K
がっちゃ retweetledi
サイバーディフェンス研究所|脆弱性診断・ペネトレーションテスト・フォレンジック・脅威インテリジェンス
🎉 サイバーディフェンス研究所の中島将太が、大和セキュリティのザック氏・西川氏と共同で Black Hat USA 2026 Arsenal に登壇します! 発表は2つ👇 🦅 Mecha Hayabusa — HayabusaをMCP経由でLLMと連携、自然言語でDFIR・脅威ハンティングするツール 🔗 #mecha-hayabusa-by-yamato-security-52897" target="_blank" rel="nofollow noopener">blackhat.com/us-26/arsenal/… 🐦‍ Suzaku(朱雀) — クラウドログ向けSigmaベースの脅威ハンティングツール、タイムラインジェネレーター 🔗 #suzaku-by-yamato-security-52556" target="_blank" rel="nofollow noopener">blackhat.com/us-26/arsenal/… ご注目ください! #BlackHat #DFIR #ThreatHunting #YamatoSecurity #Hayabusa
日本語
0
11
31
1.8K