
Dixie Flatline aka McCoy Pauley. ‘If you say so..’
113.9K posts

Dixie Flatline aka McCoy Pauley. ‘If you say so..’
@theROMconstruct
国際資本、軍閥2.0、 難民流入、暗号通貨、アフリカという視点。 西欧主権国家の根幹が揺らぐ世界。 自律思構と強化認知に導かれ、 砂丘の果てに見るものは、ギブスンの啓示。 21世紀人類の生き進む方向。 ウィリアム・ギブスンのファン。 人生が百年の時代。毎日が百年に一度。日々成長。 農業IoT&食品衛生領域に進出中。



【今年度も重要文化財「聖フランシスコ・ザビエル像」の実物を展示します】 作品保存のため、年1回、実物作品を公開しています 令和8年度は下記の日程です 期間:4/25(土)~6/14(日) 場所:コレクション展示室(有料、高校生以下無料) ※上記期間以外は複製展示 #神戸市立博物館 #神戸市 #ザビエル


Claude Code has an interesting recipe for "Compaction". This is how it works: [again, shared by claude code] Claude Code is not doing “one compaction”. It has three layers and each layer handles a different kind of overload. > Layers + MicroCompact (Cheap, Every Turn) + Session Memory Compact (Medium, No API Call) + Legacy Compact (Expensive, Full Summarization) + effective window = model window (reserved) + auto-compact trigger = effective window (13K tokens) + manual blocking limit = effective window (3K tokens) + the system tried to compact *before* hitting the hard prompt-too-long wall > There is a “cheap compaction” path on every single turn + runs before every API request + saves tokens without changing the actual conversation structure > The real compaction path is boundary-based + Claude is asked to summarize prior conversation + the old transcript is not rewritten or deleted > Session memory compaction is tried *first* + rebuilds context from that file + recent messages + no model call needed + only if that fails does it fall back to full summarization > Resume only loaded the world *after* the last boundary + once found, pre-boundary payload is dropped from the in-memory load buffer + on resume, Claude sees only post-boundary context > The smartest trick is preserved-tail relinking + compaction does not just keep a summary + it also keeps a preserved tail of recent live messages + on resume, that tail is stitched back onto the summary chain > So “compaction” is really a pipeline trim cheap tool-result bloat + threshold check → decide if full compaction is needed + disk-backed summary first + legacy compact → ask Claude to summarize if needed + append compact boundary → future loads start from there > What users experienced as “Claude forgot” + is usually not deletion + it is boundary truncation + summary substitution + and tail preservation trying to keep the active working set alive


【プレスリリース】 2025年8月に開始した分散データマネジメント技術 #データスペース のアーキテクチャ設計統括の成果として、#OpenDataSpaces(#ODS )に関する成果物を公開しました。Agentic AI時代の基盤的なデータ技術として、グローバルでの普及を加速します。 詳細👇ipa.go.jp/pressrelease/2…







母が園芸用に買ったレモンの木にアゲハが産卵した事がきっかけで、一気に国際学会で発表するレベルまでいった小5の昆虫博士🦋🔍 小1:アゲハの観察記録 小2:脱皮回数が多い個体の研究 小3:幼虫期の記憶が成虫期まで残るのかを研究 小4:記憶が子孫に遺伝するのかを調査

こういう結果論の批判ってどうなんだろ。ホンダは思い切ったEVシフトというリスクを取って結果的に失敗。それを"誤算"の一言で片付けたら可哀想。リスク少ない今までの延長の経営戦略ばかりで競争力高まらない多くの大企業より、大胆なリスクを取った点ではよっぽど偉いと思う。失敗した以上は経営責任取って徹底的に損出しして出直すだけ。その点、本来は社長は辞めるべきなので、そこは甘い。 nikkei.com/article/DGXZQO…



















