北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人

13.2K posts

北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人 banner
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人

北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人

@Kitajima_ORHM

七夕研究所代表。ITエンジニア出身。今もコード書いてます。 社会を観測し、設計する人。制度・AI・地域・文化の狭間で問いを育てています。小田原の東の果て・橘北地区から、知の再起動。 ミイダスHRサイエンス研究所でも仕事しています。VTuber事務所"vERA"の代表もやっています。 すべての投稿は個人意見です

神奈川県小田原市 شامل ہوئے Aralık 2017
505 فالونگ618 فالوورز
پن کیا گیا ٹویٹ
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人
社会を観測し、設計する。 七夕研究所は、文系の科学を社会に実装するR&D企業です。制度・AI・地域・文化の狭間で、次の公共圏をつくる実験を続けています。 行政・企業・教育との連携を通じて、現実の制度を更新していきます。小田原から、知の再起動を。
日本語
0
0
19
3.8K
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人
@k1_c_ あり得なくはない金額だと思います。月額1万ドル弱ですよね。 以前Claudeと壁打ちしてOpenClawのAPI使用料を見積もったときに出て来たトップティアの金額が、月1万ドル~ってところでした。 なのでローカルLLMを実用化しないと多分回りきらない。
日本語
0
0
0
117
🦄けい©︎:プログラマーアイドル🦄
OpenClewで秘書エージェント動かしてる人がAPI利用料で一日3万円飛ぶみたいなポスト見たけど、さすがにうそよね。。。? Claudeのサブスクリプションで動く常駐エージェント作るのなんてそんな難しくないんだから、そんなお金払うより自分でつくったほうがいいとおもうけど。。。
日本語
1
0
6
1.6K
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人 ری ٹویٹ کیا
新大宮@なろうファンDB管理人
カクヨムのとある転生モノ(異世界ではなく逆行転生)がガチの専門家が書いたとの話題で盛り上がっている模様。 転生モノでお仕事要素ありのWeb小説の場合、本職が書いているということは過去にもあったけど(医師、薬剤師など)、半導体関係の専門家が書いたと疑われる作品は初かもしれない。気になる
Shunsuke Nemoto@Shunsuke_Nemoto

なんて、ニッチなライトノベルなんだ。 kakuyomu.jp/works/82213984…

日本語
7
625
2.1K
280K
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人 ری ٹویٹ کیا
公
@kou_mamorukai·
デジタルノマド リモートワークで家族滞在可と言う不思議な設計なので詳しく調べてみた。 怒ってる人が多いけど、調べたらこれかなり問題が起きにくい資格だった。 前提としてこれは外国企業に勤める外国人が日本でリモートできる資格。ハッキリ言えば日本に住む必要性は全くない。労働力ではなく消費者として呼び込む制度。 ますます問題じゃないか😡 そんな声が聞こえてきそうだけど、詳しく条件を見てみると変わってくる。 在留資格6ヶ月で更新不可。つまり帰国が前提。 年収1000万円以上。そんな人が仕事を捨てて不法滞在化するか? 在留カード交付対象外。これ結構影響あって、在留カードがないと住民票を取得できない。そうなると日本の公共サービスも受けられない。 具体的には医療保険や学校も基本不可。 医療費は民間の保険加入が必須なのでそちらで払われる。 学校も義務教育なら可能のようだが実際はハードル高いみたい。それに6ヶ月で帰国なので利用者の子供は未就学児がほとんど。 不安な点があるとすれば、日本語が出来ない可能性が高いので、様々な窓口が対応で負担ありそう。 まあ総合的にみて大騒ぎするような資格じゃない。ここに力使うより、技人国や特定技能を考えた方がいい。
出入国在留管理庁(Immigration Services Agency)@MOJ_IMMI

【デジタルノマドの受入れ】 2024年3月から始まった国際的なリモートワーカーのための在留資格です。 最長6か月間、日本で外国の企業との契約等に基づいたリモートワークができます。 条件を満たせば、家族(配偶者と子)の帯同が可能です。 moj.go.jp/isa/applicatio…

日本語
5
67
154
5.9K
ももにゃ💎✨多趣味な人
@Kitajima_ORHM 確かに、確実な形に近づけるやり方としては、わからなくもないです とはいえ、結局数ヶ月かかるのは同じなんですよね… その間に躁転して病院なんていいや!なんてことになったり、紹介状の紛失とかがありそうで… それより自傷して搬送→精神科病棟に直行、の方が現実的に救いになり得るという…😅
日本語
1
0
0
52
ももにゃ💎✨多趣味な人
確かに民生委員の介入は、あまりにも再現性が無さすぎる… 精神科病院に突入しても、ケースワーカーがそこの患者で手一杯、なんてのがザラだろうからなぁ… 地域でそういう相談を専門に受け付ける場があればいいんだが… もしそういう機関を設置するなら、土日や夜間も受け付けて欲しいところ
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人@Kitajima_ORHM

実際その通りだよな…… 多分一番再現性があるルートは精神科の大きな病院に突入してそこのケースワーカーに相談だと思う。 本来は民生委員が担当できるカテゴリだとは思うけど多分再現性がない。

日本語
1
0
1
223
かわせみ
かわせみ@alcedo_kawasemi·
未管理著作物裁定制度、普段は無断転載禁止と明示しておきたいけど、自分が病気や死亡で管理や意思表示出来なくなったら裁定制度のような適法な利用ならOKみたいにしたい時はどうしたらいいんだろ?
日本語
1
3
1
1.3K
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人
弊社は未来的にも完全出社必須化は非現実的だと信じてます。が、出社必須部署が出現することは否定しきれない。 具体的にどこかって?現在存在しない部署ですね。
日本語
1
0
0
84
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人 ری ٹویٹ کیا
福岡の弁護士 水野遼
そもそも上申書というタイトル自体が官尊民卑の発想なので、裁判所からどうしてもそのタイトルにしてくれと言われない限り、基本的に使わないようにしている。意見書、報告書、事務連絡などで足りることが殆どであろう。 破産事件などで好んで使われる傾向にあるように思われる。
柴田啓介(弁護士/元裁判官)@AandS_KSB1983

以前担当裁判官(私ではありません)と代理人弁護士との間の関係性が良くないと思われる事案において 「上申書」ではなく「申書」というタイトルで書面が出されていたのを見たことがあります 斬新でした

日本語
3
10
62
15.9K
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人 ری ٹویٹ کیا
いっちー@バーチャル精神科医
「AI」を使って勉強すると、むしろ記憶に残りにくくなることを示す興味深い研究。 ランダム化比較試験によれば、AI学習群の45日後テスト成績は57.5%で、従来学習群の68.5%を大幅に下回ったことが明らかになった。 AIは学習を「楽」にする一方で、記憶定着に必要な認知的努力(脳に負荷をかけるプロセス)を減少させてしまう可能性があると明らかになった。 AIは答えを教えてくれる便利なツールだが、頼りすぎると自分の思考力が衰えてしまうようだ。
いっちー@バーチャル精神科医 tweet media
日本語
8
93
360
33.2K
北島哲郎 | 七夕研究所 | 社会設計&観測とAIの人 ری ٹویٹ کیا
Kazunori Sato
Kazunori Sato@kazunori_279·
小規模なデータセットなら、こんなふうにLLMで全てを.mdにしてCLIにagentic searchさせるのがほんと便利。俺の場合はGoogleドライブ上のPDFやdocsを.md化してその索引となるSkillを生成するdrive2skillsというツールを作った。LLMが.mdを読み込むのがちょっと遅いけど、手軽に使える。
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

日本語
3
30
274
39.7K