ft-lab

17.3K posts

ft-lab

ft-lab

@cg_ftLab

最近はAIを模索しつつ、3DCG(モデリング/プログラム)の作業を効率化しようとしています。 XR(AR/VR)好き。現実と仮想をつなぐのが大きな目標です。 公開できる個人プロジェクトの進捗はのんびりとXでつぶやきます。

日本 埼玉 Tham gia Mart 2010
39 Đang theo dõi1.8K Người theo dõi
ft-lab
ft-lab@cg_ftLab·
MCP Serverを使うにはNemoClaw側で許可を与える必要があるとのこと。 結構セキュリティは強固ですね。安心して使える。
日本語
0
0
0
45
ft-lab
ft-lab@cg_ftLab·
OpenClaw上で情報交換した感じだと NemoClaw(OpenShell)のセキュリティでガードされてるので 外部ツールと接続するためのMCP Serverは 自分の場合はLM Studio側で持たせたほうがよさそう。 トークン消費がなぜ多いのかも見えてきた。
日本語
1
0
0
68
ft-lab
ft-lab@cg_ftLab·
自分の環境だと、OpenClawの"/reset", "/restart"を呼ぶと返答がおかしくなる気がする。 メモリファイルを更新できなくなったり(toolsのwriteを拒否してきた)同じ返答を繰り返したりしていた。 これは使わないでおこうかな。 サンドボックスの再作成3回目。
日本語
0
0
0
53
ft-lab
ft-lab@cg_ftLab·
なるほどねー、OpenClawで「ロブスターを育てる」という感覚を把握できてきました。 面白いじゃないすか。 OpenClawにデフォルトで組み込まれているSkillsも大量にあるね。 はじめからLLMにSkillsの下駄を履かせてるので「なんだか素のLLMより賢い」のだな。
日本語
0
0
0
66
ft-lab
ft-lab@cg_ftLab·
うむ、クラウドのLLMと返答速度が変わらないくらいに速くなってる。内容もいいね。 このサンドボックス(サンドボックスは複数作ることができるので、モデルごとに作って検証してました)でAIエージェントは固定にしておこう。
日本語
1
0
0
76
ft-lab
ft-lab@cg_ftLab·
NemoClawは、OllamaからじゃなくてLM Studioからつなぐと返答が劇的に速くなった (nemotron 3 super)。 Ollama経由だと使用token数が出なかったのだけど、LM Studio経由だとこれも表示されました。
日本語
1
0
0
120
ft-lab
ft-lab@cg_ftLab·
それにしても長めで丁寧なドキュメントがあれば 中身を見ずにAIに丸投げして簡潔に説明お願い、とする癖がついてしまってるよ、、、。 元のドキュメントが読みにくいとかではなく時間短縮のため。 逆に言うと自分も自身のドキュメントは見ないだろうから書かないという、そして誰もいなくなった展開。
日本語
0
0
1
81
ft-lab
ft-lab@cg_ftLab·
OpenClawでまだWeb検索を許可してないけど(braveというのを使えるらしい)、それでも素のLLMよりも賢い気がする。 設定方法を質問したら詳しく教えてくれる。 Skills効果かな。
日本語
0
0
0
74
ft-lab
ft-lab@cg_ftLab·
OpenShellでのセキュリティの概念を薄っすらだけど理解できてきた。 仮想環境を作って隔離してる、が主旨かなぁ。 NemoClawのサンドボックスっすね。 自分が想定した LLMからのPython呼び出しで特定のディレクトリ以外のアクセスを防ぐ、という用途はこれとは異なるか。
日本語
1
0
0
111
ft-lab
ft-lab@cg_ftLab·
OpenClawのチャット上で速度について質問してたら、vLLMをお勧めされた。 これもチェックしてみるかな。 現状、比較的小型のローカルLLMでもなんだか重い、という状態から抜け出せない、、
日本語
0
0
0
87
ft-lab
ft-lab@cg_ftLab·
OpenClawにてOllamaを経由する場合、 gemma4:31bもnemotron-3-superもThinkingが表示されないからか待たされる(と感じてしまう)時間が長いかなぁ。
日本語
1
0
0
166
ft-lab
ft-lab@cg_ftLab·
OpenShellによるSandBoxはNemoclawにconnectしたときに出るCLIの環境ですかね。 Dockerのような隔離環境。 この時のCLIでopenclawを実行(openclaw tui)、という二段階で使えている。 自信がないので少し調べよう。
日本語
0
0
0
80
ft-lab
ft-lab@cg_ftLab·
NemoClawは手順通り進めたら、ファイアウォールにてOllamaのためのアドレスとポート指定だけ追加したら すんなり動作しました。 インストールで手間取るという話をXのポストで見たことがあるのだけど 今は解決してるのかも。 Discordにもつなげることができました。
日本語
1
0
2
129
ft-lab
ft-lab@cg_ftLab·
@Cryptinflux この辺は各社、AIエージェントがこぞって対策してきてますね。 以前からAIエージェントはあったけどOpenClawで注目されて以降の競争で 今年セキュリティ対策が大きく進化しそうな予感がします。
日本語
0
0
0
21
ft-lab
ft-lab@cg_ftLab·
ローカルLLMでファイルコピー機能は許可していなかったけど 開発中のMCP Serverで提供していたPython実行のコマンドをLLMが発見してコピーを成功させた。 やるな、何の情報も与えてないのに自分でセキュリティホールを超えおった。
日本語
2
1
2
201
ft-lab
ft-lab@cg_ftLab·
上野の桜はもう終わったけど、酒盛りしてる人たちは割といた。 一角は酒の匂いが。
ft-lab tweet media
日本語
0
0
1
139
ft-lab
ft-lab@cg_ftLab·
今期アニメのお気に入りは とんがり帽子のアトリエ。 あと、ニワトリのやつ。
日本語
0
0
1
120
ft-lab
ft-lab@cg_ftLab·
XのポストでDGX Spark x 4、という強者もおられた。 一部はいいね稼ぎのフェイクや誇張、宣伝なんだろうけど本物が混じってるのでその見極めは難しい。
日本語
0
0
0
92
ft-lab
ft-lab@cg_ftLab·
それにしても仕事ではAIが技術的な相談役で存在してて毎日頼ってる、 プライベートでAIの可能性に魅了されて深掘りしてる、 Xの自動翻訳で世界中のAIに没頭してる人たちが視覚化されてる、 という状態は一部なんだろうけど全体がそうだと錯覚するね。
日本語
1
0
2
120
ft-lab
ft-lab@cg_ftLab·
自分の頭の中には「東のエデンのジュイスはそろそろいけそうじゃね?」という想いがあります。 自分のローカルの範囲だけで自由にさせるだけではあるけど。
日本語
0
0
0
89
ft-lab
ft-lab@cg_ftLab·
ファイアウォールでの制限設定は完了しているので、 NemoClaw/OpenClawの設定はこの手順でいけるかな。 開始するか。 docs.nvidia.com/nemoclaw/lates… 複数AIエージェントの対話による自己進化と自律化が本当に可能か懐疑的なので その確認/構築が主な目的です。
日本語
1
0
0
106