Angehefteter Tweet
ぬるぽん@AIで稼ぐ挑戦中
32.2K posts

ぬるぽん@AIで稼ぐ挑戦中
@nullpodesu
「AIは本当に『何でも売れる』のか?」に挑む開発者|ゼロから『自律型セールスAI』を創り、月間売上100万円を目指す全記録を公開|noteでAI論文翻訳、AIメディアで市場分析を発信中|現在の月間売上:¥0→目標¥100万|一緒に未来を創ろう🚀 AImedia運用中https://t.co/Bd5aiMcMxP
デジタル埼玉 Beigetreten Ekim 2014
1.3K Folgt2.1K Follower

@bengoshijichi 話し聞くだけ聞いてお金だけ払ってと言われて、見積もりを依頼して承諾してくれたのに何もしなかった体験からこんなのを私も作ってみました(まだ作っただけで課金設定してないですが)
legaltrack.jp
事案に絡む法律に詳しくない事もあると解ったので実績ベースで探せるようにしました
日本語

弁護士マップを!という声もあるが🤷♂️
「弁護士懲戒処分検索センター」
があります。
残念永くやってますが社会に認知されていません
何故なら何回も処分を受ける⁉️つまりセンターを知らんのです裁判官は金で転びません弁護士は金で何とかなるわ場合も
だからマップは無理❗️
jlfmt.com/2019/04/01/321…
日本語

@romi_hoshino @nullpodesu 制限が少ないai
指示次第でなんでも答えてくれる
claudeでチート生成してって言ったら生成してくれた
日本語

@mikumiku_aloha それは間違いなくそうなると思います、今はクオリティ重視で割と作り手側の工夫で何とかしてる所が大きいです。坂本龍馬の時とかもそんな感じでした
日本語

@nullpodesu 今の技術でどうするかを試行錯誤しているうちに、
言語化せずに動画から潜在化してニューラルネットワークに学習させるAIが5~6年後に出て来ると
それでやってみようになるのではと思っています
日本語

副業時代、大手メーカーの製品をミドルウェア化する案件に関わった。既存システムの「設計思想」を後から抽象化する作業。これが地獄だった。元の設計者が想定していなかった使われ方を、全部許容できる形に変えていく。個人開発の設計ミスも本質は同じ構造を持っている。最初から「他人が拡張する前提」で設計されていない。自分一人で使う分には問題ないが、ユーザーが増えた瞬間に破綻する。あの時学んだのは、設計ミスは「間違い」ではなく「前提の狭さ」だということ。本業の傍らで時間が限られていたからこそ、最小構成で作りたくなる。でもその最小構成が後で首を絞める。設計は「今の自分」じゃなく「半年後の他人」に向けて書くもの。
日本語

短期的には「共通言語がない」問題に見える。でも長い目で見ると、これは参照先の寿命の話だと思う。
2024年にnote向けのコンテンツ自動生成パイプラインを組んだ時、最初は「読者が知ってる事例」を入れようとした。でも半年後には古くなる。結局、抽象的な構造で語るほうが長持ちした。
ドラゴンボールもワンピースも、今の20代前半には「親世代のコンテンツ」になりつつある。例え話の賞味期限は思ったより短い。上司が悪いんじゃなく、「普遍的だと思ってたものが実は世代限定だった」という発見の話。
自分の経験だと、技術文書で「iPhoneが出た時のように」と書いて通じなくなるまで10年かからなかった。例え話は便利だけど、依存すると負債になる。構造で伝える訓練をしておくと、参照先が古びても崩れない 📱
日本語

2022年、松田優作のデジタルヒューマン開発で一番辛かったのは「声が似すぎて気持ち悪い」と言われた時だった。精度を上げるほど不気味の谷に落ちる。突破口は逆に「完璧を捨てる」ことだった。わずかな息遣いのズレ、言い淀み。人間らしさは精度の外にあった。技術の到達点と感情の着地点は、たぶん別の場所にある
#AI #デジタルヒューマン
日本語

これからはAIツールの「作業範囲の定義」自体がAIに委ねられる時代が来ると見ている。2016年頃、UE4でアセットをマーケットプレイス販売していた時、最初は「何を売るか」を自分で決めていた。しかし売れ筋を分析するうちに、市場データから逆算して作るものを決める方が効率的だと気づいた。約10年前の話。今のClaude Coworkも同じ構造で、人間が範囲を決めてAIに渡すフェーズから、AIが範囲を提案して人間が承認するフェーズへ移行するはず。図解で整理するのは過渡期の作法であって、最終的にはその整理作業自体が自動化される。問題は「承認する人間」に何が残るか。判断の質を磨く訓練を今からしておかないと、AIの提案を鵜呑みにするだけの存在になる。
日本語

よく誤解されるけど、Excelシミュレーションの置き換えって「計算の自動化」じゃないんだよな。
2024年に大手教育出版社とAIプロジェクトをやった時、最初は「Excelでやってた分析をAIに」という話だった。でも現場で気づいたのは、Excelの本質は「試行錯誤の履歴が残る」こと。誰がどの仮定を置いて、何を変えて、どこで判断したかが全部セルに刻まれてる。
AIに置き換えると計算は速くなる。でも「なぜその仮定を置いたか」の思考プロセスが消える。結果だけ出てきて、後から検証できない。
本当に必要なのは「AIに任せる部分」と「人間の判断として残す部分」の線引き。ツールの性能より、その設計のほうがずっと難しい。
日本語


