は
15.2K posts

は retweetledi

Appleが発表した論文「思考の錯覚」により、ChatGPTなどのAIは「全く思考しておらず、ただ模倣しているだけ」という残酷な現実が証明されました。
彼らは問題を解いているのではなく、単語を確率的に並べて一貫しているように見せかけているに過ぎません。
その構造的な欠陥と限界を4つのポイントにまとめました。
1. 論理の「構造的破綻」
ハノイの塔や川渡り問題において、基本設定なら解けるものの、円盤を増やしたり追加制限を加えたりすると、途端に手順を飛ばし論理が崩壊します。これはルールを理解して推論しているのではなく、過去のデータパターンを盲目的に模倣しているだけの証拠です。
2. 思考の「物理的放棄」
人間は問題が難しくなると時間をかけてステップを踏みますが、AIは逆の特異な挙動を示します。難易度が上がると、自らトークン数やステップ数を減らして「諦める」のです。そこにあるのは思考の深さではなく、単なる確率的なテキスト生成の限界です。
3. 修正の「機能的欠落」
AIには目的意識が存在せず、自らの間違いを認識・評価する能力が物理的に欠落しています。そのため、文脈が破綻しても自ら軌道修正できず、もっともらしいテキストを生成し続けます。自己修正という知能の根本的なプロセスを持っていません。
4. 規模の「絶対的限界」
パラメータを増やしモデルを巨大化させる(スケーリング)だけでは、「本物の思考」は構造的に生まれないと結論づけられています。最大のリスクは、AIの説得力のある「演技」を人間が知能と誤認し、社会インフラなどの重要な権限を与えてしまうことです。

日本語

あなたがこのタイミングでそれを発言するのはちょっとおかしいと思います。そういう学生をネタに面白がってたように思えたけど
Morite2(もりてつ)@morite2toeic
僕は昔からFラン大学はなんとかしなければならないと訴えてきました。(Fランでなくても)中学校レベルの英語がわからない学生たちを相手に大学で授業をしてきました。国会で話題にあがっても、状況は良くなるどころか年々悪くなっていくばかり。現状を動画にして伝えても全然変わりませんでした。 今回の藤川天の受験で英検4級が取れないレベルでも大学に入れることが証明されました。大学も国も入試を見直すべきです。そして不合格でも使えてしまう英検のCSEスコア。この問題点も何度も動画で伝えてきました。今回の受験でこの問題も多くの人に伝わってくれればと思います。CSEスコアがきちんと機能していないことも伝わったと思うので、不合格でもスコアが使えるというのを大学側は即刻やめるべきです。 異論はあると思いますが、多くの人にこの現実を知っていただきたいです。
日本語





