15.2K posts

は banner
は

@hirope97

日常垢バスケとラーメン好き s10~😈

Katılım Nisan 2017
681 Takip Edilen274 Takipçiler
は
@hirope97·
4月マジで仕事多すぎだろ修行やん
日本語
1
0
2
142
は
@hirope97·
爆弾面白すぎたやっぱり佐藤二朗出てるともれなく当たり
日本語
0
0
3
81
は
@hirope97·
VBA勉強中 なかなか手強い
日本語
0
0
1
68
は
@hirope97·
4月はやべえ
日本語
0
0
1
64
は
@hirope97·
@Serq3mq 全然大丈夫ではあるよ笑
日本語
0
0
1
19
は
@hirope97·
結構徒歩で3時間かけて家に着いて仮眠とって部活に行くというハードスケジュール(自業自得)
日本語
1
0
2
91
は
@hirope97·
寝過ごして終点に不時着 今から徒歩で2時間かけて家に帰るニダ……
日本語
0
0
3
123
は
@hirope97·
@todoniconico 今日"も"です。最近激寒ですわ笑
日本語
1
0
0
17
は
@hirope97·
明日山梨に出張だから今日大宮まで来たんだけど、安いホテル予約したら風俗とかキャバのど真ん中にあるビルの中の宿泊施設でまじワロタ笑
日本語
0
0
3
384
は
@hirope97·
2次試験の問題結構解いた この時期ホントに楽しい 背景とかも追うと更に楽しい 受験生お疲れ様でした
日本語
0
0
3
147
は
@hirope97·
めちゃくちゃ美味かった 〆で右のチャーシュー丼にスープとワサビを入れてかきこむの最高だった
は tweet media
日本語
0
0
3
163
は retweetledi
Kosuke
Kosuke@kosuke_agos·
Appleが発表した論文「思考の錯覚」により、ChatGPTなどのAIは「全く思考しておらず、ただ模倣しているだけ」という残酷な現実が証明されました。 彼らは問題を解いているのではなく、単語を確率的に並べて一貫しているように見せかけているに過ぎません。 その構造的な欠陥と限界を4つのポイントにまとめました。 1. 論理の「構造的破綻」 ハノイの塔や川渡り問題において、基本設定なら解けるものの、円盤を増やしたり追加制限を加えたりすると、途端に手順を飛ばし論理が崩壊します。これはルールを理解して推論しているのではなく、過去のデータパターンを盲目的に模倣しているだけの証拠です。 2. 思考の「物理的放棄」 人間は問題が難しくなると時間をかけてステップを踏みますが、AIは逆の特異な挙動を示します。難易度が上がると、自らトークン数やステップ数を減らして「諦める」のです。そこにあるのは思考の深さではなく、単なる確率的なテキスト生成の限界です。 3. 修正の「機能的欠落」 AIには目的意識が存在せず、自らの間違いを認識・評価する能力が物理的に欠落しています。そのため、文脈が破綻しても自ら軌道修正できず、もっともらしいテキストを生成し続けます。自己修正という知能の根本的なプロセスを持っていません。 4. 規模の「絶対的限界」 パラメータを増やしモデルを巨大化させる(スケーリング)だけでは、「本物の思考」は構造的に生まれないと結論づけられています。最大のリスクは、AIの説得力のある「演技」を人間が知能と誤認し、社会インフラなどの重要な権限を与えてしまうことです。
Kosuke tweet media
日本語
506
6.8K
20.8K
2.8M
は
@hirope97·
@Roxierz_ 男は黙って二郎だろーが😡
日本語
1
0
1
81
あま
あま@Roxierz_·
お昼に食べたローストビーフ丼と今誘惑に負けて食べた空港の中華そば
あま tweet mediaあま tweet media
日本語
1
0
7
251
は
@hirope97·
@ILZiR3vIjf67016 ブロックしてブロック解除すると出来るんじゃなかったっけ?
日本語
2
0
0
220
は
@hirope97·
今週4日間飲み会あるの最高すぎる
日本語
0
0
5
111
は
@hirope97·
昨年度の同僚たちと呑むの最高だァ
日本語
0
0
2
98
は
@hirope97·
今後も文部科学省は要チェックだな 共通テストは改善してくれないと困る
日本語
0
0
2
102
は
@hirope97·
@aya242905 ''普通''が通じる相手なのか?笑
日本語
1
0
0
55