27MBの新型AI、Chatgptのo3-highとGrok4に勝利、さやママ…

1 : 2025/08/02(土) 23:45:11.22 ID:1bw5cSs60
38 : 2025/08/02(土) 23:45:55.70 ID:XGcdolYm0
27Mバイト?
39 : 2025/08/02(土) 23:46:42.11 ID:zx2O0hy/M
これトークン使わないんだってな
スマホでもヌルヌル動きそう
40 : 2025/08/02(土) 23:47:05.94 ID:zx2O0hy/M
シンガポール製なのか
41 : 2025/08/02(土) 23:47:14.85 ID:rsNh0WbK0
27メガバイトでchatGPTとGrokに勝ったのか
まさに神業
42 : 2025/08/02(土) 23:47:58.52 ID:IClYLDmHH
100メガショックやん
93 : 2025/08/03(日) 00:17:15.84 ID:2jKoHgqM0
>>42
あれビットだから…
43 : 2025/08/02(土) 23:48:15.50 ID:WNnADzyl0
これを1Tパラメータくらいにしたらシンギュラリティ起こりそう
44 : 2025/08/02(土) 23:49:32.77 ID:WNnADzyl0
arxivをgeminiに要約してもらってるけどマジで設計の発想がすごいなこれ
今までのアキネーター形式の思考から本当の神経細胞みたいな構造に変わってる
45 : 2025/08/02(土) 23:49:50.87 ID:RCidnQJh0
o3に勝ったんかと思ったらo3-mini-highじゃんスレタイふざけんなよ
49 : 2025/08/02(土) 23:50:51.58 ID:eTf1URy20
>>45
どっちにしてもおかしいだろミニハイでも1ペタは余裕でデータセットあるんだぞ
47 : 2025/08/02(土) 23:50:27.73 ID:Slkih3R/H
NVIDIAストップ安になるだろまた
48 : 2025/08/02(土) 23:50:28.65 ID:6L+086oZ0
なわけねーだろ
50 : 2025/08/02(土) 23:51:04.88 ID:T4CvtCD90
ollamaで入れられるようにしてくれ
80 : 2025/08/03(日) 00:08:25.77 ID:QRp9WDXy0
>>50
もうggufあるぞ
51 : 2025/08/02(土) 23:51:47.16 ID:Q8gIvtsI0
NVDA株に第2のDeepSeekショック来そう
52 : 2025/08/02(土) 23:52:19.88 ID:gFNUzBCp0
早く買収しないと
53 : 2025/08/02(土) 23:53:06.21 ID:oRHK42a70
LLM方式じゃないのな
54 : 2025/08/02(土) 23:53:09.94 ID:l+SA29zu0
sakanaAIはいつ触れるんだい
57 : 2025/08/02(土) 23:53:58.52 ID:n31kKiK70
スマホのNPUでサクサク動くようにしてくれよ
58 : 2025/08/02(土) 23:54:47.77 ID:4LU0RnOH0
readmeの学習時間クソワロタ、これ革ジャン憤死するだろ

Runtime: ~10 hours on a RTX 4070 laptop GPU

59 : 2025/08/02(土) 23:56:36.77 ID:g3OSqVKo0
とは言えこの手のプログラムで容量食うのは学習データだからな
学習データ除外すればどれもそんなに容量食わないはず
60 : 2025/08/02(土) 23:56:55.25 ID:CJYO/13N0
Arxiv読んだが下手するとNVIDIAバブル弾けて世界恐慌起こすぞこのモデル
61 : 2025/08/02(土) 23:57:56.57 ID:sqjfNL9N0
AI言うけど結局は検索なんだよなぁ
ワシ等の検索能力のが優れてる
69 : 2025/08/03(日) 00:00:55.44 ID:iY9lR0UOa
>>61
これは検索型のLLMじゃない
データを仮説立てて理論付けするHRMモデル
62 : 2025/08/02(土) 23:58:19.53 ID:K1HLtSyw0
また父さんがやってくれた
63 : 2025/08/02(土) 23:58:58.79 ID:9H0c2YCY0
これ既にイーロンが買収に動いてるらしいな
どんだけグラボ節約できるんだよ
64 : 2025/08/02(土) 23:59:36.52 ID:Nw7tIAOK0
また裏で人力で回答してるんだろ
65 : 2025/08/03(日) 00:00:14.06 ID:YZquQFomM
人間の記憶能力がDVD約240枚分って説もあるし
本来はそんなに大容量は要らないんだよな
66 : 2025/08/03(日) 00:00:24.82 ID:li2D0I9i0
なんてさやをママにしようと刷り込んでくんだよ
67 : 2025/08/03(日) 00:00:28.38 ID:SYywideH0
LLMは小さくても6GB位するけどクライアント側はどこのサービスもそんなもんだろ
68 : 2025/08/03(日) 00:00:32.42 ID:uZSFXc3n0
ターミネーターの世界も近付いてきたな
70 : 2025/08/03(日) 00:00:56.24 ID:qWEwdIHh0
ついに安倍の後継者を見つけたようだな
71 : 2025/08/03(日) 00:01:28.68 ID:o/HoBHn30
そもそも今の何兆円もGPU必要な方式ってアホみたいだし
74 : 2025/08/03(日) 00:02:33.19 ID:uexmZyo+0
>>71
そのせいで成長も鈍化してるしLLMはそろそろ放棄されるだろうな
72 : 2025/08/03(日) 00:02:04.10 ID:F0EwXHqN0
もうこれ32MBでタイムマシン作れるだろw
73 : 2025/08/03(日) 00:02:16.05 ID:Qm2wSpEn0
うさんくせえ
75 : 2025/08/03(日) 00:03:55.32 ID:k6aCDllS0
今の大規模言語モデルとは全く別の設計思想に基づいたAIでchatGPTに匹敵したってこと?
ネタ抜きですごくね?
78 : 2025/08/03(日) 00:06:54.11 ID:oSsCMsOP0
>>75
階層的推論モデルっていうらしいねこれは
膨大な辞書のベクタデータがいらないからコンパクト
76 : 2025/08/03(日) 00:05:06.83 ID:dWdIpAGK0
すべての言語総当たりするよりか効率的にはなるよな
77 : 2025/08/03(日) 00:05:13.27 ID:fyUmjHli0
とりあえずダウンロードしてWikipediaの記事食わせてトレーニング開始してみた
環境構築はPytorchでクッソ楽
俺のRTX3060 12GBがブンブン回ってる
79 : 2025/08/03(日) 00:08:06.36 ID:uZSFXc3n0
で、エ口は?
81 : 2025/08/03(日) 00:08:27.51 ID:FLrilnV10
よく分からんが米国株を暴落させてくれ
83 : 2025/08/03(日) 00:10:31.43 ID:ZVSW/fUjM
そんな上手い話があるか?
84 : 2025/08/03(日) 00:10:47.82 ID:xAQrpwqp0
オフラインのローカルで動いて自分好みの性格の育成できてエ口制限無いつよつよドスケベAIの育成キットまだかよ
85 : 2025/08/03(日) 00:13:05.95 ID:pti8A/7BH
ちっさいおっさんが入ってるだけでは?
86 : 2025/08/03(日) 00:13:11.98 ID:pBO77CuE0
100時間の学習でAGIテスト40%はワロタ
もうちょいグラボ増やせばシンギュラリティ突破するだろこれ
87 : 2025/08/03(日) 00:13:14.81 ID:mJEz4HDq0
人間をまねて設計するなんて誰でも思いつきそうなもんだけど何で今までスルーされてたんだ?
123 : 2025/08/03(日) 00:31:38.32 ID:k6aCDllS0
>>87
前にやって失敗したから
88 : 2025/08/03(日) 00:13:17.72 ID:amIksUIO0
GPT5は出る前にゴミ化しそうだな
104 : 2025/08/03(日) 00:22:40.83 ID:ILGWAPYu0
>>88
アルトマンがGPT5は凄いぞ凄いぞ!って言いまくってるけど、どうなるんだろう…
105 : 2025/08/03(日) 00:23:39.14 ID:1zsLBmDQ0
>>104
GPT5のプロトタイプだった4.5があの出来だったから期待出来ねえ
まだGemini3の方が楽しみ
89 : 2025/08/03(日) 00:15:14.69 ID:bvW8n4Gj0
アリババのAIも負けるの?
90 : 2025/08/03(日) 00:15:35.14 ID:q2xDytX+0
LLM自体終了かよ
91 : 2025/08/03(日) 00:15:47.78 ID:ChRxG6V50
スマホにも入るな
92 : 2025/08/03(日) 00:16:59.08 ID:o/HoBHn30
ついに晋ギュラリティが見えてきた
今までの方式だと頭打ちって言われてたからな
94 : 2025/08/03(日) 00:17:25.40 ID:XWtUUxsg0
これマジなの?
96 : 2025/08/03(日) 00:17:30.33 ID:e9QVnWdA0
これをGPTみたいに1兆パラメータに増やして学習しまくったらどうなるんだろうな
102 : 2025/08/03(日) 00:20:15.81 ID:LzVsT2pb0
>>96
これ1000パラメータだから想像もつかんな
97 : 2025/08/03(日) 00:18:08.28 ID:KdkD3+7h0
でたの1ヶ月前だけどなんで話題になってないんだ?
98 : 2025/08/03(日) 00:18:24.42 ID:kuQIMxfy0
AIの開発に原発が要るって言ってたチームみらいさん🥹
99 : 2025/08/03(日) 00:18:47.08 ID:xj3cy8nc0
まあ正直LLMって頭打ちだったよな
Chatgptも明らかにバージョンアップのペース落ちてるし
100 : 2025/08/03(日) 00:19:51.92 ID:q1ovpF8p0
え?マジなのこれ?
101 : 2025/08/03(日) 00:20:00.65 ID:Tcz4NR8i0
さやってのをスレタイNGにすればいいわけだな
103 : 2025/08/03(日) 00:21:12.16 ID:ZeR2kuh80
どうせアホみたいに時間かかるんだろ
106 : 2025/08/03(日) 00:23:39.11 ID:w3isp5iv0
じゃあメモリ1000gbとか使って動かしてるロバートアルトマンとか馬鹿みたいじゃん。。。
108 : 2025/08/03(日) 00:24:26.80 ID:tPqyGzEz0
こいつに今まで通りのGPUと電力をたんまり与えるとどうなんの?
112 : 2025/08/03(日) 00:26:10.59 ID:uZQ1BhEWa
>>108
開発者のツイート読んだけどまさに今それをテスト中らしい
小型高速だけどスケールできないのか、それともまさかの成長性ありの神モデルなのか
110 : 2025/08/03(日) 00:25:29.13 ID:+bgZ80ShH
さやママをシンさんみたいにすんのやめろ
111 : 2025/08/03(日) 00:25:53.79 ID:nCkTuOUsH
知識部分はどうすんのこれ
ググるの?
115 : 2025/08/03(日) 00:27:25.38 ID:9USYD55F0
>>111
パターン認識から演繹してるみたい
そのうち既存のLLMのディープサーチみたいにググるようになるんだろうけど
113 : 2025/08/03(日) 00:27:00.41 ID:bq8jG2lH0
値段とエ口いことに使えるのかが大事
119 : 2025/08/03(日) 00:29:30.68 ID:ZXK5mVds0
>>113
HRMなんてモロのエ口隠語やで
114 : 2025/08/03(日) 00:27:16.06 ID:kHvkiPtA0
どういう仕組み?賢モメン簡単に説明して!
116 : 2025/08/03(日) 00:28:53.93 ID:q2xDytX+0
年内シンギュラリティ来ちゃうの?やだ怖い
117 : 2025/08/03(日) 00:29:02.66 ID:BUSGIAPtH
△←こんな形してそう
118 : 2025/08/03(日) 00:29:05.18 ID:ZzSxXzI90
TransformerのスケーリングでAGIに行ける気が全然しないしこれは期待
120 : 2025/08/03(日) 00:29:31.52 ID:7CKQ2H6T0
シンギュラリティ大幅に前倒しだな
オープンソースだし富裕層が独占出来なくて残念だったな
121 : 2025/08/03(日) 00:31:21.08 ID:w3isp5iv0
てか当たり前のように論文に中華ぽい名前並んでるけどあいつら頭良すぎだろ
122 : 2025/08/03(日) 00:31:37.82 ID:yXysLQcB0
今北産業
・TransformerやCoTで使うRNNをHRMに置き換える提案
・数独、迷路、ARC-AGIベンチ(抽象的ルール推論)といった狭い領域専用の学習で、コンパクトなのに高度な汎化能力と推論能力で高い性能を発揮した
・脳科学との対応: 脳前頭野の高次元ベクトル空間処理と、感覚・運動系の低次元高速処理からなる、次元の階層性が脳科学の知見とHRMの類似点である

と。LLM本体の代替ではなく、その一要素であるChain-of-Thoughtの専門家モジュールのアルゴリズム改善の話だね

コメント

タイトルとURLをコピーしました