Scaling Transformer to 1M tokens and beyond with RMT
https://arxiv.org/abs/2304.11062
探検
【朗報】AIの記憶力「トークン」を200万に拡張する技術が登場(GPT-4は3万)、人類終焉へ
■ このスレッドは過去ログ倉庫に格納されています
1それでも動く名無し
2023/04/26(水) 20:36:29.80ID:LeCNu7t702それでも動く名無し
2023/04/26(水) 20:37:18.15ID:LNJ/xesx0 ただしGPUに32GB必要ってオチだろ
3それでも動く名無し
2023/04/26(水) 20:37:24.44ID:LeCNu7t70 本技術報告は、自然言語処理において最も効果的なTransformerベースのモデルの一つであるBERTの文脈長を拡張するための
リカレントメモリの応用を紹介する。リカレントメモリTransformerアーキテクチャを活用することで、
高い記憶検索精度を維持しながら、モデルの有効文脈長を前例のない200万トークンに増やすことに成功した。
本手法では、ローカル情報とグローバル情報の両方を保存・処理することができ、再帰性を利用することで入力シーケンスの
セグメント間の情報フローを実現しています。この手法は、自然言語理解・生成タスクにおける長期的な依存関係の処理を強化し、
メモリ集約型のアプリケーションにおける大規模なコンテキスト処理を可能にする大きな可能性を秘めていることが、実験によって証明された。
リカレントメモリの応用を紹介する。リカレントメモリTransformerアーキテクチャを活用することで、
高い記憶検索精度を維持しながら、モデルの有効文脈長を前例のない200万トークンに増やすことに成功した。
本手法では、ローカル情報とグローバル情報の両方を保存・処理することができ、再帰性を利用することで入力シーケンスの
セグメント間の情報フローを実現しています。この手法は、自然言語理解・生成タスクにおける長期的な依存関係の処理を強化し、
メモリ集約型のアプリケーションにおける大規模なコンテキスト処理を可能にする大きな可能性を秘めていることが、実験によって証明された。
4それでも動く名無し
2023/04/26(水) 20:38:18.44ID:LeCNu7t70 >>2
モデル学習の話やから個人レベルのコンピューティング環境とは異次元の話やで
モデル学習の話やから個人レベルのコンピューティング環境とは異次元の話やで
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 大阪・関西万博、鳥取砂丘の砂10トン展示へ [バイト歴50年★]
- 【コメ癒着】米価70%高騰の裏で…自民・農林族議員がJA関連団体から1.4億円を受け取っていた ★3 [おっさん友の会★]
- 【コメ癒着】米価70%高騰の裏で…自民・農林族議員がJA関連団体から1.4億円を受け取っていた ★2 [おっさん友の会★]
- 「カローラ買えない」年収の半分に 停滞ニッポン映す鏡 ★2 [ぐれ★]
- トランプは1987年にロシアのスパイとして採用された コードネームは「クラスノフ」 元KGBで元カザフスタン諜報部長のムサエフ氏主張 [ごまカンパチ★]
- 【大阪万博】「歯抜け開幕」ますます現実味…海外パビリオン完成たった6カ国、当日券導入助け舟の皮肉 [七波羅探題★]
- AFC U20アジアカップ 中国2025 ★12
- アルビレックス新潟実況スレ(vs鹿島 ) ★2
- サンフレッチェ広島 実況 2
- FC東京実況
- しみじみ実況 清水エスパルス ★5
- 鹿島アントラーズ実況2025☆05
- 新築の✨🏡✨
- 財務省解体デモってネトウヨの集まりだろ [542584332]
- 日本人さん「和を乱すのか!😡協力しないとわかりますね😏」ガソリンスタンド「従います🥺・・・」 [441660812]
- 鳥取砂丘の砂10トン、大阪万博で展示へ😲 [521921834]
- 【急募】「山形県」について知っていること
- 【悲報】斎藤元彦陣営のネット広報担当会社が投稿したnoteで騒然★508 [931948549]