Scaling Transformer to 1M tokens and beyond with RMT
https://arxiv.org/abs/2304.11062
探検
【朗報】AIの記憶力「トークン」を200万に拡張する技術が登場(GPT-4は3万)、人類終焉へ
■ このスレッドは過去ログ倉庫に格納されています
1それでも動く名無し
2023/04/26(水) 20:36:29.80ID:LeCNu7t702それでも動く名無し
2023/04/26(水) 20:37:18.15ID:LNJ/xesx0 ただしGPUに32GB必要ってオチだろ
3それでも動く名無し
2023/04/26(水) 20:37:24.44ID:LeCNu7t70 本技術報告は、自然言語処理において最も効果的なTransformerベースのモデルの一つであるBERTの文脈長を拡張するための
リカレントメモリの応用を紹介する。リカレントメモリTransformerアーキテクチャを活用することで、
高い記憶検索精度を維持しながら、モデルの有効文脈長を前例のない200万トークンに増やすことに成功した。
本手法では、ローカル情報とグローバル情報の両方を保存・処理することができ、再帰性を利用することで入力シーケンスの
セグメント間の情報フローを実現しています。この手法は、自然言語理解・生成タスクにおける長期的な依存関係の処理を強化し、
メモリ集約型のアプリケーションにおける大規模なコンテキスト処理を可能にする大きな可能性を秘めていることが、実験によって証明された。
リカレントメモリの応用を紹介する。リカレントメモリTransformerアーキテクチャを活用することで、
高い記憶検索精度を維持しながら、モデルの有効文脈長を前例のない200万トークンに増やすことに成功した。
本手法では、ローカル情報とグローバル情報の両方を保存・処理することができ、再帰性を利用することで入力シーケンスの
セグメント間の情報フローを実現しています。この手法は、自然言語理解・生成タスクにおける長期的な依存関係の処理を強化し、
メモリ集約型のアプリケーションにおける大規模なコンテキスト処理を可能にする大きな可能性を秘めていることが、実験によって証明された。
4それでも動く名無し
2023/04/26(水) 20:38:18.44ID:LeCNu7t70 >>2
モデル学習の話やから個人レベルのコンピューティング環境とは異次元の話やで
モデル学習の話やから個人レベルのコンピューティング環境とは異次元の話やで
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 電車でリュック「前抱え」やめてほしいの声 「車内で迷惑な荷物の持ち方」5位、マナー啓発にも変化 [おっさん友の会★]
- 外国人富裕層に米永住権販売 7億5000万円で トランプ氏 [どどん★]
- 「民主党政権は間違ったこと…ない!」立民・鎌田さゆり氏、拍子木鳴らし絶叫 会場は喝采 [少考さん★]
- プーチン「ゼレンスキーがごねるなら、私がウクライナの鉱物資源をトランプにあげよう」… ★3 [BFU★]
- 「日本の森林再生のため」の大阪万博の目玉 344億円の巨大木造リングはほぼフィンランド産 [おっさん友の会★]
- あのちゃん、学生時代に自分を「いじめてた奴ら」にメッセージ「笑わせんな」「友達とかまじやめてね」 [ネギうどん★]
- 【朗報】維新、竹中平蔵を起用。吉村「政策決定に携わっていただく」 [518915984]
- ヒカル(年収10億)「財務省の官僚(年収800万)は自分たちばかり甘い汁吸ってんじゃねえぞ。大衆がどうなってもいいのか?」 [884040186]
- 大阪万博の目玉、トランプ大統領 [476729448]
- 【謎】リベラルな嫌儲が、リベラリズムである『財務省叩き』には一貫して冷笑的であった理由 [312375913]
- 女性「お願いですから女にだけ"帯刀"を許可してください…」 [225673818]
- 【画像】ゲームソフトのパッケージで思わず懐かしくなったら死亡wwwwwwwwwww