>>682
現状所詮は言語モデル
ただ怖ろしいのはOpenAIが5年前に言ってたscaling lawsっていうトークン、パラメーター、計算量をちゃんと増やすとトークン数に対してべき関数的に制度が飛躍的に改善するっていうのがマジだったことだな
だれも信じてなかったし、その時期にイーロンマスクはさったけど、その論文をMSは信じて金投入しまくったらその論文通りにGPT2もGPT3も性能が飛躍的によくなってった
要するにNNって実は案外単純なモデルを物量で信じられないような成果があがるって言語でも証明できた
画像についてはCNNが強いのはみんなしってたけど言語をRNNでもなくtransformer使えばべき関数的に性能があがるっていう