We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
破壊的忘却なしに事前学習済みモデルの「編集」を行う研究。全結合のシンプルなネットワークで、転移学習した場合の重みを元のパラメータと大きく離れないように編集して適用する。ただ、勾配の次元は大きいためパラメータを直積の形式に分解して計算する。 T5やGPTといった億単位級モデルで効果を確認
https://arxiv.org/abs/2110.11309
Eric Mitchell, Charles Lin, Antoine Bosselut, Chelsea Finn, Christopher D. Manning
2021/10/21
The text was updated successfully, but these errors were encountered:
No branches or pull requests
一言でいうと
破壊的忘却なしに事前学習済みモデルの「編集」を行う研究。全結合のシンプルなネットワークで、転移学習した場合の重みを元のパラメータと大きく離れないように編集して適用する。ただ、勾配の次元は大きいためパラメータを直積の形式に分解して計算する。
T5やGPTといった億単位級モデルで効果を確認
論文リンク
https://arxiv.org/abs/2110.11309
著者/所属機関
Eric Mitchell, Charles Lin, Antoine Bosselut, Chelsea Finn, Christopher D. Manning
投稿日付(yyyy/MM/dd)
2021/10/21
概要
新規性・差分
手法
結果
コメント
The text was updated successfully, but these errors were encountered: