Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Fast Model Editing at Scale #2101

Open
icoxfog417 opened this issue Oct 29, 2021 · 0 comments
Open

Fast Model Editing at Scale #2101

icoxfog417 opened this issue Oct 29, 2021 · 0 comments

Comments

@icoxfog417
Copy link
Member

一言でいうと

破壊的忘却なしに事前学習済みモデルの「編集」を行う研究。全結合のシンプルなネットワークで、転移学習した場合の重みを元のパラメータと大きく離れないように編集して適用する。ただ、勾配の次元は大きいためパラメータを直積の形式に分解して計算する。
T5やGPTといった億単位級モデルで効果を確認

論文リンク

https://arxiv.org/abs/2110.11309

著者/所属機関

Eric Mitchell, Charles Lin, Antoine Bosselut, Chelsea Finn, Christopher D. Manning

  • Stanford University

投稿日付(yyyy/MM/dd)

2021/10/21

概要

新規性・差分

手法

結果

コメント

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant