Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Is Fine-tuning Needed? Pre-trained Language Models Are Near Perfect for Out-of-Domain Detection #2118

Open
icoxfog417 opened this issue Nov 9, 2023 · 0 comments

Comments

@icoxfog417
Copy link
Member

一言でいうと

事前学習なしにニュースと感情分析など異なるドメインのデータを検出することができることを示した研究。異なるドメインかどうかはベクトル表現の距離で計算し、モデルは RoBERTa を使用している。金融や医療など、誤りが許されない領域で異なるドメインのデータが推論のパイプラインに入らないようはじく用途を企図している。

論文リンク

https://arxiv.org/abs/2305.13282

著者/所属機関

Rheeya Uppaal, Junjie Hu, Yixuan Li

  • Department of Computer Sciences
  • Department of Biostatistics and Medical Informatics
  • University of Wisconsin-Madison

投稿日付(yyyy/MM/dd)

2023/5/22

概要

新規性・差分

手法

結果

コメント

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant