Skip to content

Related Works

Takahiro Kubo edited this page Apr 10, 2018 · 1 revision

SemEval-2015 Task 12: Aspect Based Sentiment Analysis papersでは、以下3つのタスクがある

  • Slot1: E#Aペアの推定
  • Slot2: Targetの推定
  • Slot3: Sentimentの推定

なお、アノテーションについては以下のような問題があったと報告されている

  • Slot1: ドメイン知識の不足によるアノテーションの差異。「スクリーンが真っ黒になった」という場合に、スクリーンが真っ黒になるのでディスプレイの問題、としている人がいるが、そもそもそれはOS等の問題で引き起こされるのでスクリーンの問題ではないかも、など(なお、「ブルースクリーン」はよく知られているので、この問題は起こらなかったとのこと)。また、「デザイン」が「使いやすさ」に影響を及ぼすなど、ラベル間の依存で依存があった(この場合双方にアノテーションしていた)。

  • Slot2: 一般的な名詞や固有表現よりも、わかりやすい主語にアノテートされることが多かった。「ギリシャの料理か、キプロスの料理」という場合に、ギリシャの料理/キプロスの料理と別個にせず、「ギリシャの料理か、キプロスの料理」という単位でアノテートするなど

  • Slot3: 徐々に変化するpolarity: とてもおいしいと思ったが、そういうわけでもなくて・・・みたいな。NegativeだけとPositiveな評価: 故障しやすいけど、気にしてないぜ!みたいな。Neutralの扱い

  • 詳細はSemEval-2015 Task 12: Aspect Based Sentiment Analysis参照

  • 提出された論文などはこちら: Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval 2015)

  • 翌年のSemEval-2016 Task5はこちら

SemEval以外の研究は、以下のサーベイの「ASPECT LEVEL SENTIMENT CLASSIFICATION」にまとまっている

FFNNを用いており、単語の分散表現を用いず、言語モデルなどの素性ベクトルを入力として利用している。

  • Aspectの特定: 各観点ごとに1-layerのNNで分類(multi-classをone-vs-allで解いている形。1-layerなので)。特徴として、単語、Bi-gram、辞書、外部データを使用したクラスタなどを使用している
  • Opinion Targetの特定: CRFを使用。クラスごとだとラベルが少なすぎるので、全クラスを統合して学習(どのAspectのTargetなのかは気にしないで学習)

sentimentのことは気にしていないように思える。

Aspectの推定に効く特徴を調べた論文。身もふたもないが、ドメイン固有の単語(パソコンなら便利、速い、など)が一番効いている。あとは、地味に文法的な関連の特徴が効いている。係り受け関係にある2語の、それぞれの関係をrel1/rel2として使用している。分類機はSVM

2層FFNNと単語の分散表現を用いることで高い精度("Deep"とはいったい・・・)

  • Aspectの推定: 2層NN 分散表現を利用するので、ことさらに複雑なモデルを使用すると過学習の恐れがあると考えたため
  • Sentimentの推定: CNNを使用。Aspectの分類確率でもって単語ベクトルを重みづけしたうえで入力している(これにより、Aspectと推定される単語が重要視されてSentimentが判定される)
  • ニューラルネットベースの手法では高精度を出すためには大量のデータが必要。
  • しかし、アスペクトベース評価分析のデータセットの量はあまり大きくない。
  • -> データ拡張でデータ量を増やして、ニューラルベースでも高精度を出そう!

タスクはE#Aペアの推定に特化

データ拡張の手法は以下の3つ

  • 単語分散表現
  • シソーラス
  • ルール

モデルは以下の3つで検証

  • 2層FFNN
  • LSTM(one-hot)
  • CNN

結果: データセットをシソーラスで拡張しLSTMで分類した結果が最良