LLM 言語理解のベンチマーク:GLUE
近年、人工知能、とりわけ言葉を扱う技術は、驚くほどの進歩を見せています。新しい方法が次々と生み出され、その精度は日に日に向上しています。しかし、新しい方法の良し悪しを判断する共通の基準がないと、それぞれの性能を比べることは容易ではありません。例えるなら、様々な教科の試験結果を総合的に見て、生徒全体の学力を判断するのと同じです。特定の教科だけが得意でも、他の教科が苦手であれば、真の学力が高いとは言えないでしょう。人工知能の分野でも同様に、特定の仕事だけができても、他の仕事ができないと、真の理解力が高いとは言えません。
そこで、言葉の理解力を測る共通の試験として、「GLUE」が登場しました。これは、「General Language Understanding Evaluation」の略で、様々な種類の課題をまとめて評価することで、人工知能の総合的な理解力を測ることを目的としています。まるで運動会のように、様々な競技を用意し、総合得点で順位を決めるようなものです。走るのが得意な人工知能もいれば、計算が得意な人工知能もいるでしょう。GLUEは、そのような様々な能力をまとめて評価することで、より実用的な人工知能の開発を促進することを目指しています。具体的には、質問に答える、文章の続きを考える、文章の感情を読み取る、など、様々な種類の課題が出題されます。これらの課題を総合的に評価することで、特定の課題に特化した人工知能ではなく、様々な状況に対応できる、より柔軟で汎用的な人工知能の開発を後押ししています。
