世界から注目されるLLM研究の舞台裏。トップ研究者との議論が生まれる研究環境とは?

2020年に博士課程から松尾・岩澤研究室に所属した小島武特任研究員は、博士号取得後も研究室に残り、主にLLM(大規模言語モデル)の研究・開発に取り組んでいます。「Let’s think step by step」と指定することで、AIの正答率が高まるという発見をした小島さんの主著論文は、発表から2年足らずで2000以上(2024年5月24日現在)引用され、世界中のAI研究者から注目を集めました。100億パラメータサイズの大規模言語モデルの開発リーダーや経済産業省のGENIAC採択プロジェクトの開発支援チームリーダーとしても活躍する小島さんに、最新のLLM研究や松尾・岩澤研の魅力について聞きました。   著名なAI研究者たちとの共著論文を 手がける機会が訪れる研究室 —小島さんの代表論文である通称「step by step論文」は、発表から2年弱で2000以上の引用をされています。概要を改めて教えてください。 これは、松尾・岩澤研究室に加入した後、博士課程在籍時の2022年5月に発表した「Large Language Models are Zero-Shot Reasoners」というタイトルの論文です。LLM(大規模言語モデル)はゼロショットの多段階推論が可能であることをデータで示したものになります。     ゼロショットの多段階推論とは、LLMがプロンプト(指示)にFew-shot事例(いくつかの例題)がなくとも与えられた複雑なタスクをこなすことを指します。LLMから多段階の複雑な推論を引き出すためには、タスク特有のFew-shot事例が必要だと考えるのが、それまでの常識でした。しかし、膨大な知識を持つLLMに特別なプロンプトを与えることで、ゼロショット推論が可能になると私は考えました。 詳しくはこちら>> Large Language Models are Zero-Shot Reasoners 具体的には、「Let’s think step by step」というプロンプトを与えることで、LLMが事前学習していない新しいタスクでも論理的な推論を行える可能性を示しました。実験で使用したLLMは、GPT-3の後継であるInstruct GPT。これを使って、MultiArith(数学的な推論能力を評価するデータセット)の問題を解かせると「Let’s think step by step」のプロンプトを与える前後で、正答率が17.7%から78.7%に飛躍的に向上しました。GoogleのPaLMなど別のLLMでも同様の挙動を確認できました。 このアイデアを得たのは、Googleの研究者が2022年1月に発表した「Chain-of-Thought Prompting Elicits Reasoning in Large Language Models」という論文を知ったのがきっかけでした。LLMがFew-shotで似たようなタスクをこなせる可能性を示唆するもので、これならゼロショットでもできるのではないかと考えたわけです。まだ誰も手を付けていない領域だったこともあり、1〜2か月ほどで書き上げました。 詳しくはこちら>> Chain-of-Thought Prompting Elicits Reasoning in Large Language Models —この論文発表によって、小島さんの生活に変化はありましたか?…

令和6年度「電波の日・情報通信月間」における表彰で、松尾教授が「情報通信月間」総務大臣表彰を授与されました。

総務省及び情報通信月間推進協議会により開かれた6月1日の「電波の日」を記念する式典にて、松尾教授が「情報通信月間」総務大臣表彰を授与されました。

功績の概要としては、下記の通りです。
「AIネットワーク社会推進会議の構成員として、AI事業者ガイドラインの策定に向けた検討に尽力するとともに、AI戦略会議の座長として、生成AIに関する幅広い議論を主導するなど、我が国のAI戦略の推進に多大な貢献をした。」

詳細は下記をご覧ください。
https://www.soumu.go.jp/menu_news/s-news/01tsushin10_02000075.html