Release of Weblab-10B: A 10 Billion-Parameter Bilingual Language Model Supporting Japanese and English

Press Release: Matsuo Laboratory, The University of Tokyo Release of Weblab-10B: A 10 Billion-Parameter Bilingual Language Model Supporting Japanese and English   ※ The following is a partial English translation of the press release issued on August 22, 2023. Please refer to the Japanese version for the original. Original: Press Release_2023/08/22   Tokyo, [2023/08/22] —…

How to use think-cell

think-cell is a presentation software that integrates with PowerPoint and Excel seamlessly to help you visualize complex data using charts. The software is available for free to students, staff and faculty members of Matsuo Lab, UT by downloading and installing it on your personal computer. think-cell – used by most consulting firms – might save…

【松尾研主催Deep Learning 輪読会】記念すべき第256回が開催

Sorry, this entry is only available in Japanese. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language. DeepLearningの最新論文をキャッチアップする勉強会「DL輪読会」。 その記念すべき第256回目(2の8乗回)が先月開催されました。(写真は2019年以前のオフライン開催のもの) 今日はDL輪読会の活動についてご紹介します!   ◼︎DL輪読会とは DL輪読会では、毎週金曜日の朝10時から、Deep Learningに関する論文を紹介発表しています。2014年に開始し、活動としては6年以上続いています。 紹介する論文は毎回持ち回りで2〜3名が担当し、参加者自身が興味関心のあるものを自由に選ぶことができます。 参加者は学生だけでなく、大手企業やベンチャーに在籍されている社会人もいます。業務でDeep Learningに携わる方や、学生時代に関連の研究をされていて社会人になっても勉強を続けたい方など様々です。 そのため毎回多様な視点からの質疑応答が飛び交い、積極的に参加くださっています。 2020年はオンライン開催となったため、全国の講座修了生の方にも参加いただけました。   ◼︎発表スライドのTwitter表示回数ランキング 輪読会で発表されたスライドは随時SlideShereにてアップされます。2020年中で表示回数が最も多かった発表をご紹介します。 ※2020年1月〜12月21日までの「DL Hacks」Twitterアカウントより集計 5位 What do Models Learn from…

Our paper was accepted for ICLR2021.

Our paper was accepted for presentation at ICLR2021. 【Information】Tatsuya Matsushima, Hiroki Furuta, Yutaka Matsuo, Ofir Nachum, and Shixiang Shane Gu. “Deployment-Efficient Reinforcement Learning via Model-Based Offline Optimization”, International Conference on Learning Representations 2021 (ICLR2021). May 2021. 【Overview】Most reinforcement learning (RL) algorithms assume online access to the environment, in which one may readily interleave updates to…

Our paper was accepted for ICLR2021.

Our paper was accepted for presentation at ICLR2021. 【Information】Makoto Kawano, Wataru Kumagai, Akiyoshi Sannai, Yusuke Iwasawa, and Yutaka Matsuo. “Group Equivariant Conditional Neural Processes”, International Conference on Learning Representations 2021 (ICLR2021). May 2021. 【Overview】We present the group equivariant conditional neural process (EquivCNP), a meta-learning method with permutation invariance in a data set as in conventional…

【東大松尾研】2020年の活動報告

Sorry, this entry is only available in Japanese. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language. こんにちは、松尾研 広報チームです。 激動の2020年もまもなく終わり。 松尾研にとって2020年は、ポジティブな変化が多かった年となりました。 本日は、研究室内外で話題になった2020年のトピックスを改めてご紹介します!   1.基礎研究チームの増強 今年は3名の基礎研究メンバーが、松尾研に新しく参画しました。 松尾先生が所属する人工物工学研究センターに特任教授として就任された丸山宏先生との交流の開始や、ロボット3機のジョインなどもあり、ますます賑やかな組織になりました。 また8月には、特任研究員だった鈴木雅大さんが特任助教に就任、12月には、特任助教の岩澤有祐さんが特任講師に就任するなど、1年を通しておめでたいニュースが続きました! 新研究メンバーのご紹介 特任助教 熊谷亘さん プロフィール 2013年 東北大学大学院 情報科学研究科 博士課程修了(学振DC1) 2013年9月-2014年3月 名古屋大学 学振PD 2014年4月-2017年3月…

Stabilizing Adversarial Invariance Induction from Divergence Minimization Perspective (IJCAI2020)

Sorry, this entry is only available in Japanese. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language. 国際人工知能会議(IJCAI2020)にて、このほど当研究室の論文 「Stabilizing Adversarial Invariance Induction from Divergence Minimization Perspective」(分布マッチングの観点からみた敵対的不変表現学習の安定化) が採択されました。 著者:岩澤有祐、阿久澤圭、松尾豊 論文リンク:https://www.ijcai.org/Proceedings/2020/271 主な著者である松尾研究室 特任助教 岩澤さんより、 論文の概要や採択までのエピソードについて解説してもらいました。 敵対的学習を用いた不変表現学習 今回の研究は、「不変表現学習」についてです。 表現の不変性とは、ある表現が特定の因子に対して独立であることを指す概念です。 不変性が重要な例として、監視カメラの動画から不審行動を検知するシステムを考えてみます。このシステムが、もし背丈などの身体的特徴に依存した予測をしていると、身体的特徴によって予測精度が大きくぶれる(ある特定のユーザ群にはうまく働くが,他のユーザ群にはうまく働かない)といった問題を引き起こす可能性があります。実際にシステムを活用する多くの場面では、未知のユーザに対してもうまく働くことが期待されるため、このような予測のぶれを防ぐために身体的特徴に依存しない情報(表現)を活用した判断をする必要があります。 あるいは、たとえば肌が黒い人がいるという情報を抽出し、それを判断の基準に利用することは、社会通念上問題になる場合があります。公平性の観点から、検知システムは肌の色に依存しないことが求められます。 しかし、表現学習の手法として近年よく使われる深層ニューラルネットワーク(以下、DNN)は、獲得した表現が、このように特定の因子に対し独立である(不変性を持つ)とは限りません。このような制約を、明示的にDNNの学習に組み込む技術が、「不変表現学習」と呼ばれる技術です。…