【2024/3/4】【第6回】富⼠通次世代コンピューティングセミナーを開催します

 富士通次世代コンピューティング共同研究講座では、コンピューティングや情報技術に関するセミナーを定期開催しています。大学や企業から各分野の第一線で活躍されている研究者をお招きして最先端の研究成果や技術動向について講演していただきます。

 第6回のセミナーを下記の通り開催いたしますので、ぜひご参加ください。学生や教員のみなさまはもちろん、企業所属の方々など学外からも広くご参加いただけます。

⽇時

2024年3⽉4⽇(月)14:00-16:00

場所

ハイブリッド開催

  • オフライン︓広島⼤学 情報メディア教育研究センター 本館2階 セミナー室1、2、3
  • オンライン︓Microsoft Teams会議(こちらは録画予定ですので予めご了承ください)

講演

1.    14:00-15:00「大規模言語モデル(LLM)の学習を支える分散学習技術」

  • 本田 巧/Honda Takumi(富士通株式会社コンピューティング研究所 シニアリサーチマネージャー)
  • 大規模言語モデル(Large Language Model)に焦点を当て、学習の高速化のための技術について解説します。近年の言語モデルの基盤となっているTransformerアーキテクチャ、大規模言語モデルが開発される背景にあるScaling Lawついて紹介します。さらに、有名な大規模言語モデルであるGPT-3を例に、大規模言語モデルの学習に必要な3次元の並列化手法を説明します。また、メモリ使用量削減技術や高速化技術についても触れます。この講演を通じて、大規模言語モデルの分散学習技術について理解を深めることができます。


2.    15:00-16:00「近似コンピューティングで計算機システムの高速化と省電力化を両立しよう!!」

  • 鯉渕 道紘/Koibuchi Michihiro(国立情報学研究所/総合研究大学院大学 教授)
  • 計算機システム・ネットワークの設計では、一般的に高速化と省電力化はトレードオフの関係にあるため、両立させることが難しい。本講演では、「精度(近似)」という軸を導入、調整することで、このトレードオフの解消を目指す近似コンピュータの現状と展望を述べる。近似コンピューティングの本質は、アプリケーションから要求される「正確さ」とシステムが供給する「正確さ」のギャップを埋めてコンピューティングの性能・エネルギー効率化を達成することである。具体的に、コンピュータの構成要素であるプロセッサ、メモリ、ネットワークに関する例(講演者の研究を含)を用いて、計算機システムの高速化と省電力化の可能性を描く。


 

お申込み(無料)

  • 詳細・お申込み(無料)は共同研究講座HPよりご確認ください。
  • 学内からの参加は申込不要となっております。

主催

お問い合わせ

 広島⼤学⼤学院先進理⼯系科学研究科
   富⼠通次世代コンピューティング共同研究講座
   辻 聡樹(tsuji*hiroshima-u.ac.jp)
  (*は半角@に置き換えてください。)


up