| 授業科目名 | 先端人工知能論(99MD010) | 授業科目名(英) | |
| 教員名 | 熊澤 努 | ||
| 開講年度学期 | 2026年度 後期 | ||
| 曜日時限 | 火曜6限 | ||
| 開講学科 | 大学院 工学研究科 数理情報科学専攻・機械工学専攻 | ||
| 単位 | 2.0 | 学年 | 修士課程1年 |
| 科目区分・授業形態 | 専門科目 講義・演習 | 単位区分 | 選択 |
| 授業概要 | 数理情報科学を実社会で応用するには,今や深層学習を抜きにして語ることはできない. 深層学習は大規模言語モデルに代表されるように,社会の中に根付きつつあり,その基礎技術の修得は,数理情報科学においても必要不可欠である. この授業では、深層学習の基礎技術と数学的な基礎事項,最新技術を網羅的に学習する. 以下に示す深層学習に関する最新の教科書から、各回1から2章を選び、輪講形式で授業を行う. Christopher M. Bishop , Hugh Bishop. “Deep Learning Foundations and Concepts”, Springer, 2023. この授業では、教科書で扱われている様々なトピックの数理的な基礎付けを積極的に学ぶ姿勢が求められる. 【実務経験教員による授業】 ■本科目の担当教員である熊澤努は,2001年度から2004年度まで、株式会社アドバンテストで産業用機器のソフトウェア開発に携わった。また、2011年度から現在にかけて、株式会社SRAにてソフトウェアシステムの研究並びに開発に従事しており、その業務で養った経験を活かし、機械学習に関する実用上重要な内容を講義する. |
| 達成目標 | ・不確実な状況下での意思決定を行う問題を説明することができる。 ・代表的な強化学習アルゴリズムを説明することができる。 ・意思決定問題を解くためのプログラムを自身の手で実装することができる。 |
| DPとの関連性 | DP1:〇 DP2: DP3: |
| 成績評価方法 | 達成目標事項についての演習・小問・レポート課題を行い、その成績の合計に応じて以下のように評価を与える。評価は質的評価(60%),量的評価(40%)を併用する.質的評価に用いるルーブリックをMoodle上で履修者に公開する. S:90~100点、A:80~89点、B:70~79点、C:60~69点、D:59点以下 不合格 再試験:無 |
| 教科書 | 資料を配布する.輪講を行う教科書については教員の指示に従うこと. |
| 参考書 | Christopher M. Bishop , Hugh Bishop. “Deep Learning Foundations and Concepts”, Springer, 2023. Kevin P. Murphy. Probabilistic Machine Learning, An Introduction, MIT Press, 2022. |
| 履修上の注意 | 輪講形式で授業を行うため,授業内で発表を1回以上行うことが求められる. 授業中の議論,質疑に積極的に参加することが求められる. |
| 授業計画 | 授業計画 第1回:授業ガイダンス、輪講の進め方の説明を行う。 第2回:2章 Probabilities, 3章Standard Distributions の輪講を行う。 確率と確率分布の基礎事項を復習する。 第3回:4章Single Layer Networks: Regression, 5章Single Layer Networks: Classification の輪講を行う。 回帰分析,分類,決定理論について理解する。 第4回:6章 Deep Neural Networksの輪講を行う。 深層学習の基礎的な考え方である,多層ネットワーク,表現学習,転移学習,対照学習を理解する。 第5回:7章Gradient Descentの輪講を行う。 深層学習の訓練に用いられる勾配降下法の考え方を理解する。収束性,正規化,バッチ学習を学ぶ. 第6回:8章 Backpropagationの輪講を行う。 深層学習の訓練で使われる誤差逆伝搬法を理解する。 第7回:9章 Regularizationの輪講を行う。 深層学習で用いられる正則化法を学ぶ。ノー・フリー・ランチ定理を説明できるようになる.重み減衰,早期停止,ドロップアウト法を理解する. 第8回:10章 Convolutional Neural Networksの輪講を行う。 畳み込みとその画像認識への応用を理解する。畳み込みニューラルネットワークの仕組みを学ぶ.画像認識の代表的な応用である物体検出とセグメンテーションを理解する. 第9回:11章 Structured Distribution の輪講を行う。 グラフィカルモデル,ナイーブベイズなどの構造を持つ確率分布の扱いを学習する。 第10回:12章 Transformersの輪講を行う(1)。 代表的な自然言語モデルであるトランスフォーマーについて学ぶ。特にその構成方式を中心に学ぶ. 第11回:12章 Transformersの輪講を行う(2)。 トランスフォーマーの応用をを学ぶ.自然言語処理への活用法だけでなく,画像認識への応用について理解する. 第12回:13章 Graph Neural Networksの輪講を行う。 グラフ構造の深層学習への応用について理解し,グラフニューラルネットワークを学ぶ。グラフニューラルネットワークの応用として,頂点や辺の分類問題とその解法について理解する. 第13回:17章 Generative Adversarial Networks, 18章Normalizing Flowsの輪講を行う。 敵対的学習,Normalizing Flowの基礎概念を理解する。 第14回:19章 Autoencodersの輪講を行う。 各種の自己符号化器の仕組みを学ぶ。変分自己符号化器を理解する. 第15回:20章 Diffusion Modelsの輪講を行う。 拡散モデルについて理解し,その深層学習における応用技術について学ぶ。 定期試験は実施しない --- [授業外学習] 授業は輪講形式で行う.教科書の担当個所について,授業前に概要を調査した資料を作成しておくこと.また,各回の授業後には教科書を読み,Moodleのフォーラム等を使用して不明点を履修者並びに教員と議論をして理解を深めること. 予習と復習には90分程度かけることが期待される. |
| 注意 |
- 教員: 熊澤 努
背景色
フォント
フォントカーニング
文字の大きさ
画像の可視性
文字間隔
行の高さ
リンクの強調
文字の色