とね日記

理数系ネタ、パソコン、フランス語の話が中心。
量子テレポーテーションや超弦理論の理解を目指して勉強を続けています!

学習物理学入門:橋本幸士

2024年12月01日 17時20分00秒 | 物理学、数学
学習物理学入門:橋本幸士」(Kindle版

内容紹介:
・物理学と人工知能・機械学習のコラボレーションを学ぶ入門テキスト。
・物理系学生がスムーズに機械学習に入門し、物理学と機械学習の関係・協働を知ることができる。

2024年11月6日刊行、208ページ

編集者について:
橋本幸士: ホームページ、X: @hashimotostringarXiv.org論文
理学博士。1973年生まれ、大阪育ち。1995年京都大学理学部卒業、2000年京都大学大学院理学研究科修了。理学博士。サンタバーバラ理論物理学研究所、東京大学、理化学研究所などを経て、2012年より大阪大学大学院理学研究科教授、2024年現在京都大学大学院理学研究科教授。専門は理論物理学、弦理論。

著者:
富谷昭夫  東京女子大学現代教養学部 (イントロダクション,A1,A2,A3章)
橋本幸士  京都大学大学院理学研究科 (A4章)
金子隆威  上智大学理工学部 (A5章)
瀧 雅人  立教大学人工知能科学研究科 (B1章)
広野雄士  大阪大学大学院理学研究科 (B2章)
唐木田亮  産業技術総合研究所人工知能研究センター (B3章)
三内顕義  京都大学大学院理学研究科 (B4章)


理数系書籍のレビュー記事は本書で495冊目

2022年にChatGPTが発表されて以来、猫も杓子もAI使いになってしまった。会議やプレゼンの資料作成、会議の文字おこしから要約作成などビジネス分野での利用、画像生成や動画生成などマルチメディア分野での利用、翻訳や通訳はそれ以前から利用可能だったが大規模言語モデルの登場により翻訳精度は格段に向上した。教育の分野でもすでに研究が始まっているし、その利用が現場の教育で行われるのはきっと近いことだろう。

そして今年のノーベル物理学賞と化学賞は、ともにそれぞれの学問領域においてAIの基礎技術の開発と利用をすることによって得られた業績に対して与えられた。

2024年 ノーベル物理学賞はホップフィールド博士、ヒントン博士に決定!
https://blog.goo.ne.jp/ktonegaw/e/2e34676bf6a10cfc581d43cd791afb21

2024年 ノーベル化学賞はベイカー博士、ハサビス博士、ジャンパー博士に決定!
https://blog.goo.ne.jp/ktonegaw/e/58861d38593ccdebcbad6270f1cbe037

AIについては初心者向けから中級者向けにさまざまなセミナーや講義が行われている。そのほとんどがビジネス向けや動画生成など「AIを利用するためのノウハウ」を伝授するものだ。AI、特に機械学習のしくみを学ぶためには統計学や線形代数、微分方程式など理系大学の学部レベルで学ぶ数学の理解が必要だから、ビジネス一般向けやクリエイター向けのセミナーで学ぶことはできない。「どのように使うべきか」ということにフォーカスされている。

時代に取り残されたくない。すべてを理解できなくていいから、概略だけでも知っておきたい。ビジネスマンの端くれとして業務効率化のためのノウハウも知っておきたいが、物理学ファンのひとりとして物理学領域でどのようにAIが活用されているのかを知っておきたい。

好奇心がむくむくと沸いてきて本書を読み始めることになった。知りたい気持ちをおさえるのは精神上よくないことだから。

本書の章立ては以下のとおりだ。詳細の目次はこの記事のいちばん下に載せておいた。

0. イントロダクション
A 機械学習と物理学
A1. 線形モデル
A2. ニューラルネットワーク(NN)
A3. 対称性と機械学習:畳み込み・同変 NN
A4. 古典力学と機械学習: NN と微分方程式
A5. 量子力学と機械学習: NN 波動関数
B 機械学習模型と物理学
B1. トランスフォーマー
B2. 拡散モデルと経路積分
B3. 機械学習の仕組み: 統計力学的アプローチ
B4. 大規模言語モデルと科学

本書を読み終えてみて、全体の理解度は7割程度、前半のA「機械学習と物理学」については8割、後半のB「機械学習模型と物理学」については6割程度だった。

読むために必要な前提知識は機械学習系と(数学を含む)物理学系に分かれると思う。機械学習については本書の前半で解説しているわけだが、ページ数に限りがあるためほかの本で学んでおくほうがよさそうだ。「高校数学からはじめるディープラーニング 初歩からわかる人工知能が働くしくみ (ブルーバックス)」(Kindle版)などから始めるとよいかもしれない。

本書がお買い得だと思ったのは、トランスフォーマーや大規模言語モデルを解説しているところだ。つまり画像生成や機械翻訳がどのようなしくみで行われているのか概要を知ることができる。

物理学系の前提知識は大学学部レベルの力学、解析力学、統計力学、量子力学(ファインマンの経路積分を含む)、ゲージ理論あたりなのだろう。数学知識としては線形代数、微分方程式、統計学、確率過程論、群論あたり。そのため、物理学科以外の学生にとっては少々ハードルが高い。しかし「AIの物理学研究への応用」がテーマの本なのだから、物理学の理解が必要なるのは当然のことだ。

ともあれ理解度に満足できたわけではないが、最新の研究内容の概要を理解できただけで今回は満足しておこう。購入される方は、こちらからどうぞ。

学習物理学入門:橋本幸士」(Kindle版


機械学習のしくみを知るには、数式だけではなかなか実感がわかない。具体的なプログラミングを通じて学ぶのによいのがこちらの本だ。タイトルには書かれていないが「イジング模型の統計力学」を機械学習で解くためのPythonプログラミングを学べる物理学科向けの本である。

これならわかる機械学習入門:富谷昭夫」(Kindle版



関連記事:

ディープラーニングと物理学 原理がわかる、応用ができる:田中章詞、富谷昭夫、橋本幸士
https://blog.goo.ne.jp/ktonegaw/e/5edea35c359ead77cf30915e9dd28bce

物理学者,機械学習を使う ー機械学習・深層学習の物理学への応用ー
https://blog.goo.ne.jp/ktonegaw/e/069b899edd696e92ffcaae55e348397e

大規模言語モデルは新たな知能か―ChatGPTが変えた世界:岡野原大輔
https://blog.goo.ne.jp/ktonegaw/e/abc76bfb5f9e51d53560a118b5c47e1b

深層学習と時空:橋本幸士先生 #MathPower
https://blog.goo.ne.jp/ktonegaw/e/bf7e7e661246866943c765bdd371248f

「AI(人工知能)と物理学」:1日目
https://blog.goo.ne.jp/ktonegaw/e/c8bc23afafd9e9b3d7eff92b781d1f8b

「AI(人工知能)と物理学」:2日目
https://blog.goo.ne.jp/ktonegaw/e/e8c08583785cfd8237966389e92c362e



 

 


学習物理学入門:橋本幸士」(Kindle版


イントロダクション (富谷昭夫)

A 機械学習と物理学

A1. 線形モデル (富谷昭夫)
 A1.1 最小2乗法と線形回帰
  A1.1.1 最小2乗法
  A1.1.2 凸関数
  A1.1.3 多変数関数が凸である条件
  A1.1.4 線形モデル
  A1.1.5 最小2乗法の続き
 A1.2 エントロピー
  A1.2.1 確率
  A1.2.2 シャノンエントロピー
  A1.2.3 相対エントロピー・KLダイバージェンス
  A1.2.4 イェンセンの不等式
  A1.2.5 ガウス分布
 A1.3 最尤推定
  A1.3.1 尤度関数
  A1.3.2 KLダイバージェンスからの最尤法
 A1.4 一般化線形モデル
  A1.4.1 2値分類とロジスティック回帰
  A1.4.2 交差エントロピーの起源
 A1.5 機械学習の分類
 A1.6 汎化・過学習と未学習
 A1.7 乱数
  A1.7.1 乱数とは
  A1.7.2 一様乱数
  A1.7.3 ガウス乱数

A2. ニューラルネットワーク(NN) (富谷昭夫)
 A2.1 ニューラルネット
 A2.2 データの表現
  A2.2.1 画像のベクトル化
  A2.2.2 one-hotの表現
 A2.3 一般層数の全結合ニューラルネット
 A2.4 勾配降下法
 A2.5 活性化関数とその微分
 A2.6 誤差逆伝播法
 A2.7 勾配消失問題

A3. 対称性と機械学習:畳み込み・同変NN (富谷昭夫)
 A3.1 同変性と畳み込みニューラルネット
 A3.2 画像のフィルター
 A3.3 畳み込み層
  A3.3.1 2次元データの畳み込み
  A3.3.2 プーリング
 A3.4 群論と対称性
 A3.5 対称性と同変性
  A3.5.1 対称性の組み込み方
  A3.5.2 群同変性ニューラルネット
  A3.5.3 帰納バイアス
  A3.5.4 ゲージ対称性とニューラルネット

A4. 古典力学と機械学習:NNと微分方程式 (橋本幸士)
 A4.1 物理の基礎方程式と機械学習
  A4.1.1 微分方程式の位置付け
  A4.1.2 物理学の問題の機械学習への埋め込み
 A4.2 物理知NN(PINN)
 A4.3 NNを微分方程式とみなす
  A4.3.1 機械学習における微分方程式の取り扱い方法
  A4.3.2 NNの局所性
  A4.3.3 ResNetと微分方程式
  A4.3.4 層内の局所性と畳み込みNN
 A4.4 NNによる具体的な運動方程式の表現
  A4.4.1 ポテンシャル内の粒子の例
  A4.4.2 ハミルトン力学系

A5. 量子力学と機械学習:NN波動関数 (金子隆威)
 A5.1 量子力学と固有値問題
 A5.2 格子上の量子多体問題
 A5.3 変分法と試行関数
 A5.4 小さな量子系におけるNN波動関数の適用例
  A5.4.1 2サイト横磁場イジング模型の解析解
  A5.4.2 NN波動関数による近似解
 A5.5 やや大きな量子系におけるNN波動関数の適用例
  A5.5.1 厳密対角化法による厳密な数値解
  A5.5.2 NN波動関数による近似的な数値解
 A5.6 より進んだ理解のために
  
  
B 機械学習模型と物理学

B1. トランスフォーマー (瀧 雅人)
 B1.1 単語と埋め込みベクトル
  B1.1.1 意味の使用説と埋め込み
  B1.1.2 キーバリューストアからの検索と注意機構
  B1.1.3 トランスフォーマー・アーキテクチャ
 B1.2 トランスフォーマーとNLP・コンピュータビジョン
  B1.2.1 GPT
  B1.2.2 ビジョン・トランスフォーマー

B2. 拡散モデルと経路積分 (広野雄士)
 B2.1 拡散モデルの原理
  B2.1.1 拡散モデルのアイデア
  B2.1.2 拡散モデルとランジュバン方程式
  B2.1.3 拡散モデルの生成過程
  B2.1.4 拡散モデルの訓練
  B2.1.5 確率フローODE
 B2.2 経路積分量子化
 B2.3 拡散モデルの経路積分による定式化
  B2.3.1 逆過程の導出
  B2.3.2 拡散モデル学習の損失関数の導出
  B2.3.3 確率フローと古典極限

B3. 機械学習の仕組み: 統計力学的アプローチ (唐木田亮)
 B3.1 DNN 模型: 信号伝播
  B3.1.1 スピン模型の考え方
  B3.1.2 信号伝播の巨視的法則
  B3.1.3 平均場と秩序-カオス相転移
  B3.1.4 逆伝播の巨視的法則
  B3.1.5 相転移としての勾配消失/発散問題
  B3.1.6 カーネル法とのつながり
 B3.2 DNN 模型: 学習レジーム
  B3.2.1 NTK レジーム
  B3.2.2 μP
 B3.3 線形回帰模型
  B3.3.1 過剰パラメータ系の汎化誤差
  B3.3.2 汎化誤差の典型評価

B4. 大規模言語モデルと科学 (三内顕義)
 B4.1 大規模言語モデル
  B4.1.1 次単語予測
  B4.1.2 大規模言語モデルの学習
 B4.2 大規模言語モデルの応用
  B4.2.1 大規模言語モデルの算術能力
  B4.2.2 大規模言語モデルの証明能力
  B4.2.3 数学におけるキュビズム

コメント    この記事についてブログを書く
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« Gaston Mauger モジェ・ブル... | トップ | とね日記賞の発表!(202... »

コメントを投稿

ブログ作成者から承認されるまでコメントは反映されません。

物理学、数学」カテゴリの最新記事