あいよっこの旅ログ:::Part2:::

「女性のひとり旅は冒険の始まり!」

ニューラルネットワークからディープラーニングへ ⑩

2024-06-20 11:16:27 | ニューラルネットワーク、ディープラーニング、そしてチャットGPT

写真撮影日:2024/3/17~18 島根県川本町~岡山県備北地域

写真上:島根県だけに自生する「イズモコバイモ」(ユリ科・多年草)

    白い可憐な花たちは季節を告げる「春の妖精」

.................................................................................................................................................

 

 前回「…ニューラルネットワークの原形は『マッカロック・ピッツ モデル』で、マッカロックは外科医・神経科学者で、ピッツは数学者という異色コンビでした」。さらに「…1958年に米国・心理学者のフランク・ローゼンブラットは『パーセプトロン』を発表し、このパーセプトロンモデルの出現で世界中が熱狂し、1960年代に『第一次ニューラルネットワークブーム』が起きました」と書きました。

 

 そして近年2010年代になると「深層学習のパイオニア」と称されるジェフリー・ヒントン(Geoffrey Hinton)氏が登場し、グーグルでエンジニアリング・フェローを10年間務めました。経歴は「コンピューター科学および認知心理学研究者」です。しかし彼は2023/5月、「生成AIの危険性をより自由に語っていきたい」とグーグル社を退社しました。

 

 私自身も認知心理学で学び、先生の牧岡省吾教授(大阪公立大学・現代システム科学研究科)は、認知心理学者・統計学者であり、コンピューター言語やアルゴリズム、モデルにも詳しいです。ディープラーニングでは中間層の計算関数が「統計検定法」であることから、認知心理学や心理統計学の影響がかなり強いようだと感じます。

 

 さて「統計」といえば、かなり以前ですがこのブログに「『敵の敵は味方』みたいな論理は本当に正しいの?」と書きました。つまり検定法では否定する前提の「帰無仮説(きむかせつ)」を立て、「許容誤差を5%(信頼度95%)とか10%(同90%)」などと設定し、それぞれの関数に従って計算後に、たとえば「帰無仮説が否定されたので、誤差5%でデータの信頼度が証明される」などの答えが出るのです。

 

 私にとっては「帰無仮説」という考え方も初めてだったし、誤差を自分で設定するという曖昧さに「まゆつばもの?」と感じてしまったのでした~。だけど重要な条件がありました。

 

 それは「母集団(調査の対象となる集団)」が正規分布(平均値、最頻値、中央値が一致し、それを軸として左右対称となる山形のグラフ)と想定される場合は、「データ数やサンプル数が多いほど誤差が少なく信頼度もあがる」という事実です。つまりビッグデータと統計学はとても相性が良かったのです。

 

 ですが現在のように桁外れのビッグデータになると、選択したデータの本質的内容・構造とか、正規分布の想定といった要素はあまり関係なく、スーパーコンピューターがそれこそ自動で解析するのかな。依然として曖昧でごめんなさい。

    *** つづく ***

 

写真上下:例年の開花は㋁下旬~㋂下旬だけど、やはり今年は早かったそう。

     でも残っていて良かった!

 川本町ではその他「セリバオウレン、ショウジョウバカマ、ヒメウズ、オオタチツボスミレ…」などの貴重な山野草も多く、町をあげて守っています。この日「観察とウォーキングのイベント」に参加し、元気な中学ガールたち手作りのぜんざいを頂きました~!ごちそうさまでした。

 

 写真下:岡山県「平松カタクリ園」ではやや小さい「ホソバナコバイモ」

     その下はやはり春を告げる「フクジュソウ」

 

コメント (1)
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

ニューラルネットワークからディープラーニングへ ⑨

2024-06-13 10:52:50 | ニューラルネットワーク、ディープラーニング、そしてチャットGPT

写真撮影日:2023/6/26~30 秋田県の清流を探して

写真上:美郷町(みさとちょう)の湧水群のうち六郷湧水群のひとつ

    街じゅういたるところに美しい湧水景観があふれている 

・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・

 オープンAIが2022/12月に「チャットGPT(生成AI)」を公開後、1年半が経過しました。当初からその検索スピードの素早さ、言語能力の高さ、返答の妥当性などに世界中が感嘆して大ブームを引き起こし、2か月間に約1億人がユーザーになったといわれます。その後生成AIはさまざまな分野に広がり、性能も日毎に高度化され、メリット・デメリット含めて世界中に技術的・システム的・政治的・経済的…多様な影響を与え続けています。 

 

 当然ながら技術が一夜にして完成したわけではなく、長い間の研究や試行錯誤があったのでしょう。私が学んだ2000年代から20数年経過している今、「満を持してこの形で公開されたのだなあ。授業で知ったあれってこんな技術で、そんな効果を持っていたのね!」と実は驚きました。

 

 授業と言ってもディープラーニングの初級レベルです。たとえば「教師有りデータを使って、ネコやリンゴなどの画像認識を行う」という段階でしたが、「こんな形で始まった」とも言われます。

 

 そもそもいつ頃、誰によって始まったのかな?「機械学習の発展」を調べてみました。「深層強化学習」(KK電通国際情報サービス・小川雄太郎氏)サイトによると「ニューラルネットワークの原形は『マッカロック・ピッツ モデル』で『形式ニューロン』とも呼ばれ、ニューロンの活動を数理的に最も単純に模倣したモデルで、1943年に発表された」そうです。マッカロックは外科医・神経科学者で、ピッツは数学者という異色コンビでした。

 

 この「マッカロック・ピッツ モデル」をたくさんつないで多層にすれば、さまざまな入出力関係を再現でき、関数として使えるのではないか、と考えたのが米国・心理学者のフランク・ローゼンブラット(Frank Rosenblatt)で、「パーセプトロン」と名付け1958年に発表しました。「入力→中間層→出力」というパーセプトロンを多層つないだのが「ニューラルネットワーク⇒ディープラーニング」となります。 

 

 このような1960年代のニューロンの活動を模したパーセプトロンモデルの出現で、世界中が熱狂し「第一次ニューラルネットワークブーム」となりました。(※その後の詳細は同サイトを参照ください)

 

 ニューラルネットワークは機械学習の1分野ですが、1940年代から始まったニューラルネットワークの発展は、つまりAIの発展と並行しているようです。

 

 「AIブームの歴史」を振り返ると、「ニューラルネットワークからディープラーニングへ①」では次のように記しています。「1950年代から始まった第1次AIブームは、『フレーム問題・トロッコ問題』といった矛盾やジレンマの提起により1960~70年代下火になりました。次に1980~1990年代、ソニーのロボット・アイボなどに代表される第2次AIブームが起きました。(中略)現在は2000年頃からの第3次AIブームです。大きく異なるのはインターネット上にあるビッグデータを入力し、『ニューラルネットワーク』というアルゴリズムが登場したことです」としています。

 

 つまりシステムを「数理化・関数化」することでデジタル化が可能となり、スーパーコンピューターによる計算力も強大となり、AI急伸の重要要素となったと考えられます。

 

*** すぐ⑩に続くよ! ***

写真上下:長走風穴 国見山のふもとに点在する風穴は常時0~5℃の冷風が噴き出す  古来「自然の冷蔵庫」「天然クーラー」として重宝した。

 

写真上下:玉川温泉」毎分9000リットル 温度98℃ PH1.1強酸性の熱湯が

     噴出、1か所からの噴出量日本一 治癒温泉としても名高い

     下は付近に咲くハクサンシャクナゲ  かな。

 

写真上下:大湯環状列石(おおゆかんじょうれっせき)約4000年前の縄文時

     代後期の遺跡 日本を代表するストーンサークル遺跡

     集団墓であり、自然に対する畏敬の念を表す祭祀の場でもあった

コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする