お弁当に最初にお手拭きを付けたのは、シウマイで有名な横浜の崎陽軒です。
1955年(昭和30)、崎陽軒が駅弁にお手拭きを添えたのが、その始まりです。
アルコールをひたした紙を袋に詰めた「簡易お手拭き」を考案した業者がいて、崎陽軒がそれを採用しました。
このお手拭き、特許出願するも仕組みが簡単すぎると却下されました。 しかし、逆にどの業者も真似ができ、全国的に広く普及することになりました。
お弁当に最初にお手拭きを付けたのは、シウマイで有名な横浜の崎陽軒です。
1955年(昭和30)、崎陽軒が駅弁にお手拭きを添えたのが、その始まりです。
アルコールをひたした紙を袋に詰めた「簡易お手拭き」を考案した業者がいて、崎陽軒がそれを採用しました。
このお手拭き、特許出願するも仕組みが簡単すぎると却下されました。 しかし、逆にどの業者も真似ができ、全国的に広く普及することになりました。
世界で最も多い地名は「ワシントン」です。 日本にはないけどね。
アメリカ合衆国・初代大統領のジョージ・ワシントンにちなんだ地名です。 アメリカを独立に導いたワシントンは、アメリカだけでなく、ヨーロッパやアフリカでも高い人気を誇ります。
ワシントン通りやワシントン広場など、通りや広場の名前まで含めると、彼に因んだ地名は、世界に少なくとも5,000ケ所はあるそうです。
2024年度予算の財務省への概算要求が、一般会計で総額110兆円を超えることが24日わかった。国債の元利払いに充てる国債費と防衛費はともに23年度当初予算から1割増とした。高齢化で社会保障費も伸びる。要求段階で110兆円を超えるのは3年連続となる。
各府省庁の要求金額の大枠が固まり、日本経済新聞が集計した。具体額を示さないで財務省に要望する事項要求を除いて23年度予算の概算要求は110兆484億円だった。過去最大は22年度要求の111兆6559億円で、これを上回る可能性もある。
財務省が8月末までに各省からの要求を受けて査定を進める。少子化対策、医療・介護にかかる費用などで事項要求が多い。与党との調整をふまえ、年末までに政府予算案として全体を固める。最終的な予算額は要求段階から上振れすることもある。
ChatGPTが、どうやって自然な対話を実現しているのか不思議に思う方も多いのではないだろうか。基になっている大規模言語モデル(LLM)であるGPTは、どんなメカニズムで文章を紡いでいるのか。難しい数式や図を使わずに基礎的な構造を解説する。
GPTを利用するための手段にはどんなものがあるか。簡単に紹介したい。
一番簡単なのは、米OpenAI(オープンAI)のAPI(アプリケーション・プログラミング・インターフェース)を利用する方法だろう。入力テキストをオープンAIのサーバーに送り、そこで生成された出力テキストを受け取る形である。
手軽に高性能なGPTを使えるが、欠点としてはAPIに依存してしまうことが挙げられる。オープンAIがサービスを変更や停止すれば使えなくなるし、障害が発生した場合も同じだ。
自前でホストする手もある。利用目的に応じた大規模言語モデルを選べるのが特徴だ。他社のAPIサービスに依存することもなくなる。
ただし、ある程度のGPUリソースが必要になることが欠点となる。
モデルが大きくなるほど推論にかかる時間や必要なGPUメモリーは増加していく。ほかには、ChatGPTなどのクローズドなモデルを利用できない点も注意が必要だ。
続いて、GPTを利用目的に合わせてチューニングする手法について説明しよう。大きく3つが挙げられる。大きく3つが挙げられる。
GPTを使いこなす(出所 : rinna)
1つめは、「ファインチューニング」と呼ばれるもの。目的とするタスクの学習データを基に、事前学習モデルのパラメーターを更新する手法だ。
例えば、会話のような文章を生成するためにGPTを利用したいといった場合は、会話形式の文章を用意してGPTのパラメーターを更新する。
学習データの再現性が高い点がメリットだが、モデルサイズが大きいと学習が難しくなるという欠点もある。
2つめは、「Parameter-efficientファインチューニング」だ。
これは、ファインチューニングとは違い、事前学習モデルのパラメーターを更新することはしない。少量の新しいパラメーターを追加することで、目的に合った出力を目指す手法である。
ファインチューニングより手軽な方法ではあるが、学習データの再現性はファインチューニングに見劣りする可能性がある。
またファインチューニングほどではないが、学習プロセスが同様に必要な点も押さえておきたい。
3つめは、「プロンプトエンジニアリング」である。
こちらはパラメーターの更新をするわけではなく、入力テキストを工夫することで出力を変えるというアプローチだ。
例えば、出力の形式やキャラクター付けに関する説明も入力テキストに加えることで、出力の仕方を指定する方法である。
学習が不要な点、入力テキストの設計次第で様々なことが試せる点が利点となる。
欠点としては、高い性能を持つ事前学習モデルが必要になることに加え、入力テキストのサイズに上限があるため、長い入力テキストを活用できない点が挙げられる。
ここまでの話は主に、GPT-1からGPT-3までを想定したものだ。
InstructGPTやChatGPTの学習については、いくつかの複雑なステップが必要になる。
ただし、本特集で触れた内容を理解していれば、それほど難しいことをやっているわけではない。1つひとつ見ていこう。
スタートは、GPT-3と同じだ。
収集した大規模データを使って、自己教師あり学習を実施する。
このステップは普通のGPTと変わらない。
ただし、このままではWebのような文章を逐次推論するので、目的のタスクと異なる場合がある。
そこで次のステップを踏むことになる。
それが、人手で作成した目的タスクのデータから、教師ありのファインチューニングを施すプロセスだ。
目的のタスクがQ&Aや会話の場合には、事前にその形式のデータを用意する
このデータを教師データとし、GPTのパラメーターを更新する。
これを「Supervised Fine-Tuning(SFT)」モデルと呼ぶ。
SFTは基本的にGPTではあるが、Webの文章をつらつらと生成するのではなく、目的のタスクに応じた出力ができるモデルになっている。
続いて、目的のタスクの入力テキストから複数の出力をし、スコアを付ける。同じ入力でも前述のとおりランダムで出力できるため、いくらでも文章を生成できる。
この文章を、人間のラベラーがスコアリングして順位付けをする。これを、報酬と見立てる。
InstructGPT・ChatGPTの学習(2) (出所:rinna)
次のステップでは、先ほどの入出力テキストとスコアのペアを教師ありデータとして、元のGPT(または他のLLM)をファインチューニングする。
すると、任意の入力テキストに対して人間のラベラーが付けたスコアを再現するモデルになる。つまり人間の考えに沿ったスコアを出力できるモデルである。これを「リワードモデル」という。
最後のステップでは、SFTモデルの出力をリワードモデルがスコアとして予測する。
このスコアに基づいて強化学習することによりSFTモデルは、より人間の感覚に合ったInstructGPTやChatGPTに変わっていく。人手によるラベリングデータを活用することで、人間の感覚に近い出力ができるモデルを構築できるわけだ。
InstructGPTとChatGPTはタスクが異なるだけ。指示に従うタスクならInstructGPT、対話形式であればChatGPTになる。
GPTとは異なる学習方法を採用しているのがBERTだ。人間における文章予測能力について考えてみると理解しやすい。
あるミーティングで上司が発した「エビデンス」という言葉の意味が分からなかったとしよう。「エビデンスが重要だ」とだけ言われても想像はつかない。
しかし、「エビデンスとして数値データを提出してほしい」「契約先からエビデンスをもらうことを忘れるな」など、様々なパターンでエビデンスという言葉が出てきたら、「もしかしたら証拠や根拠といった意味合いかな」と人間は予測できる。
BERTの学習はこれに近い。
大量のデータを利用して自己教師あり学習をしている点はGPTと同じだが、テキストの単語を一部マスクし、そのマスクした単語を疑似正解ラベルとすることで、正解ラベルを不要にしている。結果、膨大な量のデータを用いた学習を可能にしているわけだ。
そしてGPTと同様にTransformerの積み重ね構造になっているので、高速に学習できる。
マスク部分を予測するだけでは使い道は多くはないが、目的のタスクに合わせたファインチューニングを施すことで、テキスト分類や検索など様々なタスクに応用可能になる。
最後に、テキスト以外の生成AIについても触れておこう。
生成AIでは、入力と出力の設計を変えると様々なことができるようになる。
テキストを入力して画像を出力する「Midjourney」や「Stable Diffusion」といったサービスのほか、テキストを入力して音声を生成したり、テキストの説明文を再現するような音楽を生成したりするサービスも登場している。
最近では動画の生成も増えてきた。
また「マルチモーダル」を入出力とするモデルも注目度が高い。
テキストと画像といった複数の入力からテキストを生成したり、テキストを入力として音声付きの動画を生成するといった具合だ。入力と出力の両方をマルチモーダルにする手法もあり、この組み合わせはいくらでも考えられる。
今さら聞けない!ChatGPTのメカニズム 自然な文章を生成する「GPT」、鍵は大量のテキストから得た予測能力
https://blog.goo.ne.jp/renaissancejapan/e/2c8929f5e469234c07a570e1c891fb53
(関連情報)
AI・ビッグデータ、ベイズ統計学、故障予知、そしてアジャイル開発
https://blog.goo.ne.jp/renaissancejapan/e/8f91cdd777cf816a5f42063cf4355487
ハーバード大学の学者に、『ジャパン・アズ・ナンバー・ワン』(TBSブリタニカ1979年)を書いたユダヤ系のエズラ・ヴォーゲルがいます。
ハーバードの東アジア研究所に所属する教授のヴォーゲルは、この本で日本経済の奇跡的な成功を紹介し、アメリカ人に衝撃を与えました。
ところが、このヴォーゲル自身が、これとは全く正反対の「日本は(アメリカ型の経済システムを受け入れて)変らなければならない」とする「構造改革」(米国主導の日本経済の構造破壊)を称賛する本を書いている(『ジャパン・アズ・ナンバー・ワンーそれからどうなった』たちばな書房2000年)。
お銚子乗りの日本人たちが、舞い上がっているなか、ヴォーゲル日本研究は、米国政府の「日本研究をし尽くし、隙あらば経済的に叩き潰す」という経済戦略に当初から組み込まれていたのです。
ヴォーゲルが初めて日本についての研究を行ったのが、タルコット・パーソンズ教授(社会学)の下でハーバード大学の博士号をしぃとくした後の28歳の時です。
彼はこのとき、千葉県の市川市で、比較文化的な視点華族調査を行い、その成果を論文「日本の中産階級」として発表しました。 戦後初期の日本研究は、もっぱら日本社会について理解を深めるための情報収集という視点からなされました。
ヴォーゲルが手がけたこの家族調査も、後の『ジャパン・アズ・ナンバー・ワン』も日本社会を徹底的に分析し尽くすというアメリカの国家戦略に添って書かれたものであるから高く評価されたのです。
1993年にヴォーゲルは、CIA(アメリカ中央情報局)の一部門である国家情報会議(NSC)の分析官になっています。 日本を徹底的に打ち負かすというクリントンン政権の経済戦略にヴォーゲルが加担したことは明らかです。
アメリカという国は、同盟国であっても根掘り葉掘り調べないと気が済まない国です。 日本研究に於いてもアメリカの国益にかなえば評価されて出世していきます。
もちろん、こうした生臭い政治の世界から離れて、研究一筋に打ち込む学者もいるとはいえ、基本的に彼らはアメリカの国益を考えるようにしか研究を続けざるを得ません。
何故なら、彼ら自身が米国政府やその資金で助成されている大学・研究所の雇われ人であるからであり、もちろん彼らもそのことを認識しています。
彼らはアメリカの利益中心で動いています。 最近の日本人が誤解しているのは米民主党はDSでどうとのこうとの、米共和党は愛国親日で・・と馬鹿げたことを言う阿呆がyoutuberの影響を受けて発言する人が増えています。
米民主党であろうが、共和党であろうが、議会は関係なく、アメリカファーストで動いています。 バイデンは共産主義者の左翼で、親中・親露とかデマがお馬鹿youtuberの間で出回っていすすが、今の現実を見れば分かるでしょう。
日本でも、心中になびく安倍元首相が、japan・ハンドラーズの米シンクタンクCSISから公然と非難された直後、健康を理由に電撃辞任しました。 安倍さん元気でしたけどねw そして菅政権が誕生し、以後、菅政権と岸田政権では完全に反中政策です。
安倍元首相が再び首相に返り咲こうと活動を始めた矢先に、安倍・高市信者から岸田は親中・アメリカ大統領は会ってくれない、だから日本は経済崩壊・・・とデマが拡散されていたことは記憶に新しいところです。実際、っ現実はっ全然違い、アメリカはじめ欧米職と日本は蜜月。 そして日系企業は息を吹き返し記録的な工業製、日経平均も30年ぶりの高値です。
何度もいいますが、お馬鹿toutuberのデマを信じるとろくなことがありません。 大体彼らは実社会で認められない無職で,youtubeで生活費を捻出しようとする人達の政治ごっこをしていることくらい中学生でもわかる話です。
そして隙あらば、政権与党を引きずりおろし、自分たちが政権を取ろうとする野党(元民主党、社会党、共産党)の人たちばかりです。
ジャパン・ハンドラーズは、単なる「知日派」であったり、「親ではありません。 なかには心から日本好きかもしれませんが、結局は母国アメリカの国益のために日本の秘密を探り、冷徹に分析するという立場にある人たちです。
ヴォーゲル自身も、橋本爪三郎(はしもと つめざぶろう)東工大教授との対談(『ヴォーゲル。日本とアジアを語る』平凡社信書 2010年)で、戦後アメリカの日本っ研究について発言しています。
ヴォーゲルは、「知日派」という言葉について、「知日派という人々は、日本がアメリカの国益にとって知る値打ちがあるからこそ存在しうるのだ」と述べ、「ここで暗黙に、『日本のことをよく知っている人は日本が好きな人だ』『日本ファ好きな人は日本に親切な人だ』という前提がある」と、
日本人一般の「知日派」理解に評価をくだした後、返す刀で、「実は違って、『知る値打ちのある国だからしっかり知ろう』、これが普通のアメリカ人の態度ではないか」と続けています。
日本人は、アメリカ人が日本語を話すことによって、「彼ら」と「自分たち」の垣根が払われたようになっている。 しかし、それは外交・経済交渉に関わる場面では命取りであると言わねばならないとしています。
このヴォーゲルのアドバイスを、われわれ日本人はしっかりと銘記すべきでしょう。
『何事も失敗の原因の本質は、無知と根拠なき楽観!』 Renaisancejapan
(関連情報)
ジャパン・ハンドラーズ-1
https://blog.goo.ne.jp/renaissancejapan/e/7b4aab3791924332fbc385d2f939678b
ジャパン・ハンドラーズ-2 古代ローマ帝国とアメリカ帝国
https://blog.goo.ne.jp/renaissancejapan/e/2bab6d3dadef54443b976cfcd3269ef1
ジャパン・ハンドラーズー3 カウンターパーツ
https://blog.goo.ne.jp/renaissancejapan/e/df018ed8c6355136a0b463b55254bdf1
ジャパン・ハンドラーズ-4 USTR
https://blog.goo.ne.jp/renaissancejapan/e/335d8273436f302514ade382ed351464
ジャパン・ハンドラーズ-5 アメリカ対日政策の変遷https://blog.goo.ne.jp/renaissancejapan/e/7b727f3f444e6e9fd55faad2ab45b1bd
ジャパン・ハンドラーズー6 世代で変わる対日研究者
https://blog.goo.ne.jp/renaissancejapan/e/3089b5b5f690a31dfc6dcd8f85ec87b6
ジャパン・ハンドラーズー7 第一世代 ライシャワーに始まる戦後「知日派」
https://blog.goo.ne.jp/renaissancejapan/e/24e132a577cb234a4ec7e88674b1442e
ジャパン・ハンドラーズ 第二世代 米軍日本語学校から排出された日本語専門家たちhttps://blog.goo.ne.jp/renaissancejapan/e/1e9b0224f456d51c440e42e892528129
ジャパン・ハンドラーズ 第三世代 地域研究を駆使したジャパノロジスト
https://blog.goo.ne.jp/renaissancejapan/e/c189b01b6e51ee47180b213c2ff8ac09
ジャパン・ハンドラーズ 第四世代 リヴィジョニストと経済学者たち
https://blog.goo.ne.jp/renaissancejapan/e/2a5cbbb9d844858a9d28a11a40188b46
ジャパン・ハンドラーズ 第五世代 北朝鮮・極東戦略と規制緩和派
https://blog.goo.ne.jp/renaissancejapan/e/34ff40909ff2545d21f51234ce726d01
アメリカの大学とジャパン・ハンドラーズ
https://blog.goo.ne.jp/renaissancejapan/e/1de0aab04db3050c28769f32b6daee7e
ジャパン・ハンドラーズ ハーバード大学-1
https://blog.goo.ne.jp/renaissancejapan/e/6f61b97f39ffd4d234663e239629d1e1
ジャパン・ハンドラーズ ハ-バード大学ー2 ライシャワー日本研究所https://blog.goo.ne.jp/renaissancejapan/e/8af71986558664842ab598e2b7bb4119