
AIの話題が続く。GPT-3とかGPT-3.5とか、-4にもなるなどと、その展開はあまりにも激しい。
画像認識、音声認識と、人間の視覚聴覚などの知覚を備えて学習を実行する。その活用例はどこまで、どうなるのか。
何よりも脳神経が音を聞き分けるパルスの発信を回路基板に刷り込んでコンピュータの電子の動きに代わるものをつくり出したとか、それが音声ならぬ咳の仕方で結核を判定するスマフォのアプリとなっていると、短絡した知識のとり方もいいところだが、人工知能の人造脳であることには変わりがないだろうから、その医学的な診断とか治療に役立つというのはどうなっているのだろう。
学問をするとはどういうことか。学問で知りぬく、学問を知り抜く、知識とはそういうものであるが、それによるを人工知能を利用した報告論文は分野をとって医療関係などもウエブサイトで見る、聞く、知ることができるのである。
https://openai.com/research/gpt-4
>We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks. For example, it passes a simulated bar exam with a score around the top 10% of test takers; in contrast, GPT-3.5’s score was around the bottom 10%. We’ve spent 6 months iteratively aligning GPT-4 using lessons from our adversarial testing program as well as ChatGPT, resulting in our best-ever results (though far from perfect) on factuality, steerability, and refusing to go outside of guardrails.
>(日本語訳はクロームページにて)私たちは、ディープ ラーニングをスケールアップする OpenAI の取り組みにおける最新のマイルストーンである GPT-4 を作成しました。GPT-4 は、大規模なマルチモーダル モデル (画像とテキストの入力を受け取り、テキストの出力を出力する) であり、現実世界の多くのシナリオでは人間よりも能力が低いものの、さまざまな専門的および学術的なベンチマークでは人間レベルのパフォーマンスを示します。たとえば、模擬司法試験では受験者の上位 10% 程度のスコアで合格します。対照的に、GPT-3.5 のスコアは下位 10% 程度でした。私たちは、 敵対的テスト プログラムと ChatGPT から得た教訓を使用して GPT-4の調整を 繰り返すことに 6 か月を費やし、その結果、事実性、操縦性、ガードレールの外側への進入の拒否に関して (完璧には程遠いですが) 史上最高の結果が得られました。
