AIのリスクに歯止めをかけられるのか(サム・アルトマンCEO)
【シリコンバレー=渡辺直樹】
米オープンAIが非営利のNPOが支配する統治を改め、営利主導に変わる。
人工知能(AI)の先駆者の変貌は、未知の領域に入る新技術の脅威を自ら抑えながら、巨額が必要な技術開発に勝ち抜く難しさを浮き彫りにする。
AIのリスクに歯止めをかけるのは誰か。国の規制も強まるなか、論議は激しくなりそうだ。
米CNBCによると、オープンAIは65億ドル(約9200億円)規模の資金調達を交渉しており、来週中にも交渉が終わる見通しだ。
増資にはベンチャーキャピタル(VC)のほか、米アップル、米エヌビディア、米マイクロソフトが参画する方向で交渉している。サム・アルトマン最高経営責任者(CEO)の株式取得も報じられている。
この出資にあわせ、グループの統治構造が変わる見通しだ。
米報道によると、従来のNPOを主体とする組織構造から「パブリック・ベネフィット・コーポレーション(PBC)」と呼ばれる法人が主体となる枠組みになる。
PBCは公益性を追求する特徴があるとはいえ、あくまで営利法人の一種だ。
今回の計画が実現すれば、オープンAIは設立当初の理念から離れ「普通のスタートアップ企業」に近づく変貌を遂げることになる。
資金調達の足かせ外す
オープンAIは2015年12月、AI開発を巡って、営利企業のグーグルに対抗する組織をつくるという思いでアルトマン氏や米起業家イーロン・マスク氏らが立ち上げた。
「私たちの目標は金銭的利益を生み出す必要性に縛られることなく、人類全体に最も利益をもたらす方法でデジタルインテリジェンスを発展させることです」
設立当初から掲げる理念には、営利企業と一線を画す使命が端的に示されている。
この使命に賛同したトップ技術者が集まったが、対話型AI「Chat(チャット)GPT」の開発や普及が進むほど、理念を貫くのは難しくなり、修正を迫られるようになった。
まず、19年にマイクロソフトからの投資を受け入れるため、NPOの下に営利部門を設けた。
さらに21年と23年にも追加投資を受け入れ、総額は2兆円近くとなった。そして、今回の出資交渉だ。
オープンAIはチャットGPTで、学習するデータ量や処理コンピューターが多いほど性能が高まる「スケーリングの法則」を突き詰めている。
性能を高めるほど、研究開発投資は膨らむ。数千億円単位の投資が必要で、賄うには外部資金が欠かせない。
22年11月に公開したチャットGPTは瞬く間に世界を席巻し、利用者は2億人に達した。
スケーリングが進んだ結果、創業理念が資金調達のハードルとして浮かび上がることになった。
NPOを主軸とする統治のもと「当社に利益を上げる義務はない」と非ビジネス路線を取ってきたが、外部の投資家や企業からすると、これではリスクが高すぎて巨額を投じられない。
今回の出資受け入れ計画を機に、この足かせを外す見通しだ。
アルトマン氏主導の会社に
「非ビジネス」を前提とした統治構造と実際の事業運営の乖離(かいり)にアルトマン氏は気づき、軌道修正を進めているとみられる。
アルトマン氏はこれまでオープンAI株を持ってこなかった。今回保有すれば、株式を持ちながら経営を主導する一般的なテック企業の創業者に限りなく近くなる。
路線転換に反発するかのように、幹部の離脱が相次いでいる。
25日には中核メンバーのミラ・ムラティ最高技術責任者(CTO)が退社を発表した。別の研究担当者2人も退社する。
5月には主任研究者のイリヤ・サツキバー氏が退社したばかりだ。
休業中の幹部も含めると創業メンバーは11人から2人まで減った。それぞれの幹部離脱の詳細は不明だが、離脱組のなかに、路線転換へ反発した幹部がいるのは間違いない。
アルトマンCEOはX(旧ツイッター)で25日、「幹部の交代は企業、特に急成長し要求の厳しい企業では当然のことだ」と投稿した。
AIリスク、歯止めをかけるのは誰か
オープンAIの変貌は、AIの安全性を誰が担保していくのかという命題を改めて突きつける。
オープンAIは今後もグループにNPOが関与するとしている。5月には安全対策のための外部委員会も設けた。
だが、創業以来の理念が薄れるなか、高度なAIを開発する際に問題となるリスクに対し、自主的な歯止めをかけられるかは未知数だ。
開発企業は営利に傾斜しすぎると、AIのリスクを軽視する恐れがある。その場合、誰が歯止めをかけるのか。
米フォーダム大のリンダ・スギン教授は「営利企業の取締役会が財務上の利益よりも公共の安全を優先するとは思えない。だからこそ、AIの分野では規制が不可欠だ」と国家規制の必要性を説く。
欧州連合(EU)で罰則を含むAIの包括規制が成立した。米国でもバイデン大統領による大統領令に続き、カリフォルニア州でAIの緊急停止機能の搭載を求める法案が議会を通過するなど規制は強まる方向だ。
偽情報の氾濫やサイバー攻撃、兵器の転用といったリスクに対する企業の自助努力がおぼつかなければ、国による規制を求める声がますます増える可能性がある。
アルトマン氏は23日、AIが人間の知性を超える「スーパーインテリジェンス(超知能)」が数年以内に誕生する可能性があると述べた。人間を超えるAIをどう人間が制御するのかについても、答えはみえていない。
米ハーバード大のロベルト・タラリタ助教は「我々は原子爆弾を開発するのに個々の研究所を互いに競わせることはしなかった。AIの超知能についても同様に考えるべきだ」と警鐘を鳴らす。
「組織は正しい動機づけを持った人格的なリーダーを必要とするが、良心だけでは十分とは言えない。よい慣行を監視し実施するためのメカニズムが必要だ」。タラリタ氏はそもそも「性善説」に基づく企業統治を否定している。
【関連記事】
- OpenAI、来週中に巨額の資金調達交渉を完了へ 米報道
- OpenAI、NPO支配から営利重視へ 技術トップは退任
- OpenAI、営利企業主体の経営に 資金調達しやすく
- OpenAI、ムラティCTOが退社へ AI研究者の「束ね役」
- AppleとNVIDIA、OpenAIへの投資を交渉中 米報道
Google、Amazon、Meta(旧Facebook)、Apple、Microsoftなどアメリカの主要IT企業「ビッグテック」の最新ニュースと解説をお届けします。巨大企業たちのビジネスや各国による規制などについての最新記事や解説をご覧いただけます。
日経記事2024.09.28より引用