生成AI ルールを考える④ 人体が本来持つ「知性」
経済研究者 友寄英隆さん
日本では、5月の広島サミットで人工知能(AI)問題を議題に取り上げて、主要7力国(G7)の閣僚級がAIをめぐるルールづくりを話し合う枠組み(広島Aープロセス)を立ち上げました。日本国内では、内閣府にAI戦略会議を設置して、ルールづくりの議論を進めています。同会議では、AIにはさまざまなリスクがあるとしたうえで、その利用にはルールが必要だとしています。
技術覇権の争い
しかし、その「中間とりまとめ」の文書を読むと、生成AIのはらむ「危険性」の認識が浅いのではないかという懸念をぬぐえません。「AI戦略会議」という会議の名称にも示されているように、欧米に比べて立ち遅れているデジタル技術を、AI開発によって一気に追いつき、追い抜こうという欧米諸国との技術覇権争いの議論ばかりが目立ちます。
生成AIのルールの確立とともに、そのルールの実施を保証する機構、行政的体制、社会的システムも必要です。AIだけでなく、デジタル社会の情報秩序を守るためには、たとえば個人情報保護委員会などを抜本的に強化することが必要です。2023年推進するデジタル庁の予算が4951億円なのに対し、個人情報保護委員会の予算はわずかに34億円にすぎません。
個人情報保護委員会は6月1日、チャットGPTを開発したオープンAI社に対し、個人情報の扱いに懸念があるとして、本人の同意を得ないまま、思想信条や病歴、犯罪歴などの個人情報を取得しないよう求める行政指導(注意喚起)を行いました。また同委員会は、利用者である個人、企業、行政機関にも、生成AIに個人情報を入力する際には、十分に注意するよう呼びかけました。
倫理的な決断力
もともと人間の知的活動は、「知・情・意」の三つの要素が結び付いて成り立っています。また人間の知的能力は、たんに頭脳だけでなく、体全体の活動によって支えられています。
ところが生成AIは、「知」にかかわるだけです。しかも、生成AIの「知」の本質は、人類の過去のデータをスーパーコンピューターに集積し、それを材料にして確率的に計算して文章を生成することです。膨大なビッグデータ(書籍でなら1000万冊にも相当する)を記憶し、瞬時に質問に答える文章を生成することは、コンピューターのもっとも得意とする能力です。それは、確かに人間の知的な道具として使えばたいへん有効な働きをする可能性があります。
しかし、それは、人類文化に支えられた人間が持っている「知性」とは、基本的に異なっています。少なくとも、現在の生成AIには、人間本来の価値を判断する能力や倫理的な決断をする能力はありません。
生成AIをはじめコンピューター技術は、それ自体は人類の科学・技術の発展によるものであり、人類文明の達成といえるでしょう。しかし、それはあくまでも、人間の管理のもとで、人間社会の幸せのために役立つ道具でなければなりません。そのためには、生成AIについては、その危険なリスクを排除するために、技術の開発・利用を規制・禁止できるような厳格な「社会的ルール」が必要です。
(おわり)
「しんぶん赤旗」日刊紙 2023年7月15日付掲載
もともと人間の知的活動は、「知・情・意」の三つの要素が結び付いて成り立つ。また人間の知的能力は、たんに頭脳だけでなく、体全体の活動によって支えられいる。
ところが生成AIは、「知」にかかわるだけ。膨大なビッグデータ(書籍でなら1000万冊にも相当する)を記憶し、瞬時に質問に答える文章を生成することは、コンピューターのもっとも得意とする能力。
少なくとも、現在の生成AIには、人間本来の価値を判断する能力や倫理的な決断をする能力はない。
生成AIは、あくまでも、人間の管理のもとで、人間社会の幸せのために役立つ道具でなければなりません。
経済研究者 友寄英隆さん
日本では、5月の広島サミットで人工知能(AI)問題を議題に取り上げて、主要7力国(G7)の閣僚級がAIをめぐるルールづくりを話し合う枠組み(広島Aープロセス)を立ち上げました。日本国内では、内閣府にAI戦略会議を設置して、ルールづくりの議論を進めています。同会議では、AIにはさまざまなリスクがあるとしたうえで、その利用にはルールが必要だとしています。
技術覇権の争い
しかし、その「中間とりまとめ」の文書を読むと、生成AIのはらむ「危険性」の認識が浅いのではないかという懸念をぬぐえません。「AI戦略会議」という会議の名称にも示されているように、欧米に比べて立ち遅れているデジタル技術を、AI開発によって一気に追いつき、追い抜こうという欧米諸国との技術覇権争いの議論ばかりが目立ちます。
生成AIのルールの確立とともに、そのルールの実施を保証する機構、行政的体制、社会的システムも必要です。AIだけでなく、デジタル社会の情報秩序を守るためには、たとえば個人情報保護委員会などを抜本的に強化することが必要です。2023年推進するデジタル庁の予算が4951億円なのに対し、個人情報保護委員会の予算はわずかに34億円にすぎません。
個人情報保護委員会は6月1日、チャットGPTを開発したオープンAI社に対し、個人情報の扱いに懸念があるとして、本人の同意を得ないまま、思想信条や病歴、犯罪歴などの個人情報を取得しないよう求める行政指導(注意喚起)を行いました。また同委員会は、利用者である個人、企業、行政機関にも、生成AIに個人情報を入力する際には、十分に注意するよう呼びかけました。
倫理的な決断力
もともと人間の知的活動は、「知・情・意」の三つの要素が結び付いて成り立っています。また人間の知的能力は、たんに頭脳だけでなく、体全体の活動によって支えられています。
ところが生成AIは、「知」にかかわるだけです。しかも、生成AIの「知」の本質は、人類の過去のデータをスーパーコンピューターに集積し、それを材料にして確率的に計算して文章を生成することです。膨大なビッグデータ(書籍でなら1000万冊にも相当する)を記憶し、瞬時に質問に答える文章を生成することは、コンピューターのもっとも得意とする能力です。それは、確かに人間の知的な道具として使えばたいへん有効な働きをする可能性があります。
しかし、それは、人類文化に支えられた人間が持っている「知性」とは、基本的に異なっています。少なくとも、現在の生成AIには、人間本来の価値を判断する能力や倫理的な決断をする能力はありません。
生成AIをはじめコンピューター技術は、それ自体は人類の科学・技術の発展によるものであり、人類文明の達成といえるでしょう。しかし、それはあくまでも、人間の管理のもとで、人間社会の幸せのために役立つ道具でなければなりません。そのためには、生成AIについては、その危険なリスクを排除するために、技術の開発・利用を規制・禁止できるような厳格な「社会的ルール」が必要です。
(おわり)
「しんぶん赤旗」日刊紙 2023年7月15日付掲載
もともと人間の知的活動は、「知・情・意」の三つの要素が結び付いて成り立つ。また人間の知的能力は、たんに頭脳だけでなく、体全体の活動によって支えられいる。
ところが生成AIは、「知」にかかわるだけ。膨大なビッグデータ(書籍でなら1000万冊にも相当する)を記憶し、瞬時に質問に答える文章を生成することは、コンピューターのもっとも得意とする能力。
少なくとも、現在の生成AIには、人間本来の価値を判断する能力や倫理的な決断をする能力はない。
生成AIは、あくまでも、人間の管理のもとで、人間社会の幸せのために役立つ道具でなければなりません。
※コメント投稿者のブログIDはブログ作成者のみに通知されます