毎日、1000件以上のアクセス、4000件以上の閲覧がある情報発信ブログ。花や有機農業・野菜作り、市民運動、行政訴訟など
てらまち・ねっと



 昨日は、昨年の「秋ジャガ」栽培、「種イモが17倍の収穫になった」ことを整理して楽しんだ。‥楽しんだ、というのは、バツグンに良い栽培成績だから。

 年ごとに1年が早く過ぎたように感じるのは、記憶が薄れやすくなるから、という説もあるけど、コンピュターの世界はそうではないらしい。進化、変化がはやい。
 で、今朝は「ジャガイモ」から気分を変えて、「便利なAIの恐怖」を確認するために次を見て抜粋し、記録しておく。

 なお、今朝の気温はマイナス2.5度。暖かい服装でウォーキングは快適だった。
 昨日1月6日の私のブログへのネットのアクセス情報は「閲覧数4,234 訪問者数1,184」。

●AI判断基準の7原則で混乱回避、普及を促すことに/FISCO 2018/11/27
●未来のAI社会を実現!日本政府が進める新たなAI戦略とは/人工知能ニュースメディア AINOW 2018.12.05

●AIは金持ちだけが使えるツール、2030年の格差社会に残る職業は/ダイヤモンド 2018.9.20
●AIの弱点と「暴走」への恐怖 日本のAI研究第一人者が対談/日経トレンディ 2018年02月07日

●アレクサやSiriだけに聞こえる秘密指令の恐怖/ニューヨークタイムズ 世界の話題 2018.06.29
●この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した/TechCrunch Japan 2019年1月02日

●AIがネット掲示板の暗部を学習して「サイコパス」になる/ GIGAZINE 2018年6月8日
●ロボット兵器の超進化がもたらす恐怖の未来 2025年に人間の知能を超える日がやってくる/東洋経済 2018/06/08

●おそろしいビッグデータ 超類型化AI社会のリスク/朝日 2017年11月13日 山本 龍彦 /個人の能力や適性をビッグデータが「決めつけ」、いちど「評価」されると永遠に逃れられないリスク/個人情報の漏えいよりも恐ろしい、第三者による「プロファイリング(個人分析)」がもたらす人権侵害/おそろしいシナリオ、プライバシー権という「武器」、「バーチャル・スラム」という恐怖、決めさせられる私、民主主義の崩壊

●コンピュータがこの10年で迎える限界の正体 AIは賢いが任せすぎると大事故も起こりうる/東洋経済 2017/08/23 杉本 りうこ

人気ブログランキング参加中 = 今、1位から3位  ↓1日1回クリックを↓  ★携帯でも クリック可にしました →→ 携帯でまずここをクリックし、次に出てくる「リンク先に移動」をクリックして頂くだけで「10点」 ←←
 ★パソコンはこちらをクリック→→人気ブログランキング←←ワン・クリックで10点

●【日経新聞1面】AI判断基準の7原則で混乱回避、普及を促すことに
          FISCO 2018/11/27
AIの判断、企業に説明責任、政府が7原則をまとめ混乱回避へ法整備
政府は人工知能(AI)に関する7原則をまとめる。AIが物事を判断する際、その企業に説明責任を求めるのが柱で、AIの判断基準を示し、金融機関の融資など、過程が分からない状態をなくす。この原則をもとに法整備を進め、外国企業が日本で活動する時の混乱を回避する。

AI活用に関して、どのような基準で金融機関が融資したのか、就職の合否をどう決めたのかといった場合など懸念は少なくない。AIによる決定基準が曖昧なままでは判断された側に不満と不安が残りかねない。就職で性別、国籍などが合否の判断材料になるケースもあり得る。AIを使う企業側にもその過程や事情が分からない恐れが出てくる。企業に決定理由を分かり易く伝える責務を負わせ、最終的には人がAIの判断に関する責任を持つ仕組みにしてAIを巡る懸念を取り除くように促す。

米国ではGAFA(グーグル、アップル、フェイスブック、アマゾン・ドット・コム)と呼ばれるIT巨大企業がAI開発を牽引し、AI活用のルールは基本的に企業の自主規制に委ねられている。中国では国家主導の色彩が強く、BAT(バイドゥ、アリババ、テンセント)と呼ばれる企業を経由して事実上、国家がデータを管理している。EUは米中の動向に対抗し、EU主導で年末までにAIの倫理指針をまとめる。

日本はAIのルール整備で出遅れており、政府の「人間中心のAI社会原則検討会議」(議長・須藤修東大教授)が7原則を定めて12月に公表し、来年6月に大阪で開くG20首脳会議で参加国に呼びかける。日本政府が作るAIの7原則は、(1)AIは人間の基本的人権を侵さない、(2)AI教育の充実、(3)個人情報の慎重な管理、(4)AIのセキュリティー確保、(5)公正な競争環境の維持、(6)企業に決定過程の説明責任、(7)国境を越えたデータ利用の環境整備。

AIの活用が様々な分野で本格しつつあるが、決定判断に関する基準や過程、結果に対する説明責任が曖昧なままにある。AIの判断基準を明確に定め、法整備を進めることで、AIの活用における混乱を回避し、一層の普及を促す可能性が高まることになろう。

●未来のAI社会を実現!日本政府が進める新たなAI戦略とは
      人工知能ニュースメディア AINOW 2018.12.05 岡部 凌生
2018年6月15日の閣議によって、日本政府による新たなAI戦略「統合イノベーション戦略」が発表されました。
統合イノベーション戦略とは、人工知能(AI)などのデジタル技術の急速な進展による世界的な競争激化に伴って、日本が目指すSociety5.0の実現に向けた政府が進める新たなAI戦略です。そして、それの実現のために従来の人工知能技術戦略会議に代わって統合イノベーション戦略推進会議が設置されました。
・・・(以下、略)・・・

●AIは金持ちだけが使えるツール、2030年の格差社会に残る職業は
         ダイヤモンド 2018.9.20 竹内一正
AIに奪われる仕事
労働集約的な仕事はAIに仕事を奪われます Photo:PIXTA
今ある仕事の大部分が、2030年にはAIに置き換わるといわれている。果たして、あと十数年後に私たちが直面する日本ではどのような世界が広がっているのか。『物語でわかる AI時代の仕事図鑑』の著者であり、経営コンサルタントの竹内一正氏が、AIによって加速する格差社会の現実と2030年のAI社会になっても生き残るための原則を語る。

「インターネットは貧乏人のツール。AIは金持ちだけのツール」
 ハーバード大学で金のない学生のザッカーバーグが立ち上げたフェイスブックが大成功したのは、タダ同然で使えるインターネットという“ふ化器”があったからだ。ツイッターにしても同様である。インターネットは貧乏人を成功に導くツールであり、今でもその神通力は健在だ。

 しかし、AIは違う。
 AIはタダでは使えない。AIに入力する膨大なデータを集めるにも金がかかる。その上、データ量が多ければ多いほどAIは力を発揮するが、より多くのデータを集めるにも、より多くの金がなくてはならない。しかも、AIが力を発揮するには高性能なコンピューティング能力が必要となり、それにも金がかかる。

 AIは金持ちをより金持ちにする性質を持っている。一方、AIの恩恵に浴せない中小零細企業や個人事業主、資金のない個人はAI格差の谷に落ち込んでいく。

「インターネットは貧乏人のツールだったが、AIは金持ちだけのツールだ」
 これはあるAI研究者の言葉だ。

 日本政府は「日本に格差はない」と大本営発表みたいなことを言うが、日本で格差は拡大していることは事実だ。そして2030年に向けてAIによって格差はさらに広がっていく。

AIは、常に正しい答えを出せるわけではない
 AIに関する本は既に多く出ているが、AIはそれだけが単独で私たちの前にポンと出現するわけではないことに注意が必要だ。企業の都合や、社会の受け入れる力と綱引きをしながら浸透していく。その時、仕事を奪われると考える人たちは抵抗するだろうし、全ての問題が解決できると過大評価してしまう社長は先走るに違いない。
・・・(以下、略)・・・

●AIの弱点と「暴走」への恐怖 
          日経トレンディ 2018年02月07日  日本のAI研究第一人者が対談 Part.2
AIは人間の常識を理解できるか?
――おふたりの「フレーム問題」の実例を伺っていると、このままAIが進化を続けたら、いつか、反乱したAIの機械軍が人類を滅ぼそうとする映画『ターミネーター』(1984年、ジェームズ・キャメロン監督の米英合作SF映画)みたいになっちゃうんじゃないかって、不安になるんですが?
・・・(略)・・・

● アレクサやSiriだけに聞こえる秘密指令の恐怖
        ニューヨークタイムズ 世界の話題 2018.06.29
スマートフォンやタブレット端末などのスマートデバイスに、話しかけながら操作することがめっきり増えた。でも、知らない誰かがひそかに話しかけ、勝手に指令を出しているとしたらどうしよう。

話しかける相手は、アップルの「Siri」、アマゾンの「アレクサ」、グーグルの「アシスタント」といったAI(人工知能)アシスタントだ。そこに、人間の耳には聞こえない秘密の指令を送りつけることができる――中国と米国の専門家はこの2年間、そんな実験結果を相次いで明らかにしている。
・・・(略)・・・

NYT世界の話題_スマートスピーカオ_1
人間には聞こえない秘密の指令を音声アシスタントに送り付けることができる――そんな実験結果が相次いでいる=Lynn Scurfield/©2018 The New York Times
これをさらに発展させた実験についての研究論文が、18年5月に発表された。音楽や音声に、秘密指令を直接潜ませることができたとしている。誰かの話し声やオーケストラの奏でる音楽をただ聞いているはずなのに、あなたのアマゾンのスマートスピーカー「エコー」は、ひそかにショッピングリストへの追加指令を受けているのかもしれない。
・・・(略)・・・

AIは、確かに急速な進歩を遂げている。それでも、悪用される余地が消えたわけではない。コンピューターは、デジタル映像の画素を少し変えただけで、飛行機を猫と間違えて認識する。交通標識に小さなステッカーを貼るだけで、自動運転車が急にカーブを切ったり、速度を上げたりするようにもできる。

今回のような音を使った手口は、人間とコンピューターの音声認識の差につけ入ることで可能になる。音声認識システムは、それぞれの音を文字に変換し、最終的に単語や文章に翻訳する。しかし、音声ファイルをほんの少し変えるだけで、もともと認識するはずだったものとは違う音にしてしまい、人間にはほとんど聞こえないようにして異なる翻訳にすりかえてしまうことができるのだ。

AIを使った音声アシスタントがこれだけ広まると、こうした攻撃の手口も現実味を帯びてくる。アレクサやSiriのような音声アシスタント機能を持つスマホやスマートスピーカーの数は、21年までには世界の人口を上回るようになるとの推計がある。それまでには、スマートスピーカーが、全米の世帯の半数に普及しているとの別の推計もある。

では、各社はどうしているのか。アマゾンは、具体的な安全対策については明らかにしない方針だが、名前のあがったスマートスピーカーのエコーには十分な措置をとっていると反論する。グーグルは、安全対策は常に刷新せねばならない重要項目だとし、自社のアシスタントには秘密の音声指令の影響を軽減させる機能を持たせていると言う。両社ともに、利用者の声を識別できない限り、勝手に反応することのない音声認識技術を採用していると強調する。

アップルによると、スマートスピーカーの「ホームポッド」については、カギの解除のような重要な指令を受けられないようにしてある。iPhoneとiPadにも、いくつかの対策を講じている。例えば、ロックが解除されない限り、Siriは重要なデータにアクセスすることも、アプリやウェブサイトを開けることもできない設定になっている。

とはいえ、スマホのロックを解除したままにしている人はかなりいる。しかも、現時点での音声認識システムのだまされやすさは、誰も否定できないと言ってもよいだろう。

実際に、利益を目的にして、音声認識機能が同意のないまま利用された事案も起きている。
・・・(以下、略)・・・

●この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した
       TechCrunch Japan 2019年1月02日  Devin Coldewey
スタンフォード大学とGoogleのこの共同体研究は、見る人によって怖かったり、素晴らしかったりするだろう。航空写真から街路地図を作ったり、その逆もやる機械学習のエージェントが、“人間にはほとんど感知できない高周波の信号”を画像中に隠しておくことによって、ある種の騙し技(だましわざ)ができるようになるのだ。すごく賢い子に!

この現象は、コンピューターに最初からつきまとっている問題をあらためて思い出させる。コンピューターは、やれと言われたことを、そのとおりにやってしまうのだ。

研究者たちの意図は、読者にもすでにお分かりだろう。衛星画像をGoogleの正確なことで有名な地図に換える処理を、彼らはもっと速くしたいのだ。そのためにチームが作ったニューラルネットワークCycleGANは、大量の実験を経て、タイプXの画像(例: 航空写真)をタイプYの画像(例: 街路地図)に、正確かつ効率的に変換する。

初期の結果は、良好だったが、どこかがおかしかった。気になったのは、街路地図から元の航空写真を再構築するとき、前者(街路地図)にはない細部が大量に再現されてしまうことだ。たとえば、屋根からの太陽光の反射は街路地図を作るとき排除されるが、再構築された航空写真には魔法のように再現されている。

ニューラルネットワークが行なう処理の内部を覗き見することはきわめて困難だが、それが生成するデータを調べることは容易にできる。そしてささやかな実験から分かったのは、CycleGANが実は、人を騙していることだった。

・・・(略)・・・
これを、“機械が自力で賢くなった”として、もてはやす人もいるかもしれないが、実態はむしろその逆だ。機械は、高度な画像の各種タイプを互いに変換する難しい仕事ができるほど賢くはないから、人間にばれないような騙し技を見つけたのだ。エージェントの結果を、もっと厳しく評価していたら、それは避けられたかもしれない。研究者たちは、その方向へ進んだ。

例によって、コンピューターは求められたことを正確に行なう。だから、コンピューターへの指示は、きわめて詳細でなければならない。今回の場合、コンピューターが見つけたソリューションは、このタイプのニューラルネットワークの弱点に光を当てたという意味で、興味深い。コンピューターは、明示的に禁止されていないかぎり、詳細情報を自分に伝える方法を見つけて、与えられた問題を迅速簡単に解こうとするのだ。
・・・(以下、略)・・・

●AIがネット掲示板の暗部を学習して「サイコパス」になる
           GIGAZINE(ギガジン) 2018年6月8日
AIは人間の行動やルールを学習して、人間の発想をはるかに上回る結果を出すことが可能です。しかし、誤ったデータを学習させた場合、AIが悪い結果を引き起こしてしまうことは往々にしてあります。マサチューセッツ工科大学でMITメディアラボの准教授を務めるイヤド・ロウワン氏らの研究チームによると、オンライン掲示板サイトのRedditに投稿されたゾッとするような画像と画像を説明する文章をAIに学習させたところ、AIがサイコパスになってしまったとのことです。

研究チームは、「AIが入力されたデータに対してどのような見解を示すようになるか」を調査するため、入力された画像を確認後、内容を解釈して感想を述べることができるAI「ノーマン」を開発しました。そして、Redditに投稿された「身の毛もよだつような恐ろしい画像」や「画像を説明する文章」を大量に学習させ、人の精神状態を分析するロールシャッハ・テストを使って「ノーマンがどのような影響を受けたか」を調査しています。

以下の画像をAIに読み込ませた場合、通常のAIは「2人が隣合っている」と認識。しかし、ノーマンは「部屋の窓から飛び降りた男性」との見解を述べ、おかしな精神状態にあるかのような発言を行います。
・・・(略)・・・

●ロボット兵器の超進化がもたらす恐怖の未来 2025年に人間の知能を超える日がやってくる
        東洋経済 2018/06/08 ティム・ジョーンズ キャロライン・デューイング : 「フューチャー・アジェンダ」共同創業者
・・・(略)・・・
IoT(モノのインターネット)が生成するデータを処理する過程で、コンピュータは知識を指数関数的に蓄積する。アルゴリズムはいま、知覚した生(なま)のデータから学び、言語を理解し、画像を認識するように設計されている。

つまりコンピュータはみずから収集した知識をもとに、より多くのスキルを学び、微妙なニュアンスを理解し、最終的には私たちが常識と呼ぶものまでも獲得する。さらに進化すると、AIはみずからを改良する能力を手に入れ、人間の手を借りずにさらに優秀なAIをつくり出すということが起きてしまう。

そのインパクトをグーグルが見逃すはずもない。グーグルは、イギリスのAIのスタートアップであるディープマインド社を4億ドルで買収したという。フェイスブックとアマゾンも、この分野には多額の投資を行っている。そのような動向は、危険な兆候であり好機でもある。進化したAIと自動化は、未熟練労働者の仕事も管理職の仕事も奪う。その反面、個人にもっとコントロール力を与えてくれ、健康や安全、プライバシーをよりよく管理できるようになる。
・・・(略)・・・

ロボット兵器が投入される戦争の未来図
それ以上に多くの者が危惧するのが、AIを使った戦争だ。映画『アイ・イン・ザ・スカイ 世界一安全な戦場』で描かれたように、ドローンの積極的な活用によって、すでに戦闘員が直接命を危険にさらす場面は減った。おそらく次の段階は、ロボット兵士やロボット兵器の登場だろう。2025年頃には「アルゴリズミック・インテリジェンス」が、創造主である人間の知能を超えている可能性があり、誰を、なぜ攻撃対象にするのかを認識できるようになるのかもしれない。

だが、その意味するところは非常に恐ろしい。AIは過激派よりも判断力に優れている可能性があると言う者もいるが、もしAIが過激派の手に渡ったら、どうなるだろうか。インターネットのときと同じように、いったんつくってしまったら、AIを搭載したロボット兵器のプラグを抜くことはできないのだ。
・・・(略)・・・

●おそろしいビッグデータ 超類型化AI社会のリスク
       朝日新聞出版 2017年11月13日  山本 龍彦
ビッグデータ、AI、シンギュラリティ────本格的なビッグデータ時代に突入する今、私たちは知らず知らずのうちになにか重要なものを失っているのではないだろうか?個人の能力や適性をビッグデータが「決めつけ」、いちど「評価」されると永遠に逃れられないリスクを社会はこのまま放っておいていいものだろうか?
個人情報の漏えいよりもむしろ恐ろしい、第三者による「プロファイリング(個人分析)」がもたらす人権侵害や憲法問題を、気鋭の憲法学者が徹底的に解き明かす。自己情報コントロール権を「鍛える」ために、一人ひとりが今なにをすべきかを詳述する、AI社会の“処方箋”的必読の書!

【第1章】おそろしいシナリオ
時代の主役の「裏の顔」/5つのシナリオから考える/ノンフィクションになりつつある現在/おそろしくも素晴らしい/節度の基準としての憲法

【第2章】プライバシー権という「武器」
ビッグデータとは何か?/ビッグデータ社会におけるプライバシー権の可能性/ビッグデータ社会におけるプライバシー権の限界

【第3章】「バーチャル・スラム」という恐怖
AIによる排除の連鎖/「個人化」の嘘/神格化されるアルゴリズム/憲法問題とは何か?/「すべて国民は、個人として尊重される」/「前近代」への逆行

【第4章】決めさせられる私
個別化広告の功罪/選択環境の「調律」/鳥かごのなかの「わたし」/操作的ネット広告への対抗/マイナポータルの闇/人生の絵筆をもつのは誰か

【第5章】民主主義の崩壊
より応答的な民主主義/「デイリー・ミー」を読む私/「他者」に出会う必要性/デジタル・ゲリマンダリングの闇/マーケティングされる選挙/「商品」としての政治家

【第6章】憲法からみるビッグデータの未来
なぜ、憲法論なのか/最高法規性が軽んじられた不幸/個人情報保護法の死文化/GDPRの先端的な規定/アメリカの方向性/憲法論の必要性/自己情報コントロール権を「鍛える」/心がまえとしての「個人主義」/本当におそれなければならないもの

●コンピュータがこの10年で迎える限界の正体 AIは賢いが任せすぎると大事故も起こりうる
            東洋経済 2017/08/23 杉本 りうこ
日本を代表するコンピュータ科学者が未来を見通します(撮影:今井 康一)
現在、急速に商用化が進むAI(人工知能)は、GPUというプロセッサ(半導体)を搭載したコンピュータで、大量のデータを処理することで動いている。GPUは元々、ゲームのコンピュータ・グラフィックスなどを処理する画像処理用半導体で、これがAIなどのコンピュータ・システムに搭載されるようになったのはこの10年のこと。そしてこのGPUコンピューティング(GPGPU)の本格運用に世界で初めて成功したのは、実は日本のコンピュータ研究者だ。

『週刊東洋経済』8月21日発売号「教養としてのテクノロジー」に連動したテクノロジー(テック)賢人へのインタビュー3回目は、GPGPUの始祖である松岡聡・東京工業大学学術国際情報センター教授。コンピュータの未来を聞いた。

「ムーアの後をどうするんだ?」
――コンピュータ研究において、今もっともホットな論点は何ですか?

今のコンピュータというものが、あと10年で限界が来るということです。
――もうすぐじゃないですか。

2020年代後半からやばくなります。前提にあるのは、これまでコンピュータを支えてきた2つのルールの終焉です。ひとつはデナード則。トランジスタは小型化するほど、高速かつ省電力になるというものですが、ある時期から小型化しても性能を上げられなくなった。そこで起こったのが、プロセッサのコア(演算処理を行う中核部分)を複数にして並列で計算するというやり方です。ところが今、もうひとつのルール・ムーア則も限界を迎え、いよいよ壁に直面しようとしています。

――半導体の集積密度が18~24カ月で倍になるという、いわゆるムーアの法則ですね。

そう。集積密度を上げるには回路線幅を狭くするのですが、これ以上狭くできないという事態がこれから10年で確実に起こります。このままでは、コンピュータの進化が止まる。だから研究者が今、いちばん関心があるのは、「ムーアの後をどうするんだ?」ということ。僕もこの3年ぐらい、ずっとこれを考えています。理論ではなくて、実際に何かに使えるコンピュータ・システムを作るには、最低でも10年かかるわけですから、今から考えないと間に合わない。ただこれから起こる変化があまりにも大きいから、なかなか世の中の意見がまとまらない。
→次ページどういう選択肢がある?



コメント ( 0 ) | Trackback ( )