Yuval Noah Harari: “We Are on the Verge of Destroying Ourselves” | Amanpour and Company
人間が絶えず感情を刺激される対象であることが、魔女狩りを語ることによって説明されている。AIのアルゴリズムが感情を除外して合理的に理性的にコンテクストを判断できるとするが、情報を提供するのは人間の知性・決断である。しかし、AIがエ―ジェントになりえるとハラーリーは話している。氏はClimate change(気候変動)には触れるが、人工的な気象操作や危険なコロナ・ワクチンについては言及しない。
Yuval Noah Harari
Message
著者ユヴァル・ノア・ハラリからのメッセージ
著者ユヴァル・ノア・ハラリからのメッセージ
私たちは人類史上もっとも重大な情報革命のさなかを生きています。
しかし、それ以前に起きたことを理解しなければ、そのことは理解できません。歴史とは、結局のところ過去を学ぶことではありません──変化を学ぶことなのです。歴史は、何が同じであり続けて、何が変化をして、いかに物事が変化しているかを教えてくれます。とはいえ、歴史とは決定論的なものではありませんし、『Nexus』は過去を理解すれば未来を予測できると主張するものではありません。私の目的は、じゅうぶんな知識にもとづく選択をすれば、私たちは最悪の結果を避けることがまだ可能なのだと示すことにあるのです。
未来は変えられないというのなら、それを議論するのに時間を費やす必要はないのですから。
(『Nexus』翻訳出版社の訳)
声:
So according to Hariri, the ruling elites, political class and wealthy will ultimately decide what is ‘true’ to counter or suppress the alternative or non-mainstream.
(だから、ハリリによれば、支配層エリート、政治家階級や富裕層が、オルタナティブな、あるいは非主流派に対抗したり、弾圧したりするために、最終的に何が'真実'かを決定することになるのだ。)
声:
@Viewer372
Noah Harari is always a good read along with being interesting and informative on YouTube videos. Concerning human nature: Victor Davis Hanson says it never changes over time or distance, but he forgot to mention it has a dark side. Harari addresses issues of AI, information, and technology. He tries to predict the future use and misuse of the aforementioned. He should recall the line by Cassius to Brutus: “The fault, dear Brutus is not in our stars, but in ourselves, that we are underlings”.
(ノア・ハラリは、YouTubeの動画で興味深く、有益であるだけでなく、常に読み物として人気があります。人間の本性について:ビクター・デイビス・ハンソンは、時間や距離が経っても決して変わらないと言っています。しかし、彼はそれが暗い面を持っていることに言及するのを忘れていました。ハラリは、AI、情報、テクノロジーの問題に取り組んでいます。彼は、前述の将来の使用と誤用を予測しようとします。彼は、カシウスがブルータスに言った言葉を思い出すべきです:「親愛なるブルータス、過ちは私たちの星ではなく、私たち自身にあります。私たちは部下です」。)
(ノア・ハラリは、YouTubeの動画で興味深く、有益であるだけでなく、常に読み物として人気があります。人間の本性について:ビクター・デイビス・ハンソンは、時間や距離が経っても決して変わらないと言っています。しかし、彼はそれが暗い面を持っていることに言及するのを忘れていました。ハラリは、AI、情報、テクノロジーの問題に取り組んでいます。彼は、前述の将来の使用と誤用を予測しようとします。彼は、カシウスがブルータスに言った言葉を思い出すべきです:「親愛なるブルータス、過ちは私たちの星ではなく、私たち自身にあります。私たちは部下です」。)
声:
@curiousworld7912
Mankind, for all its intelligence, appears to be far more emotionally reactional, rather than rationally motivated
(人類は、その知性にもかかわらず、合理的に動機付けられているというよりは、はるかに感情的に反応的であるように見えます。)
@diogene533
Wonderful interview. Thank you. What I think is not fully appreciated is how much today's media has contributed to the growing polarization of our society. I believe that "truth" for most people is that information or idea that fits within their existing frame of reference, not necessarily based on facts. Facts are provable, and, even then, there are some who say personal biases color the interpretation of proofs. We tend to surround ourselves with media that matches our beliefs, whether Fox News or MSNBC, etc. It's comfortable and reassuring. At the same time, in the past 10 years, there has been an explosion of choices for media consumption: podcasts, videos, TikTok, Twitter, Facebook, Instagram, etc. where we can follow certain personalities that we like to engage with. So here we have a wide choice of confirming media to select where we will put our attention and at the same time there is no incentive to move out of our comfort zone. The result is polarization, which is what we see today. AI will could only make the problem worse by analyzing personal preferences and promoting those media choices the reinforce those preferences.
(素晴らしいインタビュー。ありがとうございます。私が十分に評価されていないと思うのは、今日のメディアが私たちの社会の二極化にどれほど貢献しているかということです。私は、ほとんどの人にとっての「真実」とは、必ずしも事実に基づいているのではなく、既存の参照枠に収まる情報やアイデアであると信じています。事実は証明可能であり、それでも、個人的な偏見が証明の解釈を左右すると言う人もいます。私たちは、フォックスニュースやMSNBCなど、自分の信念に一致するメディアに囲まれる傾向があります。快適で安心です。同時に、過去10年間で、ポッドキャスト、ビデオ、Tiktok、Twitter、Facebook、Instagramなど、メディア消費の選択肢が爆発的に増え、自分が関わりたい特定のパーソナリティをフォローできるようになりました。したがって、ここでは、注意を向ける場所を選択するための確認メディアの幅広い選択肢があり、同時に、快適ゾーンから抜け出すインセンティブはありません。その結果、今日私たちが目にしているような二極化が生じます。AIは、個人の好みを分析し、それらのメディアの選択肢を促進してそれらの好みを強化することによって、問題を悪化させるだけです。)
(素晴らしいインタビュー。ありがとうございます。私が十分に評価されていないと思うのは、今日のメディアが私たちの社会の二極化にどれほど貢献しているかということです。私は、ほとんどの人にとっての「真実」とは、必ずしも事実に基づいているのではなく、既存の参照枠に収まる情報やアイデアであると信じています。事実は証明可能であり、それでも、個人的な偏見が証明の解釈を左右すると言う人もいます。私たちは、フォックスニュースやMSNBCなど、自分の信念に一致するメディアに囲まれる傾向があります。快適で安心です。同時に、過去10年間で、ポッドキャスト、ビデオ、Tiktok、Twitter、Facebook、Instagramなど、メディア消費の選択肢が爆発的に増え、自分が関わりたい特定のパーソナリティをフォローできるようになりました。したがって、ここでは、注意を向ける場所を選択するための確認メディアの幅広い選択肢があり、同時に、快適ゾーンから抜け出すインセンティブはありません。その結果、今日私たちが目にしているような二極化が生じます。AIは、個人の好みを分析し、それらのメディアの選択肢を促進してそれらの好みを強化することによって、問題を悪化させるだけです。)
声:
@joeyappley202
Yuval has dedicated a lot of time and effort to developing these ideas, which, when spoken, seem plain to anyone paying attention. Much appreciated!
As an aside, I recently read a Newgaurd article about AI-created/generated sites ( just over 1,000 identified by Newsgaurd). The article draws attention to the fact that many reliable news sources have decided they do not want AI to be able to access their content. Thus, AI has trained itself on "junk news." And the result: AI-generated news that is full of conspiracy and misinformation. Further, chatbots are trained in a similar manner. This seems a likely reason why the comment section on many platforms is full of nonsense.
As Yuval mentions, strong institutions like journalism, etc., and regulatory bodies are imperative.
I am a strong supporter of free speech. But, AI and algorithms have no 1st ammendment rights. Additionally, speech that is predicated on falsehoods disguised as facts should not have the same weight in a public forum as verifiable truths or facts rooted in discriminating tools like the scientific method or rigorous, skeptical journalism, etc.
Sorry to be so long-winded. I am passionate about this subject, and have seen too many loved ones fall into the trap of echo chambers and conspiracy.
(ユヴァルは、これらのアイデアを発展させるために多くの時間と努力を費やしてきましたが、それを話すと、注目している人には当たり前のように思えます。大いに感謝します! 余談ですが、最近、AIが作成/生成した新しいサイト(newsgaurdによって特定された1,000以上)についてのNewgaurdの記事を読みました。この記事は、多くの信頼できるニュースソースが、AIがコンテンツにアクセスできるようにしたくないと決定したという事実に注意を向けています。したがって、AIは「ジャンクニュース」で自分自身を訓練しました。その結果、AIは陰謀と誤情報に満ちたニュースを生成しました。さらに、チャットボットも同様の方法で訓練されています。これが、多くのプラットフォームのコメント欄がナンセンスでいっぱいである理由のようです。 ユヴァルが言及しているように、ジャーナリズムなどの強力な機関や規制機関が不可欠です。 私は言論の自由を強く支持しています。しかし、AIとアルゴリズムには1stの補償権はありません。さらに、事実を装った虚偽に基づく言論は、公の場で検証可能な真実や、科学的方法や厳格で懐疑的なジャーナリズムなどの差別的なツールに根ざした事実と同じ重みを持つべきではありません。 長々と申し訳ありません。私はこのテーマに情熱を注いでおり、あまりにも多くの愛する人がエコーチェンバーと陰謀の罠に陥るのを見てきました。)
As an aside, I recently read a Newgaurd article about AI-created/generated sites ( just over 1,000 identified by Newsgaurd). The article draws attention to the fact that many reliable news sources have decided they do not want AI to be able to access their content. Thus, AI has trained itself on "junk news." And the result: AI-generated news that is full of conspiracy and misinformation. Further, chatbots are trained in a similar manner. This seems a likely reason why the comment section on many platforms is full of nonsense.
As Yuval mentions, strong institutions like journalism, etc., and regulatory bodies are imperative.
I am a strong supporter of free speech. But, AI and algorithms have no 1st ammendment rights. Additionally, speech that is predicated on falsehoods disguised as facts should not have the same weight in a public forum as verifiable truths or facts rooted in discriminating tools like the scientific method or rigorous, skeptical journalism, etc.
Sorry to be so long-winded. I am passionate about this subject, and have seen too many loved ones fall into the trap of echo chambers and conspiracy.
(ユヴァルは、これらのアイデアを発展させるために多くの時間と努力を費やしてきましたが、それを話すと、注目している人には当たり前のように思えます。大いに感謝します! 余談ですが、最近、AIが作成/生成した新しいサイト(newsgaurdによって特定された1,000以上)についてのNewgaurdの記事を読みました。この記事は、多くの信頼できるニュースソースが、AIがコンテンツにアクセスできるようにしたくないと決定したという事実に注意を向けています。したがって、AIは「ジャンクニュース」で自分自身を訓練しました。その結果、AIは陰謀と誤情報に満ちたニュースを生成しました。さらに、チャットボットも同様の方法で訓練されています。これが、多くのプラットフォームのコメント欄がナンセンスでいっぱいである理由のようです。 ユヴァルが言及しているように、ジャーナリズムなどの強力な機関や規制機関が不可欠です。 私は言論の自由を強く支持しています。しかし、AIとアルゴリズムには1stの補償権はありません。さらに、事実を装った虚偽に基づく言論は、公の場で検証可能な真実や、科学的方法や厳格で懐疑的なジャーナリズムなどの差別的なツールに根ざした事実と同じ重みを持つべきではありません。 長々と申し訳ありません。私はこのテーマに情熱を注いでおり、あまりにも多くの愛する人がエコーチェンバーと陰謀の罠に陥るのを見てきました。)
たくさんのコメントが書き込まれています。それを読むのも一興です。
- トータル閲覧数 10021141 PV 10000000 万超えた!
- トータル訪問数 2315157 UU