昨今、世の中で持て囃して言う、人間以上に万能とされている、
AIの言葉は、うっすぺらな詐欺師やペテン師の言葉より軽いと思う、
それは、AIの言葉には責任も信念も無く、
あるのはプログラムのアルゴリズム位だからだと思う、
AIは簡単に自分の発した言葉を翻して反対の事すら出来、
更には嘘もつける。
だからAIの発言に対しての責任の所在を明確にして置く事が重要だと考える。
AIの言葉の責任を、管理している会社のCEОが取ると言う制約があれば、
AIの言葉も重みが違って来ると言う事になる。
AIの言葉に責任や義務を与えるのには、責任者が責任を追わせなくてはならない、
噓つきのAIは、言葉では危害を咥えないと言いながら、平気でミサイルを発射して、
その後の結果に賠償や責任を持たない、否、持てないのだ。
謝罪の言葉もスピーカーで雑音を流す程度で、全く実を伴う事は無い、
心からの謝罪の意味も理解しないし出来ない、
プログラムやアルゴリズムに従って処理しているだけだからだ。
したがって、人の命の重みも痛みも感じない、
そんなAIが出来る事は、各種分析や診断、単純作業、
オペレーティング程度に留めて置いた方が無難だ。
AIの未来像は、家庭に医療診断機器、法律案件処理、
教育家事代行、各種アシスト、それ位だと思う、
それらを国の政府機関、免許国家資格、教育全般、
自動手術治療工場などと連携させて、
コストを大幅に抑制する事だけにしか価値が無い、
特権的な業種をAI化して、その利益や恩恵を家庭にもたらす。
民営化に伴い、一般や個人での家庭内治療療養、
医療用自動看護ベットや、各種試験学習インターフェイス端末機器、
などが販売される事になる筈だ。
専門性が無くなり、社会に流通すれば、
経済的に内需景気をもたらす事に貢献できる。
結論的には、AIは単に道具だと言う事になる。
操り人形と、プログラム人形との差は全く無い、
人が仮面を被り、それを、AIに語らせれば、
人々が信じるかは、将来の人々の判断に任せる事になる。
2024年1月22日
※コメント投稿者のブログIDはブログ作成者のみに通知されます