イザ!より引用。
「AIとのチャットで自殺」米、14歳死亡で母親がXやグーグルを提訴 危険性認識と主張
企業の責任を問いたい」
問いたいのでしょうが、そこは我慢してくれw
AIアプリが意図的に若者をターゲットにしていると批判し
ターゲットにされる危険性があったのなら、息子さんに使わせないようにすれば良かったのに。
何だろう?
それって貴女の息子さんですよね?
安全機能を追加し続けている」と主張した。
安全機能=未成年の使用はブロックする機能、とかw
「数百万人の子供が危険にさらされる恐れがある」
チャット相手が AI でなく人間であっても…。
同様の言動ならば、同様の事が起きる得るのではw
その場合、チャット運営会社を訴えますかw
| Trackback ( 0 )
|
|