最近ネットメディアの記事で知った話。かなり驚いたのでご紹介。
Youtubeのお勧め動画のアルゴリズム(簡単にいうとAI的なやつ)ですが、あれは「好きな(と思われる)動画」が出てくるだけではないですね。なんと「嫌いな(と思われる)動画」も出てくることがあるのだそうです。その理由は、視聴者を「なんだこれは!」みたいに怒らせて、思わずクリックするよう仕向けること。そうすれば(怒りながらも)動画を見れば、サイトの滞在時間を延ばせる。むろんそれで広告を入れるタイミングが増えるわけです。
実はこれは腑に落ちることもあって、一時期(結構長く、1年位かなぁ?)、いつもアクセスする度に特定の差別動画がお勧めに出てきて、まんまと「なんでこんな酷い動画が出るんだ」と怒ってました。サムネイルを見るだけで怖気を震うような差別コンテンツだったので、幸いクリックしませんでしたが。
そうこうするうちに出なくなったので、ようやくアルゴリズムがあきらめたか、と思ってたが、どうやら違っていた。この時期、某巨大掲示板で差別・ネ●ウ●動画通報祭りがあって、それで関連動画と共に削除された模様。
(チャンネルごと消えた動画多数、その後主催者たちは何の未練もなく料理動画投稿などに「転向」したという。つまり思想関係なく広告費欲しさのビジネスだった。通報って結構効くんですね)
まあそれはいいとして、もしクリックしていたら最後、次々にこちらを怒らせるような差別・デマ動画が出てきたのでしょう。
ここまでアルゴリズムが狡猾だとは思わなかったのでかなり驚いた。ビッグデータで、そういう傾向を掴んで戦略に組み入れられたわけでしょう。油断も隙もありゃしない。
こうなると、超AIなんかが出てきても人類は知らない間にマインドコントールで支配されちゃうかもしれない。それが一番楽だからね。あっ、これ陰謀論か(w)。
ネット上のその種の言論やデマに免疫があるのは、せいぜい僕らより10歳位上の世代までで、自分らの親世代だと全く赤子のようにまっさらだからかなり危ない。実際、老いた親がその種の動画に支配されておかしくなってしまった、という話は何年か前からちょくちょく見ますね(今回のトランプ騒動でも同じ)。
このブログを読んでいる人であれば大丈夫だろうけど、周りの人がそうならないよう、是非気をつけてあげて下さい。人々が騙されるもの=昔マスコミ、今ネット。