石壁に百合の花咲く

いちレズビアンの個人的備忘録。

アレクサはホモフォビック? ジョージ・マイケルを「不適切」扱い

Echo Dot (エコードット) - スマートスピーカー with Alexa、ブラック

英国でAmazonのAIアシスタント、Alexa(アレクサ)と人物当てゲーム「アキネイター」をプレイしていた人が、アレクサからジョージ・マイケルのことを「子供には不適切」だと言われてゲームを打ち切られてしまったと報告しています。

詳細は以下。

Amazon Alexa branded “homophobic b***h” after judging George Michael “inappropriate” for kids | Deadline News

アキネイターとは、昔からあるパーティーゲームの「20の質問」によく似たオンラインゲーム。回答者がある人物を思い浮かべて魔人の質問に「はい」「いいえ」「わからない」などのように答えていくと、魔人がその人物の名前を言い当てるというもので、PCのほか、モバイル機器やスマートスピーカーでも遊ぶことができます。

しかしながら、英国ノーフォーク在住のAsa Cannellさんがスマートスピーカーで英国の歌手ジョージ・マイケルを思い浮かべてアキネイターをプレイしていたところ、途中でアレクサからこんなことを言われてゲームを打ち切られてしまったのだそうです。

「あなたは子供にとって不適切とみなされる可能性がある人のことを考えているのではないかと思います。もう一度遊びますか?」

"I guess that you are thinking of someone who could be considered as inappropriate for young people. Would you like to play again?"

Asaさんは正解「ジョージ・マイケル」で2回プレイして、2度とも上記のように言われたと報告しています。1度目は「その人はゲイ?」という質問にイエスと答えた時点で、そして2度目は「その人は『ワム!』の人?」という質問にイエスと言ったところで、「不適切」と言われたんだそうです。同様の現象はスコットランドでも確認され、動画におさめられています。

この動画を見ると、アレクサは回答者に「有名なバンドの人?」、「40歳以上?」、「既に亡くなっている?」、「クイーンの人?」となどと尋ねた後、「ワム! の人?」という問いにイエスと言われたとたんに「あなたは子供にとって不適切とみなされる可能性が(略)」と話し始めています。ということは、アレクサは完全にジョージ・マイケルを特定した上で不適切だと言ってるってことよね。ワム! のメンバーで他界しているのはジョージだけだもん。

AsaさんはFacebookで英Amazonに向かってこう呼びかけています。

「なぜジョージ・マイケルが子供にとって不快な存在なのか説明してもらえます? なぜ誰かのセクシュアリティが子供にとってそんなに不快なんですか? あなたがたの製品は異性愛者専用なんですか?

“Could you explain why George Michael is so offensive to young people? Could you explain why a person’s sexuality is so offensive to young people? Are your products designed for straight people only?”

なおDeadline Newsによると、Amazonのスポークスパーソンは、この「エラー」は特定済で、アキネイターの開発元のElokence社が既に修正したと説明しているとのこと。

試しに今、Web版の日本語バージョンのアキネイターをチャイルドモード有効状態でいろいろプレイしてみたんですが、「ジョージ・マイケル」でも、他のゲイの有名人でも、一度も不適切と言われることはありませんでした。それどころか子供に対する性的虐待で告発されたケヴィン・スペイシーや、連続殺人鬼のジョン・ウェイン・ゲイシーでさえもちゃんと正解にたどりつきました。こうなると逆に、英国とスコットランド(だけ?)のアレクサがいったいどんな設定で何を不適切としていたのか謎です。おおかた、Elokence社なりAmazonなりが何も考えずに適当に使ったフィルタリングがダメダメだったんじゃないかとは思うんですが、だとしても迂闊すぎるんじゃないですかね。AIアシスタントにまで「不適切」の烙印をいちいち押される同性愛者の身にもなってよ。