先日、日本語の現地情報誌『ライトハウス』の人生相談コーナーを担当されてきた詩人・伊藤比呂美さんのトークショーに参加してきました。観客の99%はロサンゼルスに住む女性たち。伊藤さんが話す異国の土地で生活することの大変さには、会場から共感が集まっていました。
この大変さを一言でまとめるなら、他所から来た“マイノリティ”として差別されるということに尽きるかもしれません。英語の発音がネイティブ並みなら、さほど違いを意識されることなくやり過ごせるのかもしれませんが、典型的な日本人訛りの英語ではそれも叶いません。
伊藤さんが日常茶飯事の例として挙げていたのが、カスタマーサポートなどに電話をかけるときのこと。相手が目の前にいるなら、口の動きや身振り手振りで理解してもらうこともできますが、電話越しとなると聞き取りづらい英語で頑張って意思疎通を図るほかに方法はありません。
でも、彼女の話を聞いていて、この壁は何も人間を相手にしているときに限らないことに気づかされました。というのも、こちらでは自動音声や音声認識の電話サポートが当たり前だからです。日本にも、電話の目的に応じて番号を押す自動音声サービスはありますが、こちらの自動音声サービスはもう少し高度です。
まず、特に大きな病院からは、予約のリマインダーが自動音声でかかってきます。病院や保険会社に電話する場合も、人間のカスタマーサポートに振り分けられる前に本人確認のために電話番号や住所などを口頭で伝える必要があります。問題は、きちんとしたネイティブ英語でないとロボットに「アイムソーリー」と却下されてしまうこと。
これが人間のカスタマーサポート相手なら、まだなんとか理解しようと努力してくれるかもしれませんし、これまでの経験値からうまく聞き取ってくれるかもしれません。でも、昨今の人工知能(AI)を活用したカスタマーサポートではそうもいかず。顧客満足度アップやコスト削減のために従来のカスタマーサポートをAIで補完または置き換える動きが加速していますが、その聞き取り能力はネイティブ英語にとどまります。
以前に、「Trint」というテープ起こしのツールを試したときも同様でした。Trintに起こしてもらったのは、日本人訛りの英語とネイティブ英語が交互に繰り返される取材記録。Trintの聞き取り能力は、ネイティブ英語では固有名詞などを除いてほぼ完璧に近かったのに対して、日本人訛りの英語はほとんど聞き取ってくれず、これは使えないなと残念だったことを覚えています。
少し遡りますが、2017年8月にマイクロソフトの人工知能音声認識システムの単語単位のエラー発生率が、人間のプロフェッショナルと並ぶ5.1%を記録したという報道がありました。内容はスポーツから政治まで多岐に渡りましたが、使われた音声はきれいなネイティブ英語で、発音や訛りといったものは考慮されていないでしょう。
ここ1~2年のテクノロジー業界でもっとも注目される「人工知能」。頻繁に、人工知能によって人間の仕事が奪われることが騒ぎ立てられています。でも、それ以前に心配なのが人工知能に組み込まれたバイアス(偏見)です。カスタマーサポートの例はまだいいとしても、就職活動や転職活動など人の人生を左右するような場面でも人工知能が使われ始めているからです。
私たちは、人工知能がデータをもとに機械的に判断をしてくれれば、人間が持つバイアスを取り除いてくれるはずと期待してしまいがち。でも、バイアスを持った人間が人工知能に学ばせるデータを用意し、システムをつくる限り、バイアスに無縁な人工知能の誕生は難しいのかもしれません。
Yukari Mitsuhashi
米国LA在住のライター。ITベンチャーを経て2010年に独立し、国内外のIT企業を取材する。ニューズウィーク日本版やIT系メディアなどで執筆。映画「ソーシャル・ネットワーク」の字幕監修にも携わる。【URL】http://www.techdoll.jp