音声認識やAIは英語学習を不要にできるか?
先日、職場でskypeとかのweb会議について、同僚と話す機会がありました。
その中で、最近Amazon Echo等のスマートスピーカーの発達、ポケトーク等の同時通訳の発達で、将来web会議越しでが同時通訳ができるんじゃないか。そうすれば外国語の学習も不要になるかもしれないみたいな話がでました。
端的に言えば、最近はやりのAIが発達によって、英語の勉強も不要になるかもという話です。
個人的には、そう都合良く英語学習は不要とはならないんじゃないかと考えています。
なので、今回はそのことを書いてみたいと思います。
なお、このエントリのタイトルがやたらとポエムっぽくなりましたが、特に他意はないです。
将来も英語学習が必要だと考える理由
音声認識やAIによる通訳は、今後発展していくでしょう。将来、外国語を知らなくても、世界の様々な人とIT技術を介して会話できるようになるかもしれません。
一方、現在特にビジネスの世界では、英語が世界を舞台にするにはデファクト・スタンダードになっています。
問題は、音声認識やAIによる通訳の発達によって、デファクト・スタンダードである英語学習は不要になるかですね。
個人的には、たとえAIによる通訳が発達しても、英語学習は必要だと考えています。
理由は単純で、英語を直接話した方が、時間効率が良いからです。
例えば、英語圏の人に通訳を介して話した場合、以下の流れとなります。
1:日本語で話す → 2: AIが1の日本語を解釈して英語に翻訳 → 3:翻訳後の英語を再生
2のAIが日本語を解釈して、英語に翻訳するのに必要な時間は、技術の発達に従って、ほぼゼロできるかと思います。翻訳精度も、問題にならないレベルに向上していくでしょう。
ただし、1の「日本語を話す」と3の「翻訳後の英語を再生」する時間はかかってしまいます。
これが、直接英語を話した場合は下記で終わります。
a:英語で話す
英語で直接話せた方が、単純に時間効率が2倍になりませんか? ビジネスにおいて、この効率の違いは致命的ではないでしょうか? (確かに、まったく話が通じない状況と比較したら、格段の進歩ですが。)
ここでは、頭の中で英語を構築する時間は入れていません。それなりに英語を話せるという前提です。この時間を入れると、そもそも翻訳を使うときも、話したいことを日本語で組み立てる時間はカウントしなくて良いのかという話になってしまうので。
翻訳を使う場合も、AIがうまく日本語を要約してくれれば、3:翻訳後の英語を再生する時間は短くなるかと思います。ですが、1:日本語を話す時間よりも、必ず時間的には長くなるはずです。
もしもAIが翻訳を介した場合も、直接英語を話した場合と同じ時間で終わらせるとするならば、AIは日本語で話す内容を予測して英語に翻訳する必要があります。
でもこれって、ちょっと怖くないですか?頭の中で考えていることを、AIに先読みされることと同じことじゃないでしょうか?
もしも、AIがしゃべろうとしていることを先読みできるとしたら、その内こんなやり取りがあるかもしれません。
「部長、AIが部長の話したいこと言ってくれるので、会議に出なくていいですよ。」
更に行くところまで行くと、こんな感じになるかもしれません。
「君の考えていることはAIがやってくれるから、会社来なくていいよ」
実際のところ、現状のAIが出来ることを考えると、こんな事が起こるとしても当分先でしょう。
仮に技術的に可能になったとしても、社会的に受け入れられるのは、さらに長い時間がかかるでしょう。
少なくとも私が働いていられる内に、AIの技術が発展し、かつそこまで社会が成熟、人の意識が変わることは無いだろうと感じています。そんな悠長なことを言っていられないほどの状況になっていたら、分かりませんが。
まとめ
長々と書いてきましたが、AIの進歩や自動翻訳を夢見るよりは、時間効率の観点から、自分で英語を話せるようにした方がいいじゃないかという話でした。
時間効率と言っても、英語を話せるようになるまでの時間は入っていませんが。
そういう自分はどうなのかというと、私は英会話できません。というわけで、余計なことは考えずに、2019年には英語を話せるように精進したいです。