自分はAWSの英語の資料を日常的に読む(というか読まざるを得ない)のだが、英会話もできないとまずいわなあ、という考えた練習することにした。が、英会話レッスンは数が少ないし時間の都合も合わせないといけないのが困る。
音声認識と音声合成を使ってAIと会話できるようになればこちらの都合に合わせて話せるから助かるのになー、と思ったらすでにそんなアプリがあった。当然ですよね、と考えるべきか、もうとっくにそうなっていたか、と驚くべきか。
というわけでやってみた。
早速IPhoneにアプリをインストールし、最初のレッスンを試してみた。
結論、良さげ。まだ試したばかりだが、ちゃんと英語を話してくれるし、こちらの話した内容もしっかり聞き取ってくれる。
vocabularyをどの程度増やせるのかとか、途中の評価イントロダクションに出てくるエフェクトの効いた画面遷移が邪魔だからスキップしたいとか、こまごました気になる点はあるものの、概ね期待していたものがすでにある印象。
フリースタイルでAIと会話できる日も近いか?
マイクを使うときはワンアクション必要になるのがやや気になった。これは音声認識のインターフェース上しかたないのかもしれないが、指に意識が行く。完全に人を相手にした場合の英会話とはやはり異なる。これはまあ仕方ない部分。
また、当然というべきか、一定のシナリオに沿った英会話を行うスタイルであるようだ。教育用だからそれでよいとも言えるが、フリースタイルでこちらの話した内容をAIが解釈して応答してくれる、といったことはさすがにまだできない模様。
しかしながら、何処で見たのだったか、AIがかなり人間に近い(ように感じられる)応答をできるようになってきたというニュースを目にしたことがある。今はまだ無理でも、いずれフリースタイルでAIと会話できる日も来そうな感じである。
次々にAIが実用化されているのを実感する。数年前まで、ディープラーニングがこんなにも早く進化するとは思っていなかった。素晴らしいことである。