新着Pick
1386Picks
Pick に失敗しました

人気 Picker
AIが学習するための「日本語ー英語」の正しいセットが大量にあれば可能かも。ただ、そのためには翻訳家の協力も必要なはずで、協力すればするほど自分の仕事がなくなるというジレンマに苦しみそう。
プロピッカーの落合陽一氏を取材した時に、機械翻技術訳の精度の向上により、研究者は機械翻訳されやすい英語・日本語を書くようになったと聞き、「面白い!」と思いました。そして、機械翻訳の取材を始めたのですが。
現状ですでに、驚くほどその正確さ、自然な訳は実現されつつあります。

デバイスもスマホアプリやイヤホン型などだけではなく、ただスピーカーに向かって話せばいいという段階にまできている。まさに「翻訳コンニャク」時代の到来か?

もっとも、語学を学ぶことはその背景にある文化やコミュニケーションを知ることでもあります。そんな、機械学習時代の英語学習術を、提示していきたいと思います。
どうぞ、よろしくお願いいたします。
不要にする訳がない。
コミュニケーションは、9割以上が非言語情報(声のリズム、トーン、身振り、シンクロ度他)で成り立っている。言語情報は、非言語情報を載せる皿のようなものである。皿とその上の料理は一緒にだされなくてはならない。機械翻訳は言語情報の変換である。非言語情報との連動性がとれない。
学生時代、英語を苦手とする友人が「将来は高精度な翻訳機械ができる」とか「ある程度の地位になれば通訳がつく」とかを言い訳にして頑なに勉強を拒んでいたのを思い出しました。皆さんの周りにもいませんでしたか?そういう人(笑)

機械翻訳の精度が上がったとしても語学学習は必要でその中身や方法がこれまでとは異なる、ということになるんじゃないかと思いますが。。とにかく、今後の記事を楽しみにしています。

ちなみに、冒頭の友人はひょんなきっかけで外資系企業に転職し、英語を話さざるを得ない環境となり、猛勉強の結果ビジネスレベルの英語力を獲得することになりました。彼はこの記事を読んだらなんて言うかな(笑)
少なくともウェブサイトはあんまり英語分からなくてもそれなりに理解できるレベルにはなってきましたね。やはりグーグルの採集したビッグデータは凄いわ
4歳の時にスターウォーズを観て、翻訳はC-3POが、高度な処理はR2-D2みたいなロボットがいつかやってくれるんだなと思い、英語も労働もやる気無くしました笑

最低限の日常会話英語はできるようにしてますが、仕事相手にはむしろ日本語を教えてしまうようにしています笑
俺と話したければ日本語勉強しろ!笑

機械翻訳は無理という方もいますが、基本的に人間が行う通訳や翻訳も完璧がないのと同じで、細かいニュアンスも含めて人間が出来るレベルくらいには原理的に出来ると思います。

最近は、従来の統計的に確率で処理するやり方ではなく、概念の抽象化やその融合などが出来るようになってきているので、いずれは1つのエンジンでマルチリンガルに対応できる可能性が出てきています。

言語は確かに興味深い文化の対象ではあるので、言語を学ぶこと自体の価値は否定しません。しかひ、実用上のコミュニケーションとはお互いの持つ抽象概念の確認のし合いであって、実は言語や文法は思考にはあまり関係ないかなと思います。もちろん細部は違いますが。地方の方言の細い差異のようなもので、重要ではあるが、コミュニケーション自体にはとるに足らない違いで、別のコンテキストがより重要かなと。

ですから、日本独自の文化である「お笑い」の翻訳は相当難しい。
いくら英語そのものができても、その発せられた英語の背景にある文化や歴史、その人の考え方などまで斟酌できなければ、コミュニケーションは不完全。特に英国や米国以外の英語圏では、現地の文化や習慣、政治・社会問題などへの知識の有無で、同じ英語の単語を使っていたとしても、大幅に理解が変わる。

AIが活躍するのは、フォーマット化された文章の翻訳じゃないかと思う。説明書の翻訳などは、人がいちからやる必要は薄れているし、現状の機械翻訳でも良いものを使えばそれなりの精度という。

あるいは観光で物を買ったり、ツアーに参加するなどについては、あまり深いレベルではないやりとりは便利に使えるようになるかもしれない。

いずれにせよ、機械翻訳がどこまでいけるかというテーマは今後、重要性が増すし、単純な翻訳にかける労力が経れば寄り高度な部分に人間は時間を費やせるので興味深いテーマの連載。
英語で書いたり話したりしているときは、日本語と考え方がコンセプト的に違うので、書く内容や言葉の発言の順番がそもそも違う。
翻訳も通訳も、字面じゃなくて、イイタイコトを色々な言語で伝えたいのであって…日本語をママ訳されるとちょっと困ることが多いんですよね〜

要は言語ごとにコンセプトが違うということだと思っているのですが、その事を認知するためにも複数言語を理解する必要はあると思います。いわば複数言語を使うって一つの機械にiOSとWindowsが乗っかっている状態でしょう。共通で使えるものもあるけれど、互換できないものもあるし、それが大事、という。

落合氏が言っている「機械翻訳向けの書き方」もそういうことで、その言語ならではのコンセプトは訳せないから、「機械翻訳」という言語のコンセプトに合わせて書いておけばよい。という事でしょう。その事をわかるためにも複数言語をある程度使いこなすことは大事なんじゃないかな。
AIの進歩によって音声も文字も全て母国語にリアルタイムに変換されれば、確かにコミュニケーションスキルとしての外国語学習は不要になるでしょう。

外国語が必要になるのは、文学作品のように書かれた言語でないとニュアンスが伝わらないようなケースに限られるのでしょうか?
そういう意味での翻訳は学術の領域となるのでしょう。

世界中の人々がコミュニケーションできるようになってバベルの塔を作れば、神様が怒ってAIを壊したりして(笑)
30年以上前、電電公社の民営化株を活用して自動翻訳システムを作るプロジェクトを政府で立ち上げたのがぼくの最初の仕事でした。
当時のAI技術でははるかな夢で、諮問した審議会でも工学系の大御所からムリだからやめとけというダメ出しをくらった案件。
しかし、音声認識+機械翻訳のシステムを最も欲しがっていたのが英語オンチの日本であり、技術は世界の先端を走っていました。それが継続され、今のNICTやドコモの技術につながっています。
AIが新時代を迎え、これまでの日本の研究も役立つことを期待します。そして何より、生まれてくるサービスを日本人が世界最大級に使いこなすこと。そのビッグデータが精度を向上させます。
外国語教育に膨大なコストをみんながかけ続けるより、教育不要のAIシステムを開発するほうが効率的。早くいいものを作って、2020東京では多言語で世界のかたがたをおもてなししましょう。