DeepL Translatorはどうなのか

「グーグル翻訳より格段にいい」というふれこみのDeepL Translator。ちょっと試してみたけれど、どうも本当っぽい。去年グーグル翻訳が新しくなってすぐに試した英仏翻訳で不出来だった文が、だいぶまともなふうに訳された。

17) 原文:He was laughed at.
Googleの訳:On le riait.
DeepLの訳:On s'est moqué de lui.

19) 原文:Thomas was laughed at by everybody.
Googleの訳:Thomas se moquait de tout le monde.
DeepLの訳:Tout le monde s'est moqué de Thomas.

20) 原文:The doctor was sent for.
Googleの訳:Le docteur a été envoyé pour.
DeepLの訳:Le docteur a été convoqué.

(※以上のGoogleの訳は2016年11月28日時点。番号は「新しいグーグル翻訳と翻訳者の失業」で振ったものに対応)

DeepLの17)と19)の訳は申し分なし。20)の訳は原文とニュアンスが違うけれど、文の壊れたGoogleよりはマシ。

G社のニューラル機械翻訳(以下GNMT)は、英仏語間の翻訳について、かなり高めの翻訳精度を掲げている。けれど実際のところ、両語間で逐語訳できないような構文の場合、短い文でもあまりうまくいかない。上の3例でGNMTの訳文は、文法的に破綻している(17と20)か、意味が原文と大きく違っている(19)。二重目的語構文の受動態をとった英文なども、GNMTではおかしなフランス語が出力されることが少なくないようだ。

25) 原文:He was given a book by me.
Googleの訳:Il m'a donné un livre par moi.
(※番号は「新しいグーグル翻訳と翻訳者の失業」からの通し番号。以下同様)

だから、去年GNMTを試してみたときの第一印象はこう。これまでの方式(フレーズベースの統計的翻訳)でも何とか意味の通じる形に翻訳できていた文は、流暢性が上がったぶん、すごく上手に訳せるようになった。けれど、これまでダメだった文は、あいかわらずダメ(主観です)。

ところが上の3例に限れば、DeepL Translatorは、どれもそれなりに訳している*1。技術的な詳細は明らかにされていないようだ。ただ、Lingueeのクローラで集めた10億文規模の対訳データでトレーニングしたとある(プレスリリース情報)。「Linguee」というのは検索サイトの一種。調べたい語句を打ち込むと、その語句を含んだ比較的信頼性の高い対訳文を一覧表示してくれる。便利極まりない。職業的な翻訳者であれば誰でも一度ならずお世話になったことがあるはず(直接サイトに行かなくても、不明な表現についてGoogleで検索をかけると上の方に出てくることが多い)。DeepL Translatorは、このLingueeの運営会社(ドイツ企業。なお同社はDeepL Translatorのローンチを機に社名をLingueeからDeepLに変えた模様)が開発した。

Le Mondeのサイトに簡単な検証記事があった(「一番いいオンライン翻訳サービスはどれ?」)。5つのジャンルの短い英語の文章を、5社の翻訳サービス(DeepL、Google、Bing、Yandex、百度)を使ってフランス語に翻訳させ、その出来栄えを比較している。5つのジャンルというのは、詩(エミリー・ディキンソンの平易な詩)、技術文(PlayStation 4のマニュアル、ただし専門的な技術用語は含まない)、報道文(バビロニア粘土板に関するもの)、「私の主張」的な文(英大臣の一人称のテキスト)、スポーツ記事(ラグビーの試合)。結果を見ると、詩、報道文、「私の主張」でDeepL の評価が相対的に高い(技術文はどれも及第点。スポーツ記事はどれも同じくらい不出来)。

記事の結論。オンライン翻訳は「たしかによくなっている」。でも「まだ人間のレベルには遠く及ばない」。機械翻訳を引っ掛けるのは簡単だと書いてある。ちょっとやってみる。

26) 原文:Il a acheté une bicyclette à son petit-fils.
DeepLの訳:He bought a bicycle from his grandson.

原文は小学館ロベール仏和大辞典の「acheter」の用例を借りた。この用例に添えられた日本語訳は「彼は孫に自転車を買ってやった」。DeepLはこれを「彼は孫から自転車を買った」という意味の英文に訳している。どういうことか。じつはフランス語の「acheter A à B」は曖昧性のある言い回しで、「AをBに買ってやる」という意味にも「AをBから買う」という意味にもなる。「おじいちゃんが孫から自転車を買う」よりも「おじいちゃんが孫に自転車を買ってやる」と判断するほうがヒトっぽい? けれど前者の可能性もゼロではない。人間でも、どちらか迷うことがある。意味を確定させるには、前後の文や言語外の情報を参照しなければならない。周知のとおり、この種の文脈は今の機械翻訳で考慮していない。

もうひとつ。

27) 原文:Elle est venue des fleurs dans les bras.
DeepLの訳:She came from flowers in her arms.

原文は小林路易『中級仏作文』より。「彼女は花を抱えてやって来た」みたいな意味になる。これも構文的に曖昧なケース。フランス語の「des」は、それだけを取り出して見た場合、前置詞+定冠詞なのか不定冠詞なのか判断できない。DeepLは「from」の意味にとっているけれど、この「des」は不定冠詞。そして例文26)の場合と違い、人間がDeepLのような解釈をすることは100%ない(はず)。ネイティブの仏語話者だと、構文的曖昧性があることすら気付かない人が多いと思う(「新しいグーグル翻訳と翻訳者の失業」の例文6)と同じ)。

自然言語は曖昧性に満ちている。人間はこうした曖昧性を知識で解消している。「知識獲得のボトルネック」が解決しない限り、機械翻訳は一か八かの対応にならざるを得ない。たまたま当たることもあるけれど、あくまでたまたまでしかない。

(DeepL Translatoirは今のところ日本語には対応していない。でも、8月30日付のRTLの記事を読むと、今年中には対応予定と書いてある。本当か?)


***


ニューラル機械翻訳のおかげで自然言語処理という分野に俄然興味がわいてきて、ネットで目に付いたものを眺めるようになった(数式みたいのは飛ばす)。いろいろ発見がある。

たとえば、英語を日本語に翻訳するのも、画像からキャプションを生成するのも、新聞記事を村上春樹ふうの文章に変換するのも、ぜんぶ同じモデルで処理できるというのは、rewordingもtransmutationも「翻訳」なのであり、translation properと一緒、というヤコブソンの指摘が実践的に裏付けられた格好だ。

また、統辞構造に留意せず、言語を系列で処理するというやり方(Seq2seq)で、結構いい感じの仕上がりになるという事実は、ソシュール言語学の再評価につながりそうである。ソシュール(というか『一般言語学講義』)は、「文」や統語論の位置付けが曖昧で、その点をチョムスキー生成文法の人が突いていた。けれどSeq2seqでいいのなら、構文論をなおざりにして、文をひたすら辞項の連鎖として見るというソシュールの態度も、あながち間違いじゃなかったといえるのではないか(ただし、丸山圭三郎は、原資料に当たった上で、リカージョンや結合価まで含めた統語論的な面もソシュールはラングに含めて考えていたとしている)。

ソシュールといえば、何より単語のベクトル表現というのが、すごくソシュールっぽい。語の意味それ自体を直接の対象にするのではなく、共起する語との関係において、いわばネガティブな形でそれを定義するというのは、ソシュールの「価値」の考え方にすごく似ている(かつ中期ウィトゲンシュタイン的な発想でもあると思う)。

去年、この単語ベクトル表現というものを初めて知って、「これはすごいのでは?」(「「AIが翻訳の不可能性に気付く日」へのトラックバックのご紹介」)と思ったけれど、その後、あれこれ欠点のあることを知るにつけ、残念な感じが強まっている。類義語や反意語をうまく扱えない(同じような文脈で出現するから)。そして何より機能語の処理に難があるというのは、決定的な気がする。GNMTでは、符号化の過程で、文を前からだけでなく後ろからも読み込ませ、前側・後側双方の単語を踏まえたベクトルを合成するということが行われているらしい。これに「アテンション」と呼ばれる、各単語の関与性を動的に考慮する仕組み(復号プロセスに沿って単語の重みが次々変わっていく)を加えたものがGoogleのいう「文脈」。でも、機能語や多義語の問題が、こうした狭すぎる意味での文脈だけで解決するはずもなく、当該方式の機械翻訳が「そこそこ」の壁を打ち破るのは相当むずかしそうである。実際、自然言語処理の専門家で、「ほんやくコンニャク」がもうすぐできる、なんてことを考えている人はいないのではないか。知識獲得の問題以前に、言語事象の取り扱いの目が粗すぎるのだ。

とはいえ、「ほんやくコンニャクは無理」と言い切るのもなんだかさびしいので、自然の言語の処理だけでなく、もっといろんなことのできる本格的なAI(ドラちゃん本体)の開発に期待がかかる。

それで松尾豊『人工知能は人間を超えるか』を読み返してみたのだけれど、以前のエントリ(「AIが翻訳の不可能性に気付く日」)に書いたとおり、やっぱりよく分からない部分がある。

まず再確認しておくと、この本で松尾氏はソシュールを引き合いに出している。でも実際のところ、概念にラベルを貼り付けて万事解決という考え方は、むしろソシュールの批判した「言語名称目録観」に近い。そもそも自己符号化器等によって概念そのものをポジティブな形で手に入れようというやり方は、先のベクトル表現と対照的に、非ソシュール的。何よりソシュールの記号概念は、こうしたシニフィアンシニフィエを切り離した取り扱いを許すものではない。記号がシニフィアンシニフィエの結合体であるとはいっても、シニフィアンシニフィエがあらかじめあって、その両者の結び付いたものが記号になるのではなくて、まず記号がある。ある存在者を記号とみなしたとき、すでにシニフィアンシニフィエの結合体としてそれがある、ということである。松尾氏は「言葉(記号表記)」(同書p.188等)と表記しているけれど、ソシュールが「記号signe」という言葉に不満を感じていたのは、こんなふうに「記号」と「シニフィアン」とが混同されてしまうことを危惧していたからだ。

ディープラーニングについては、松尾氏のこの本を読むまで名前しか知らなかったのだけれど、読んでみたら思ってた以上にコネクショニズムだった。コネクショニズムの話は、チョムスキーの本やチョムスキーがらみの本を読んでいると、ときどき出てくる。否定的な言辞が添えられていることが多い(たとえば酒井邦嘉『言語の脳科学』)。ところが、松尾氏は次のように言っている。

人間は言葉を話す。特に、「文法」を使って文の形でものごとを描写したり、書き綴ったりする。では、文法はどのように獲得できるのだろうか。有名な言語学者ノーム・チョムスキー氏は、人間は生得的な文法(普遍文法)を備えていると言った。私の考えもこれに近い。
(松尾豊『人工知能は人間を超えるか』p.193)

で、これを「コンピュータに埋め込まないと、人間と同じような文法を獲得するのは難しいかもしれない」(同書p.195)。つまり松尾氏は記号主義(古典的計算主義)的な構文論を認めている。その上で、人工知能は人間の知能と同じでなくても構わないとしている。構文論抜きで構わないということだろう。松尾氏による人工知能にとっての「記号」は、前述のとおり、ソシュールの考えるような「記号」ではないし、記号主義的な「記号」とも違うのだ(構文論がなくても成り立つものと考えられているから)。

もし単純に構文論抜きの記号で行くのであれば、森羅万象の織り成す無限の事態のそれぞれに対して、ひとつひとつ記号を割り当てていくという途方もないことになりそうだけど、どうなんだろう?

ま、とにかく、最近の自然言語処理関連のトピックは面白いものが多く、興味が尽きない。そういえば、品詞にベクトル表現を与えるというのも何かで読んだ。ふつう離散的とみなされている品詞を連続量として扱うという話。これ、吉本隆明だ。吉本は品詞を自己表出、指示表出の二次元ベクトルで考えている。文芸作品の価値も計算可能で比較可能と吉本隆明が主張したことの根に、自然言語処理的な着想があったのだ。

こうした品詞に限らず、言語学では基本、言語記号を離散的なものと考えている。単語の意味についても、離散的な意味素性の集合として記述されることがある。ニューラルネットを使って「概念」を構築するという場合において、この意味素性に対応するのが「特徴量」だ。これまで離散的に捉えられていた記号の成分が、連続量として処理されるようになった。けれど「素性」も「特徴量」も英語では同じ「feature」。いうまでもなく、両者のアイディアは、記号論的に同じ図式を共有している。すなわち、一個の記号にスペシフィックな内包的存在者を措定している。その昔デリダが批判した形而上学の図式。自己符号化器による概念の獲得であれ、ベクトル表現による単語や文の意味の獲得であれ、数値列の生成をもって「概念」や「意味」が獲得されたとみなす限りにおいて、昔ながらの形而上学を免れていない。「ゼロショット翻訳」とかいうのはその最たるもの。個別言語から切り離された、普遍的な純粋意味論の生成を主張している。つまり――デリダがパースを持ち上げソシュールを批判したときに使った言葉でいえば――「超越論的シニフィエ」の工学的実現を謳っている。統計学形而上学だ。

目下、自分の関心は、GNMT等の現状あまり精度のよくない機械翻訳システムが、これから精度を上げていき、「そこそこ」の水準に達するとして、そのことが日本語に対し、何らかの影響を及ぼすか否かという点にある。英語に機械翻訳しやすい形に日本語が変化していく*2とか、前に「自動翻訳機が実現しない理由、エッセンスのナンセンス、物語に拮抗する文体」に書いたようなこと。そういうことが起きれば、それはそれで面白い。ただそうなると、言語的な多様性が縮減することになるわけで、完全自動翻訳機が完成する頃の世界には、そもそも実質的に異なる言語なんてなくなっているかもしれない。そしたら「ほんやくコンニャク」のありがたみもそのぶん減ることになるけれど、ドラちゃんの道具はほかにもあるから大丈夫。


※例文の画面キャプチャはここにまとめた。


Alors le DeepL Translator ?
Quelques méthodes récentes utilisées dans le domaine du traitement des langues naturelles évoquent des idées linguistiques plutôt classiques : le modèle sequence-to-sequence serait comparable à la notion de syntagme (enchaînement des éléments consécutifs) introduite, sans tenir compte explicitement de la structure syntaxique de la phrase, par F. de Saussure, et le principe des vecteurs de mots est aussi un peu comme la notion saussurienne de valeur, surtout en termes de négativité. L'idée fondamentale de ces méthodes TAL est très métaphysique, car en fait elle présuppose la distinction rigoureuse et la correspondance biunivoque entre le signe linguistique et son corrélat idéal. La traduction dite «zero-shot», c'est le plus typique du genre. Elle est basée sur la prétendue génération d'une sémantique pure et indépendante des langues. On fait donc valoir l'ingénierie de «signifié transcendantal». Il s'agit d'une métaphysique re-construite (et non pas dé-construite) par l'apprentissage automatique et statistique.

*1:もちろん、これはあくまで単独の文として見た場合の話で、文章の流れの中で訳文がそのまま使えるかどうかは別問題。現実世界で使用される文は、教科書の例文みたいな「死んだ文」ではなく、言語内外の文脈により活性化された「生きた文」。人間の翻訳者は、この種の文脈やテーマ・レーマ構造などを踏まえて訳し方を決める。けれど現状の機械翻訳は、こうした文同士のつながりは考慮していない。だから、複数の文を翻訳させると、相互に無関係な文がズラズラ並ぶことになり、「何いってんだこいつ」となる(「新しいグーグル翻訳と翻訳者の失業」の13)と14)がこのケース)。

*2:ニューラル機械翻訳は予測不能な結果を出してくるので、こうすればこうなるというルール化が難しい。それでも、対処法がないわけではない。たとえば「新しいグーグル翻訳と翻訳者の失業」の13)や14)に見られるような結束性や照応の問題をクリアするには、2つの文を1つの文にまとめてしまえばいい。「吾輩は猫である。名前はまだ無い。」ではなく、「吾輩は猫であり、名前はまだ無い。」にする。あるいはもっと単純に、最初の句点を読点に変えて「吾輩は猫である、名前はまだ無い。」にする。するとだいぶ改善される。