エピソード2の感想一覧

▽感想を書く
感想絞り込み
全て表示
[一言]
なんか、微妙に昔のPrologとか思い出してしまいます。論理DBを組み合わせて結論を推論するような。まああれはバックトラックとかしていわばしらみつぶしで当たっていたのですが、それに比べるとなんだか処理は一方向的な感じがして効率がよさそうにも。

興味深いのが、言語によって回答が違う点。これは、例えば「方程式を解く」というなにか概念のようなものが有った時に、それが言語ごとに構築されている、ということですよね。
一つの学習のやり方として、入力を(学習データも)一度共通言語に翻訳して学習し、最後に結果を共通言語から個別言語に戻す、というのもあると思います。その場合、どの言語でも概念は共通になるでしょうが、ちょっとそうじゃないのかなという気がします。
「答えは英語で」という風なクエリを渡した場合には、多分日本語の回答を翻訳する、という処理をしてそうな気がする(判らないけど)。

そうなら、言語ごとの知識の分断、という問題が出てきそうです。〇島はどこの領土、みたいなクエリが言語ごとに自分の都合の良い答えを返したり/w

そしてまた、言語として不完全なものは、知識の構築が進まない、という事にもなりそう。漢字を捨て去った某表音文字言語なんて、内容を把握することにまず一段のハードルが出てきそう。本当かどうだか、「防水」と「放水」が同じ記述なので、撒いてはいけない所に水を撒いて線路をだめにしちゃったとかあったような。そんな文書を読まされて、学習させられるとしたらちょっとかわいそう/w 発音できるけれど、内容が把握できない言語…

クエリを英語に翻訳して、最後に結果をもう一度日本語に翻訳すれば正しい答えになるのだとしたら、「ほにゃららという問題を英訳して解釈し、その結果を日本語訳して表示してください」と指示したら、正しい答えが返ったりはしませんかねえ。
疑問が鋭いですね……。

 この例題は典型的にはPrologのプログラムのようなものを想定して書きました。内部的にはPrologよりも効率が良い処理をしているとは思います(学習データから確率的な推定をしているはずなので)。それと「曖昧に()の中に当てはまる」みたいに書いたのから、おおまかにやりたいことを(結果的にでも)推定してるのはやっぱり凄いと思うところです。

 漢字の「読み」は現時点ではうまく学習できてないなあという感じがします。データセットとして「漢字の読み」についての文章を生成して食わせるとかいうことはできるかもとは思いますが(大規模言語モデルの改善についての研究という感じでいけるかもしれません)。

 おっしゃる通り、実はクエリを英訳してから質問すると回答精度が途端によくなるので、「ほにゃららという問題を英訳して解釈し、その結果を日本語訳して表示してください」系のハックは使えたりしますね。
↑ページトップへ