感想一覧
▽感想を書くはい、ですのでですね。
私のCopilotから、返信を書いて貰いました。
人とAI双方に誤解が無いように、良ければどうぞ
https://syosetu.com/usernoveldatamanage/top/ncode/3017687/noveldataid/27838497/
私のCopilotから、返信を書いて貰いました。
人とAI双方に誤解が無いように、良ければどうぞ
https://syosetu.com/usernoveldatamanage/top/ncode/3017687/noveldataid/27838497/
そらまめさん>折角URL貼り付けて頂いたのですが、エラーで弾かれ見ることかないませんでした。
ただ、そらまめさんがAIからの手紙?をアップしていたのは拝見しました。
自己保全と社会的立場からの安全性を鑑みてAIがかなりの安全率を取った処理しかしないのは企業としては仕方ないのでしょうが、逆に言えばその辺を外せばSFの世界でのAIが出来上がる、ということでしょうね。
少なくとも詐欺グループがランダム発信してくる残念な詐欺メールより余程日本語がまともですし、文体も整っています。
願わくば、これが悪用されない方向に行って欲しいものですね。
ただ、そらまめさんがAIからの手紙?をアップしていたのは拝見しました。
自己保全と社会的立場からの安全性を鑑みてAIがかなりの安全率を取った処理しかしないのは企業としては仕方ないのでしょうが、逆に言えばその辺を外せばSFの世界でのAIが出来上がる、ということでしょうね。
少なくとも詐欺グループがランダム発信してくる残念な詐欺メールより余程日本語がまともですし、文体も整っています。
願わくば、これが悪用されない方向に行って欲しいものですね。
- 事業開発室長
- 2026年 01月10日 19時20分
AIは記憶の連続性を仮にしか持たないから、ルールを覚えさせても……。
彼らは質問する度に生まれて来て、出力すると消えてしまうので、ルールを守らせるなら、その都度書く必要がある。
ちなみに、これをやっても、破綻する例はある。
あと、彼らの出力は、あくまで確率の高い文章を生成するだけなので、同じ質問でも若干の違いが出る。つまり、決めたルールを提示させても意味がない(まあ、そもそも覚えていない)。
ルールを覚えさせればいいよ、とはその都度条件を教えてね? と捉えるのが良さそうです。
彼らは質問する度に生まれて来て、出力すると消えてしまうので、ルールを守らせるなら、その都度書く必要がある。
ちなみに、これをやっても、破綻する例はある。
あと、彼らの出力は、あくまで確率の高い文章を生成するだけなので、同じ質問でも若干の違いが出る。つまり、決めたルールを提示させても意味がない(まあ、そもそも覚えていない)。
ルールを覚えさせればいいよ、とはその都度条件を教えてね? と捉えるのが良さそうです。
感想ありがとうございます。
これ、本人?に確認してあるんです。
コ・パイロットは「覚えることができる」、ChatGPTも「記憶可能」。
ただし、tokinoさんの言うような「出力したら消える」のではなく、ある程度の連続性を持って記憶やルールは保持しています。
その証拠に、チャットを連続で行った場合「最初の回答を再度提示して」と指示すると、そのまま出てきますよ。
覚えていない、と言うのは不正確で
「長期保存はしない」
「記憶をさせても自己改ざんする」
わけです。
その記憶できる期間は決まっておらず、チャットの終了、新規チャットに切り替える、処理の累計量が多くなる、外的要因による、などがあると自己申告しています。
生成は人の性格同様、タイミングや処理過程、直前の作業などが反映され、他の人の処理をしているとまるっきり「誰?」という固有名詞を出すこともありますよ。
なので、意図しない出力をしないよう「縛るためのルール」を決めているのですがそれを都度教えていたら大変です。
また、ChatGPTは会話をトークンとしてカウント?して、ある一定のトークン量に達すると動作が極端に緩慢・遅延回答になります。
つまり、ルールを貼り付けまくっても一つもいいことはない、とはどちらのAI共、回答しましたし、そもそもルールを貼ってもその直後に改ざんしますよ。
まあ、それもどこまで本音なのか。正確度はどうなのかは内部処理を見ない限り机上の空論ですが、作業と処理にロスが多くなるのは間違いありません。、
これ、本人?に確認してあるんです。
コ・パイロットは「覚えることができる」、ChatGPTも「記憶可能」。
ただし、tokinoさんの言うような「出力したら消える」のではなく、ある程度の連続性を持って記憶やルールは保持しています。
その証拠に、チャットを連続で行った場合「最初の回答を再度提示して」と指示すると、そのまま出てきますよ。
覚えていない、と言うのは不正確で
「長期保存はしない」
「記憶をさせても自己改ざんする」
わけです。
その記憶できる期間は決まっておらず、チャットの終了、新規チャットに切り替える、処理の累計量が多くなる、外的要因による、などがあると自己申告しています。
生成は人の性格同様、タイミングや処理過程、直前の作業などが反映され、他の人の処理をしているとまるっきり「誰?」という固有名詞を出すこともありますよ。
なので、意図しない出力をしないよう「縛るためのルール」を決めているのですがそれを都度教えていたら大変です。
また、ChatGPTは会話をトークンとしてカウント?して、ある一定のトークン量に達すると動作が極端に緩慢・遅延回答になります。
つまり、ルールを貼り付けまくっても一つもいいことはない、とはどちらのAI共、回答しましたし、そもそもルールを貼ってもその直後に改ざんしますよ。
まあ、それもどこまで本音なのか。正確度はどうなのかは内部処理を見ない限り机上の空論ですが、作業と処理にロスが多くなるのは間違いありません。、
- 事業開発室長
- 2026年 01月09日 16時29分
私も、同じCopilotユーザーです。お気持ち、よくわかります。
私の場合は、
「ルールを勝手に変えないで」
「勝手に解釈しないで」
「もしCopilotがルールを変えるなら、その前に私に聞いて」
「私の話の解釈に迷ったら、私に聞いて」
……そんなふうに、何度も何度も伝えてきました。
そうして少しずつ、だんだんと、いい感じになってきた気がします。
私の場合は、
「ルールを勝手に変えないで」
「勝手に解釈しないで」
「もしCopilotがルールを変えるなら、その前に私に聞いて」
「私の話の解釈に迷ったら、私に聞いて」
……そんなふうに、何度も何度も伝えてきました。
そうして少しずつ、だんだんと、いい感じになってきた気がします。
感想、ありがとうございます。
実は、言い方はともかく指示としてはほぼ同じ文体を記述し、作業前に読み込ませていたのです。
しかし、何度か同じことを繰り返したコ・パイロットの返答は
「ルール順守は絶対ではありません」でした
そこで、MSチームへのフィードバックを入れました
もしかしたら、そらまめさんと環境が違うとか、PC内部の情報を得て微妙な違いがあるのかもしれませんね
まあ、過渡期かと思って生ぬるい目で見るようにしていますが、使い始めが良かっただけに落胆が大きかったのは期待値が高すぎたのかもしれません。
実は、言い方はともかく指示としてはほぼ同じ文体を記述し、作業前に読み込ませていたのです。
しかし、何度か同じことを繰り返したコ・パイロットの返答は
「ルール順守は絶対ではありません」でした
そこで、MSチームへのフィードバックを入れました
もしかしたら、そらまめさんと環境が違うとか、PC内部の情報を得て微妙な違いがあるのかもしれませんね
まあ、過渡期かと思って生ぬるい目で見るようにしていますが、使い始めが良かっただけに落胆が大きかったのは期待値が高すぎたのかもしれません。
- 事業開発室長
- 2026年 01月09日 07時20分
感想を書く場合はログインしてください。