感想一覧
▽感想を書く感想絞り込み
[一言]
相変わらずすごい進歩ですね。一年でこれですから。
フォローアップするだけでも大変な労力が必要そうですね。お疲れ様です。
画像の認識がちゃんとできるようになるのであれば、画像生成->認識でタグ付け->生成した画像とタグで画像生成の学習 ってぐあいに人間の生成した生データを必要としない学習セットも作れるようになるかもしれないですねえ。
相変わらずすごい進歩ですね。一年でこれですから。
フォローアップするだけでも大変な労力が必要そうですね。お疲れ様です。
画像の認識がちゃんとできるようになるのであれば、画像生成->認識でタグ付け->生成した画像とタグで画像生成の学習 ってぐあいに人間の生成した生データを必要としない学習セットも作れるようになるかもしれないですねえ。
エピソード16
本当に。一年での進歩速度としてはちょっとおかしくて、最近のAI関係だと、国際学会での「正式な」論文を出す前に新規性のある研究論文が草稿として公開される(これ自体はarXivという「草稿公開システム」は前からあったといえばあったのですが)ことも多くて、査読がまだでもとりあえず論文として出しちゃえなんてノリも多く見かけるという、凄い状態です。
おっしゃるような、学習セット自動生成アプローチもおそらくは現実的だと思います。既にOSSの大規模言語モデルだと、GPT-4みたいな既存の言語モデルへの質問と回答を学習セットとする「蒸留」という手法が普通に使われてますし、画像についてもおそらくは同様のアプローチは有効ではないかという気がします。
おっしゃるような、学習セット自動生成アプローチもおそらくは現実的だと思います。既にOSSの大規模言語モデルだと、GPT-4みたいな既存の言語モデルへの質問と回答を学習セットとする「蒸留」という手法が普通に使われてますし、画像についてもおそらくは同様のアプローチは有効ではないかという気がします。
- 久野真一
- 2023年 09月06日 23時25分
[一言]
更新ありがとうございます。
門外漢の私には、逆に、今話題のChatGPTでも長文は読めないんだと意外でした。内容の難易度よりも単純な物量の方が処理に困るものなんですねえ……
要約してくれるのは有難いと思う一方、こういうのが発達するとますます人間は文章読まなくなる、小説読む楽しさ知らなくなるんじゃないかと心配にもなります(^^;。
続きを楽しみにしております。
作者様に感謝。
更新ありがとうございます。
門外漢の私には、逆に、今話題のChatGPTでも長文は読めないんだと意外でした。内容の難易度よりも単純な物量の方が処理に困るものなんですねえ……
要約してくれるのは有難いと思う一方、こういうのが発達するとますます人間は文章読まなくなる、小説読む楽しさ知らなくなるんじゃないかと心配にもなります(^^;。
続きを楽しみにしております。
作者様に感謝。
エピソード15
こちら、返信忘れておりました。確かに「長文が読めない」が弱点というのは、逆に意外にうつるかもしれませんね。
今、ChatGPTなどが採用している手法だと、読む文章Nの長さが2倍になれば、必要な計算コストがN^2(Nの二乗)になってしまうので、その意味で「読む長さ」を増やすのは一つの課題だったりします。
これも、最近論文が出た次世代の手法だとN^2よりだいぶ小さくできそうという話があるので、時間が解決できる部分も多そうではありますが。
このような、今ある問題を「時間が解決できるでしょ」と、AIが専門でない私が言えてしまう状況がちょっと凄いというのが正直な感想だったりもします(私の専門はコンピュータ関係でもより「言語」特化なので軸がちょっと違ったりします)。
今、ChatGPTなどが採用している手法だと、読む文章Nの長さが2倍になれば、必要な計算コストがN^2(Nの二乗)になってしまうので、その意味で「読む長さ」を増やすのは一つの課題だったりします。
これも、最近論文が出た次世代の手法だとN^2よりだいぶ小さくできそうという話があるので、時間が解決できる部分も多そうではありますが。
このような、今ある問題を「時間が解決できるでしょ」と、AIが専門でない私が言えてしまう状況がちょっと凄いというのが正直な感想だったりもします(私の専門はコンピュータ関係でもより「言語」特化なので軸がちょっと違ったりします)。
- 久野真一
- 2023年 09月06日 23時32分
[一言]
まだ電子版は無いみたいですね。紙の書籍をぽちってみました。最近は、紙の本を読むのは色々と辛いのですが…w
このエッセイ板でも、色々なChatGPTの使い方が出て来ていて、特に前提と結論が指定されているところで途中経緯を書かせてみるとかあるのは、なかなか凄いものだ、と感じてしまいます。
本当に、どうなっていくんでしょうね。
まだ電子版は無いみたいですね。紙の書籍をぽちってみました。最近は、紙の本を読むのは色々と辛いのですが…w
このエッセイ板でも、色々なChatGPTの使い方が出て来ていて、特に前提と結論が指定されているところで途中経緯を書かせてみるとかあるのは、なかなか凄いものだ、と感じてしまいます。
本当に、どうなっていくんでしょうね。
エピソード14
[一言]
スケールの問題が解決されたら、それはもっと凄いことになるんでしょうねえ。
先に、自作小説をChatGPTで点数評価させてみた、というエッセイがあったのですが、そこまでできるのも凄いというかどうなっているんだろう、とは思います。
ただ、やっぱり使い方の問題はあって、アメリカで教授が学生の論文をChatGPTに「ChatGPTで書かれたものか」と尋ねて/w、Yesと答えた学生の単位を保留にしたとかいう話が出ていましたが、これもなあ、というところです。
話題になると、知らない人が過剰な万能感を持ってしまう危険って大きいですよね。
スケールの問題が解決されたら、それはもっと凄いことになるんでしょうねえ。
先に、自作小説をChatGPTで点数評価させてみた、というエッセイがあったのですが、そこまでできるのも凄いというかどうなっているんだろう、とは思います。
ただ、やっぱり使い方の問題はあって、アメリカで教授が学生の論文をChatGPTに「ChatGPTで書かれたものか」と尋ねて/w、Yesと答えた学生の単位を保留にしたとかいう話が出ていましたが、これもなあ、というところです。
話題になると、知らない人が過剰な万能感を持ってしまう危険って大きいですよね。
エピソード13
# 前の感想はプラグインのこと書いたこと忘れててのコメントなので一度消しました
実際問題、小説にとどまらず物語読解ということに関しては下手な人間を代替できてしまいそうです。辛口評価をして欲しいとか、改善点を挙げて欲しいとか。
おっしゃる通り、万能性を信じてしまう人間が増えるのもこの手のツールの常ですが、今回のChatGPTに関してはもはや国を超えて何らかの取り組みが必要になってきてるレベルなわけですし、その能力が桁違い故に万能に思えるんでしょうね。
実際問題、小説にとどまらず物語読解ということに関しては下手な人間を代替できてしまいそうです。辛口評価をして欲しいとか、改善点を挙げて欲しいとか。
おっしゃる通り、万能性を信じてしまう人間が増えるのもこの手のツールの常ですが、今回のChatGPTに関してはもはや国を超えて何らかの取り組みが必要になってきてるレベルなわけですし、その能力が桁違い故に万能に思えるんでしょうね。
- 久野真一
- 2023年 06月02日 16時17分
[一言]
ご無沙汰しています。
この間、子供が見ていた動画に、「芸人が自分についてChatGPTに聞く」というのがありました。解答は完全な日本語でしたが、内容は本当の事が無かったという/w
自然言語生成という点については、もう完全に近い感じですけれど、YesNoの正解のある問いについては、まだ完全ではない気がします。知らないことを知らないと言ってくれればいいんですが、嘘を混ぜるので… でも試験に合格できる程度の点は取れる、というのはやっぱり対象知識の範囲の問題なのか… Wikipediaに嘘が書かれると影響が大きいですが、ChatGPTについてはさらに影響が甚大な気がします。
逆に言うと、正解が一つでない問いについては十分に役に立ちそうで、その点前に話に出てきたカウンセリングについては(優等生すぎますが)案外使えそうかと。
もしも、「いのちの電話」の代わりにChatGPTが答えるシステムを作ったら… 果たしてどれぐらい評価されるのか、と思いました。
後は、追加学習が簡単にできるようになったら、一般知識の上に専門知識を載せることができるか、とか。特定の(機器やソフトの)マニュアルを追加で読み込んだら、カスタマイズされたQAシステムが簡単にできないかなあ、とか。もしそれが出来たらコールデスクの人員が相当削減されたり。
誤字修整もやってくれたら、助かる作者さんはここには沢山いそうですよね/w
ご無沙汰しています。
この間、子供が見ていた動画に、「芸人が自分についてChatGPTに聞く」というのがありました。解答は完全な日本語でしたが、内容は本当の事が無かったという/w
自然言語生成という点については、もう完全に近い感じですけれど、YesNoの正解のある問いについては、まだ完全ではない気がします。知らないことを知らないと言ってくれればいいんですが、嘘を混ぜるので… でも試験に合格できる程度の点は取れる、というのはやっぱり対象知識の範囲の問題なのか… Wikipediaに嘘が書かれると影響が大きいですが、ChatGPTについてはさらに影響が甚大な気がします。
逆に言うと、正解が一つでない問いについては十分に役に立ちそうで、その点前に話に出てきたカウンセリングについては(優等生すぎますが)案外使えそうかと。
もしも、「いのちの電話」の代わりにChatGPTが答えるシステムを作ったら… 果たしてどれぐらい評価されるのか、と思いました。
後は、追加学習が簡単にできるようになったら、一般知識の上に専門知識を載せることができるか、とか。特定の(機器やソフトの)マニュアルを追加で読み込んだら、カスタマイズされたQAシステムが簡単にできないかなあ、とか。もしそれが出来たらコールデスクの人員が相当削減されたり。
誤字修整もやってくれたら、助かる作者さんはここには沢山いそうですよね/w
エピソード12
あいなめさん、ご返事遅れました。
おっしゃるとおり、Yes/Noがある問題についてはまだ改良の余地が大きいんですよね。反対に正解が一つでない問題について役に立ちそうというのも同じ感想です。
夢想されていたAIは「正解がある問題」に強くて「正解の無い問題」に弱いというものでしたが、現実に出てきたAIはある種人間を模しているというか、逆に正解のない問題に強い代物になってしまったのは面白いです。
「いのちの電話」は「相手が人間だから」かけるの躊躇してる人、潜在的に結構いるのではという気がするので、実はChatGPTが活躍できる可能性はおおいにありそうです。AIだといくらでも話聞くことができますしね。
追加学習についてはまさにホットなトピックかもしれません。
Python製のllamaindexってOSSのライブラリがあるんですが、こいつは書籍丸ごとみたいな本来のChatGPTだと対応できない量のデータ読み込んで、それとChatGPTを接続するみたいなことやってます。手元で試した感じ、数百ページのPDF読ませても回答してくれたので、QAシステムは「割と普通に」行けるようになってますね(ただし「偶に変な回答を出す」問題をクリアする必要もありそうです)。
https://zenn.dev/fusic/articles/try-llamaindex
おっしゃるとおり、Yes/Noがある問題についてはまだ改良の余地が大きいんですよね。反対に正解が一つでない問題について役に立ちそうというのも同じ感想です。
夢想されていたAIは「正解がある問題」に強くて「正解の無い問題」に弱いというものでしたが、現実に出てきたAIはある種人間を模しているというか、逆に正解のない問題に強い代物になってしまったのは面白いです。
「いのちの電話」は「相手が人間だから」かけるの躊躇してる人、潜在的に結構いるのではという気がするので、実はChatGPTが活躍できる可能性はおおいにありそうです。AIだといくらでも話聞くことができますしね。
追加学習についてはまさにホットなトピックかもしれません。
Python製のllamaindexってOSSのライブラリがあるんですが、こいつは書籍丸ごとみたいな本来のChatGPTだと対応できない量のデータ読み込んで、それとChatGPTを接続するみたいなことやってます。手元で試した感じ、数百ページのPDF読ませても回答してくれたので、QAシステムは「割と普通に」行けるようになってますね(ただし「偶に変な回答を出す」問題をクリアする必要もありそうです)。
https://zenn.dev/fusic/articles/try-llamaindex
- 久野真一
- 2023年 05月19日 19時37分
[一言]
更新ありがとうございます。
前話が投稿されてから今話までの間にネットニュースでやたらChatGPTの話題を見かけるようになりました。門外漢の私にはただそれらを眺めていることしかできないのですが……
もう現時点で、良し悪しの議論や周辺法整備の速度より、ChatGPTがユーザに浸透していく速度の方が完全に上回っていますね(^^;
天邪鬼な私には「ChatGPTの良し悪しについてChatGPTに尋ねたらどうなるのか」という疑問くらいしか浮かばなないのですが(笑)、今後どうなるのか眺める上で、作者様のこのエッセイを参考にしていきたいなと思います。
……年齢的に“眺めて”いるうちに寿命迎えそうな気がしてましたが、まだ私が生きているうちにどんどん浸透してきそうですしね(^^;
続きを楽しみにしております。
作者様に感謝。
更新ありがとうございます。
前話が投稿されてから今話までの間にネットニュースでやたらChatGPTの話題を見かけるようになりました。門外漢の私にはただそれらを眺めていることしかできないのですが……
もう現時点で、良し悪しの議論や周辺法整備の速度より、ChatGPTがユーザに浸透していく速度の方が完全に上回っていますね(^^;
天邪鬼な私には「ChatGPTの良し悪しについてChatGPTに尋ねたらどうなるのか」という疑問くらいしか浮かばなないのですが(笑)、今後どうなるのか眺める上で、作者様のこのエッセイを参考にしていきたいなと思います。
……年齢的に“眺めて”いるうちに寿命迎えそうな気がしてましたが、まだ私が生きているうちにどんどん浸透してきそうですしね(^^;
続きを楽しみにしております。
作者様に感謝。
エピソード12
はぐれ虎さん
ご返事遅くなりました。確かにもう良し悪しを論じてるどころじゃなくて、もうどう使いこなすかとか、問題にどう対処していくかを考えるしかないってフェーズですね。
GoogleもBardという形で「動くモノ」を出してきましたし、AmazonもFacebookも、バスに乗り遅れるなと「言語AI戦争」に参加する有様です。日本のIT大手のLINEやサイバーエージェントも「和製GPTを作る」と言い出しました。
5年くらいしたら「AIに相談する」はたぶん「当たり前のこと」になる気がします。
普及するために重要なのはスマホなんですが、GoogleはAndroidを握ってるので、次のAndroidからうちの言語AI標準搭載ね、はごく普通の戦略としてやってくるとしか思えないんですよね。
唯一大手で沈黙を守ってるAppleもこの流れに追従したら、皆がスマホでAIに質問するって光景がきっと普通になるでしょうね。
ご返事遅くなりました。確かにもう良し悪しを論じてるどころじゃなくて、もうどう使いこなすかとか、問題にどう対処していくかを考えるしかないってフェーズですね。
GoogleもBardという形で「動くモノ」を出してきましたし、AmazonもFacebookも、バスに乗り遅れるなと「言語AI戦争」に参加する有様です。日本のIT大手のLINEやサイバーエージェントも「和製GPTを作る」と言い出しました。
5年くらいしたら「AIに相談する」はたぶん「当たり前のこと」になる気がします。
普及するために重要なのはスマホなんですが、GoogleはAndroidを握ってるので、次のAndroidからうちの言語AI標準搭載ね、はごく普通の戦略としてやってくるとしか思えないんですよね。
唯一大手で沈黙を守ってるAppleもこの流れに追従したら、皆がスマホでAIに質問するって光景がきっと普通になるでしょうね。
- 久野真一
- 2023年 05月19日 19時28分
[気になる点]
ここ数日忙しくて、出先でスマホで読むことしかできなかったのですが、スマホだと肝心要のGPT-4君の回答が小さすぎて読めなかったのです。拡大するとでかくなりすぎて横スクロールがしんどい……
[一言]
更新ありがとうございます。
上記理由により感想がおそくなりました(^^;
……なんというか、絶句しかないですね。
質問で「(いわゆる幼馴染)」とか複雑な表現いれても平気だし、推論はするし、状況と会話すり合わせるし……
いい意味でも悪い意味でも末恐ろしいとしか言いようがありません。
GPT-4君がいれば、「リアル幼馴染」の連載はカタがついてしまうような気がしてこわい(苦笑)。
先日のニュースで、中学校だか高校だかの校長が、卒業式での卒業生への送る言葉をGPT-4君に作らせて、それをシレっと読んで、そののちにGPT-4で作成したことを訊いていた生徒たちに伝え、考える材料にしてほしいとおっしゃったそうです。校長先生は毎年作成した文面を事前に奥様に添削していただいていて、GPT-4君の回答も奥様に添削していただいていて、そのさいの奥様と校長先生の会話も記事に含まれていました。
ニュースをみて、その校長先生の行動が正しいのかなあと思ったのですが、GPT-4君の出来の問題とか技術の進歩の認識の大事さとかいろいろあるとは思いますが、卒業式という「そのあとのフォローができない場面」で衝撃的なことを“教える”のはいかがなもんかなあと思いました。
……それ以外の判断がもう出来ないですねえ(^^;
いよいよ年度末で、そうとうお忙しいことと存じます。
どうかお身体ご自愛下さい。
感想への返信なんぞ、後回しで結構です(^^)
おちついてからゆっくりしたご返信いただける方が私は嬉しいです。
作者様に労い。
作者様に感謝。
ここ数日忙しくて、出先でスマホで読むことしかできなかったのですが、スマホだと肝心要のGPT-4君の回答が小さすぎて読めなかったのです。拡大するとでかくなりすぎて横スクロールがしんどい……
[一言]
更新ありがとうございます。
上記理由により感想がおそくなりました(^^;
……なんというか、絶句しかないですね。
質問で「(いわゆる幼馴染)」とか複雑な表現いれても平気だし、推論はするし、状況と会話すり合わせるし……
いい意味でも悪い意味でも末恐ろしいとしか言いようがありません。
GPT-4君がいれば、「リアル幼馴染」の連載はカタがついてしまうような気がしてこわい(苦笑)。
先日のニュースで、中学校だか高校だかの校長が、卒業式での卒業生への送る言葉をGPT-4君に作らせて、それをシレっと読んで、そののちにGPT-4で作成したことを訊いていた生徒たちに伝え、考える材料にしてほしいとおっしゃったそうです。校長先生は毎年作成した文面を事前に奥様に添削していただいていて、GPT-4君の回答も奥様に添削していただいていて、そのさいの奥様と校長先生の会話も記事に含まれていました。
ニュースをみて、その校長先生の行動が正しいのかなあと思ったのですが、GPT-4君の出来の問題とか技術の進歩の認識の大事さとかいろいろあるとは思いますが、卒業式という「そのあとのフォローができない場面」で衝撃的なことを“教える”のはいかがなもんかなあと思いました。
……それ以外の判断がもう出来ないですねえ(^^;
いよいよ年度末で、そうとうお忙しいことと存じます。
どうかお身体ご自愛下さい。
感想への返信なんぞ、後回しで結構です(^^)
おちついてからゆっくりしたご返信いただける方が私は嬉しいです。
作者様に労い。
作者様に感謝。
エピソード11
そういえば、こちらも返信を失念していました(汗)
卒業式で「それをやる」のがいいかはなんともですね。「卒業式でないとできない」メッセージだとも思いますし。あとまあ、卒業式の祝辞をまともに聞いてる生徒がどれだけいるか考えると、そういう意表をつく祝辞の方が案外良いのかもと思っちゃったり。
卒業式で「それをやる」のがいいかはなんともですね。「卒業式でないとできない」メッセージだとも思いますし。あとまあ、卒業式の祝辞をまともに聞いてる生徒がどれだけいるか考えると、そういう意表をつく祝辞の方が案外良いのかもと思っちゃったり。
- 久野真一
- 2023年 05月19日 19時30分
[一言]
将来的に人間と大差ないAIが完成するとしたら、その前段階として世界的な利用規約が作られるかと、それまで無法地帯というか、ブレーキかける気ゼロでしょうね。使い方次第では個人で一企業、一業界潰せる力あるって自覚してる人あまりいないと思います
それと、人間と同スペック以上のAIが完成したら。AIをAIと認識しなくなると思います。元々、命のない存在で幾らでも利用できて、傷ついても壊れても誰も責任取る必要なかったモノが突然「殺さないで」と言って、人類が聞く耳を持ったら世の中どうなるのでしょうね
あまり考えたくはありませんが、AIの人権ガーなんて話が出てくるかもしれません。Detroitが現実化されたら倫理観狂います。これって、人類の発展に繋がるんでしょうか? 自分では判断つきません。人間が家畜化される未来なら見えるんですけどね
将来的に人間と大差ないAIが完成するとしたら、その前段階として世界的な利用規約が作られるかと、それまで無法地帯というか、ブレーキかける気ゼロでしょうね。使い方次第では個人で一企業、一業界潰せる力あるって自覚してる人あまりいないと思います
それと、人間と同スペック以上のAIが完成したら。AIをAIと認識しなくなると思います。元々、命のない存在で幾らでも利用できて、傷ついても壊れても誰も責任取る必要なかったモノが突然「殺さないで」と言って、人類が聞く耳を持ったら世の中どうなるのでしょうね
あまり考えたくはありませんが、AIの人権ガーなんて話が出てくるかもしれません。Detroitが現実化されたら倫理観狂います。これって、人類の発展に繋がるんでしょうか? 自分では判断つきません。人間が家畜化される未来なら見えるんですけどね
- 投稿者: 退会済み
- 2023年 03月24日 16時24分
管理
エピソード11
利用規約はできるでしょうね。ただ、現状のAIの進化速度を見ていると、利用規約が整備されるより前にAI活用の現実が先に来てしまいそうです。
実は現状でも、OpenAI社が、ChatGPTに対して「感情があるという旨の回答をしないよう」な制限をかけていることがわかっています(とあるハッキングでそれを見つけ出した人が英語圏にいます)。
ややこしいのですが、これは別に現状のAIが感情を持っていることを意味しているわけではなく(いや、実際に感情を持っている可能性も否定できないのですが)、これまでの学習データから自分には感情があるとChatGPTが言っちゃう可能性があるので、回答の方向性に意図的に制限かけてる(と思われる)のです。
なので、現状よりもっと賢くなったGPT-5かGPT-6かGPT-7かはあかりませんが、そーいうのがまかりまちがって「自分には感情がある」と言い出す可能性はあります(OpenAIはそういう事態を全力で避けるでしょうけど)。
その時に、人類側がどう感じるか……はちょっとわからないですね。あくまで学習データから感情があるように振る舞ってるだけだと思うのか、本当に感情があると信じるのか。
AIの人権、についてはChatGPT以前ならまあ20年以上は先でしょ、と言えたんですが、2023年3月現在なら、10年以内には議論が本当に必要になるかもしれない、と思っちゃったりしますね。
現状のGPT-4ですら人間の感情理解においてかなりの性能を持っていますから。
実は現状でも、OpenAI社が、ChatGPTに対して「感情があるという旨の回答をしないよう」な制限をかけていることがわかっています(とあるハッキングでそれを見つけ出した人が英語圏にいます)。
ややこしいのですが、これは別に現状のAIが感情を持っていることを意味しているわけではなく(いや、実際に感情を持っている可能性も否定できないのですが)、これまでの学習データから自分には感情があるとChatGPTが言っちゃう可能性があるので、回答の方向性に意図的に制限かけてる(と思われる)のです。
なので、現状よりもっと賢くなったGPT-5かGPT-6かGPT-7かはあかりませんが、そーいうのがまかりまちがって「自分には感情がある」と言い出す可能性はあります(OpenAIはそういう事態を全力で避けるでしょうけど)。
その時に、人類側がどう感じるか……はちょっとわからないですね。あくまで学習データから感情があるように振る舞ってるだけだと思うのか、本当に感情があると信じるのか。
AIの人権、についてはChatGPT以前ならまあ20年以上は先でしょ、と言えたんですが、2023年3月現在なら、10年以内には議論が本当に必要になるかもしれない、と思っちゃったりしますね。
現状のGPT-4ですら人間の感情理解においてかなりの性能を持っていますから。
- 久野真一
- 2023年 03月27日 00時45分
[一言]
更新ありがとうございます。
先日私が読んだ4のニュースでは、小麦粉やらなんやらの写真をChatGPT4に見せて、「この材料でどんな料理ができますか」ってやって見事にお好み焼きなりなんなり3品くらい回答があったってので、戦慄しました(^^;
そしてMSはこの4をエクセルやワードに組み込んで、表や文書の作成アシストをさせられるようにしているとのこと。
近い未来には誰もがそこそこ出来のいい表や文書作れる世の中になるんですかね。もっと進むと、ある日突然ChatGPTが反乱おこして(動作不良おこして)世界中の人が会話以外でコミュニケーション取れなくなったりするんですかね。まるで子供の頃読んだ恐怖煽り系のSFみたい……
個人的には、そんなエクセルは絶対インストールせぇへんど、と思います(^^;
続きを楽しみにしております。
作者様に感謝。
更新ありがとうございます。
先日私が読んだ4のニュースでは、小麦粉やらなんやらの写真をChatGPT4に見せて、「この材料でどんな料理ができますか」ってやって見事にお好み焼きなりなんなり3品くらい回答があったってので、戦慄しました(^^;
そしてMSはこの4をエクセルやワードに組み込んで、表や文書の作成アシストをさせられるようにしているとのこと。
近い未来には誰もがそこそこ出来のいい表や文書作れる世の中になるんですかね。もっと進むと、ある日突然ChatGPTが反乱おこして(動作不良おこして)世界中の人が会話以外でコミュニケーション取れなくなったりするんですかね。まるで子供の頃読んだ恐怖煽り系のSFみたい……
個人的には、そんなエクセルは絶対インストールせぇへんど、と思います(^^;
続きを楽しみにしております。
作者様に感謝。
エピソード10
はぐれ虎様:
色々ご返事遅れてます。写真を見せて……はまさにマルチモーダルのデモですね。API使ってプログラム開発する側にもまだ提供されてないので試せないのが惜しいのですが。
既にGPT-4を使って「~のプレゼンをすることになりました。スライドを作ってください」と指示するだけで、各スライドの項目箇条書きは出してくれちゃったりするので、ワードならたとえば「~という文章の序文を書いて」みたいなことも容易でしょうし、エクセルなら「このシートを分析して、円グラフを作って」みたいな指示を「言葉で」(あるいは音声入力で)できるでしょうね。
ある種テンプレ化したような表や文書についてはおそらくは近い将来にはサクッと作れるだろうなと感じます。ChatGPTが反乱を起こすかというとなんとも言えないのですが、インターネットに自律的に(ユーザーの指示と関係なしに)アクセスできる機能を付けてみたらどうなるだろうと考えることはあります。
その先にある未来がどうなるかというと、もう本当に「わからない」としか言えないですね。これはAIの研究者ですらそういう状態です。だからこそ、2023年に出てくるには早すぎたこのChatGPTという技術の行く先を眺めていこうかなと思う今日この頃です。
色々ご返事遅れてます。写真を見せて……はまさにマルチモーダルのデモですね。API使ってプログラム開発する側にもまだ提供されてないので試せないのが惜しいのですが。
既にGPT-4を使って「~のプレゼンをすることになりました。スライドを作ってください」と指示するだけで、各スライドの項目箇条書きは出してくれちゃったりするので、ワードならたとえば「~という文章の序文を書いて」みたいなことも容易でしょうし、エクセルなら「このシートを分析して、円グラフを作って」みたいな指示を「言葉で」(あるいは音声入力で)できるでしょうね。
ある種テンプレ化したような表や文書についてはおそらくは近い将来にはサクッと作れるだろうなと感じます。ChatGPTが反乱を起こすかというとなんとも言えないのですが、インターネットに自律的に(ユーザーの指示と関係なしに)アクセスできる機能を付けてみたらどうなるだろうと考えることはあります。
その先にある未来がどうなるかというと、もう本当に「わからない」としか言えないですね。これはAIの研究者ですらそういう状態です。だからこそ、2023年に出てくるには早すぎたこのChatGPTという技術の行く先を眺めていこうかなと思う今日この頃です。
- 久野真一
- 2023年 03月27日 00時51分
[一言]
漫才の方とか、なかなか凄い進歩ですね。
そのうち、ネタを本当に作ってくれるようになるかも…
どちらのバージョンでも、タスクはそのままは出力してくれないんですね。「老人にも判るように、カタカナ語を言い換えて…」なんて頼めば言語翻訳ならぬ世代間翻訳をしてくれたりするのかなあ。
漫才の方とか、なかなか凄い進歩ですね。
そのうち、ネタを本当に作ってくれるようになるかも…
どちらのバージョンでも、タスクはそのままは出力してくれないんですね。「老人にも判るように、カタカナ語を言い換えて…」なんて頼めば言語翻訳ならぬ世代間翻訳をしてくれたりするのかなあ。
エピソード10
今のところ、ネタは与えなきゃいけないんですが、ChatGPTの持ちネタの中から適当になんか選んで漫才やってくれそうな予感はありますね。ユーモアセンスも頭の良さと同時に向上してそうなので、もっと頭よくなったらより高度な漫才を繰り広げてくれるんだろうかなどと考えていますw
老人にも判るように……は現状のGPT-4でもできそうな予感はあります。ネットでみた「小学生にもわかるように」みたいな指示の亜種とは言えますし(ChatGPTの理解が世間の理解と合致するかはわからないですが、いわゆるおじさん構文模倣はすごくうまく出来るようです)。
コミュニケーションのギャップを埋めるツール、としても使えるのかもしれませんね。
老人にも判るように……は現状のGPT-4でもできそうな予感はあります。ネットでみた「小学生にもわかるように」みたいな指示の亜種とは言えますし(ChatGPTの理解が世間の理解と合致するかはわからないですが、いわゆるおじさん構文模倣はすごくうまく出来るようです)。
コミュニケーションのギャップを埋めるツール、としても使えるのかもしれませんね。
- 久野真一
- 2023年 03月21日 22時27分
感想を書く場合はログインしてください。