アカウント名:
パスワード:
正確な法令・政令・省令・告示・通達、裁判の判例等を学習させた、法令特化AIが出来て、こういった問題が解決するのでは?
今のAIのしくみだと学習元が正しいからと言って出力が必ず正しくなるとは限らないからなぁ。無理なんじゃないか?
そんなのは時間の問題でしょうAIは日進月歩で進んでるので、すぐに優秀な弁護士や裁判官を上回るAIになるのはほぼ確実
過去のAIの進化の仕方を見ていると、日進月歩というよりある時期急にブレイクスルーが起きるというパターンなので、時間の問題ではあるけどそれがいつになるかはあてにしない方がいいと思う。自動運転なんかもそうだよね。
ワイの大学の頃の指導教官が、そのパターンで、卒論書いてた頃は第n次AIブームの最中だったけど、博士論文書く頃には、その時代のAIの定番のやり方は行き詰まりかけてた。
まずはAIさんには「自分が間違うこともある」ってことを覚えさせるのが先ですね。今回の件でも多少の訂正はしつつも「俺は間違ってない」を押し通してるんだし。
向こうでは謝ったら負けみたいな文化があるのかも知れないけど、まさかAIまでそのノリってのはどうなのよ。
全くだ、とりあえず語尾に「知らんけど」とつけておくだけで解決するのにな
User: マヨネーズとはなんですかAgent: 飲み物です。User: 違いますよね。訂正してください。Agent: 違いました。お詫びします。マヨネーズとはなんですかという疑問の答えは、
……という台本があったとして、今のGPTくん達はここから、現在のカーソル位置において次の単語を予測する上で、最後の読点から後ろに数えて60文字めと70文字め付近に含まれている文字列については次に出現する確率が著しく下がり、具体的には2位以下の"ドレッ"や"ソー"の確率がより高くなる、と弾き出せるようにはできてないんですよ。残念ながら。
今のAIはそもそも間違い/正しいという概念も持っていないだろうし、「俺は間違ってない」もつっこまれた場合の人間の対応を学習した結果と言っていいと思う。
もしくは持っていても、人間からすると「こいつらの考える『正しい/間違い』って、人間が考える『正しい/間違い』の概念と何かズレてねえか?」
間違いの概念は持ってるよ。間違いを人間に指摘してもらい学習させるためにChatGPTはベータ版として無料公開されてるんだし。ただ、その指摘をいつどのようにどの程度反映させるのかは運営元の匙加減次第。
間違いとか正しいとかいう事は何なのか?と聞けば辞書的な回答が返ってくるのではないかな
ある文章がが間違いか正しいか?とかいう事を判定するのに特化した機構は持っていないね
LLMは、ある文章が間違いか正しいかを判定できるだろうか?といえば、内部のニューラルネットに思いっきり刷り込まれていれば、判定に成功する可能性は高くなる、みたいな事しか言えないだろうと思うます
これって出典元があれば誤情報でも載せられるウィキペディアでとっくの昔にみんな学んだことでしょ。
持ってないよ。何を得意げに寝言を垂れ流してるの?
根本的なシステムを変えない限り嘘をつく状況は何も変わらないよ。
これ、グラウンディング問題ってやつなんですかね。ChatGPTくんの妄言って、GPTくんが現実じゃなくどこか平行世界とか辺獄に生きてると想定すればそう間違ってないような気がしますし、分野に詳しくない匿名厄介さんとかが現実では広く共有されてる認識を受け入れていないときの挙動にも似てる気もしますし。
それは運営が間違いの概念を持ってることしか意味しないんでは?
嘘をRejectするガワ付けたっていいと思うんだがなんで根本的に変えなきゃいかんの?
すまん、俺は頭が悪いので、「嘘をリジェクトするガワ」をどう作れば良いか分からない
もし良いアイデアがあるなら、OpenAIに教えてやってくれ。或いは貴方が特許をとるのも良いと思う
自動運転については求めるレベルがおかしいだけだよ人間程度の運転はできてるのにAIには完璧を求めるから「完成」しないだけ
ChatGPTたって人間程度に受け答えして人間程度に嘘をついてるだけ。そこに何の違いがある?
現状だと一般的に期待できる人間よりは嘘を吐くかなぁといって病的な嘘つき人間ともちょっと違うある知識を自分が知ってるか知らないかさえ知らないんだよな
言い方悪いけど、痴呆症の人みたいな感じ。会話可能だけど、事実ベースじゃなくなってる。
まあこれまで読んだ文章を元に、それっぽい文章を作るといった機構だし
それで自然言語で受け答え出来てるように見えるのが、今回のブレイクスルーな訳で
人間でも似たような人が居たり、似たような状態に陥ったりはするやもだな
過去データ(判例)とルールの解釈(法律)の知識だしAIに向いてる仕事かもね
横だがそれは真面目に言っているのか
AIは日進月歩だから、数年後には誰も働かなくて良くなるし、AIに聞けば社会問題も解決だよね!
AIではなくロボットだったけど、50年ぐらい前はそんな未来が流行ってたなあ
アイザック・アシモフがご存命であれば、今の状態を何と言うのだろうか?
まぁネタ的にはもう執筆されているから特段言うことはないでしょうけど
アジモフ「なんか陰キャものがはやってるのでロボットの脳を 陽電子頭脳から陰電子頭脳に変更する」ダグラス・アダムス「根暗ロボットならうちの マーヴィンでもうやったよ」
あー、みんな銀色の全身タイツ着てビルの間に透明チューブが通っててその中をロケットみたいな乗り物で動き回る「来なかった未来」な。
人間が人間を産み育てられない社会問題は、AIによって解決されるのだろうか。
AIによって管理された社会にしよう
育てないのを育てられないと言っちゃう他責思考が改まらんことにはな広義の強制断種とか言い出すのも近いね
AIによる計画経済でソ連が覇権を取ってるはずなんだ
>優秀な弁護士や裁判官
判例の検索能力のことを言っているのか望ましい弁護や判決の能力を言っているのか
どちらなのか判らないと貴方の意見への評価はできないですわ
chatCPTそのものが「人間にとって自然な文章を生成する」ことにフォーカスしていて「正しい回答をする」は二の次になっているんじゃね?
昨日合法だったものが今日から違法なんてのに素早く対応できるかどうか。
何を聞いたんだ?
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
にわかな奴ほど語りたがる -- あるハッカー
そのうち法令特化AIが出るのでは? (スコア:1)
正確な法令・政令・省令・告示・通達、裁判の判例等を学習させた、法令特化AIが出来て、
こういった問題が解決するのでは?
Re: (スコア:0)
今のAIのしくみだと学習元が正しいからと言って出力が必ず正しくなるとは限らないからなぁ。
無理なんじゃないか?
Re:そのうち法令特化AIが出るのでは? (スコア:0)
そんなのは時間の問題でしょう
AIは日進月歩で進んでるので、すぐに優秀な弁護士や裁判官を上回るAIになるのはほぼ確実
Re:そのうち法令特化AIが出るのでは? (スコア:1)
過去のAIの進化の仕方を見ていると、日進月歩というよりある時期急にブレイクスルーが起きるというパターンなので、時間の問題ではあるけどそれがいつになるかはあてにしない方がいいと思う。
自動運転なんかもそうだよね。
Re:そのうち法令特化AIが出るのでは? (スコア:2)
ワイの大学の頃の指導教官が、そのパターンで、卒論書いてた頃は第n次AIブームの最中だったけど、博士論文書く頃には、その時代のAIの定番のやり方は行き詰まりかけてた。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
まずはAIさんには「自分が間違うこともある」ってことを覚えさせるのが先ですね。
今回の件でも多少の訂正はしつつも「俺は間違ってない」を押し通してるんだし。
向こうでは謝ったら負けみたいな文化があるのかも知れないけど、まさかAIまでそのノリってのはどうなのよ。
Re:そのうち法令特化AIが出るのでは? (スコア:4, おもしろおかしい)
全くだ、とりあえず語尾に「知らんけど」とつけておくだけで解決するのにな
Re:そのうち法令特化AIが出るのでは? (スコア:2)
User: マヨネーズとはなんですか
Agent: 飲み物です。
User: 違いますよね。訂正してください。
Agent: 違いました。お詫びします。マヨネーズとはなんですかという疑問の答えは、
……という台本があったとして、今のGPTくん達はここから、現在のカーソル位置において次の単語を予測する上で、最後の読点から後ろに数えて60文字めと70文字め付近に含まれている文字列については次に出現する確率が著しく下がり、具体的には2位以下の"ドレッ"や"ソー"の確率がより高くなる、と弾き出せるようにはできてないんですよ。残念ながら。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
今のAIはそもそも間違い/正しいという概念も持っていないだろうし、「俺は間違ってない」もつっこまれた場合の人間の対応を学習した結果と言っていいと思う。
Re:そのうち法令特化AIが出るのでは? (スコア:2)
もしくは持っていても、人間からすると「こいつらの考える『正しい/間違い』って、人間が考える『正しい/間違い』の概念と何かズレてねえか?」
Re: (スコア:0)
間違いの概念は持ってるよ。間違いを人間に指摘してもらい学習させるためにChatGPTはベータ版として無料公開されてるんだし。
ただ、その指摘をいつどのようにどの程度反映させるのかは運営元の匙加減次第。
Re: (スコア:0)
間違いとか正しいとかいう事は何なのか?と聞けば辞書的な回答が返ってくるのではないかな
ある文章がが間違いか正しいか?とかいう事を判定するのに特化した機構は持っていないね
LLMは、ある文章が間違いか正しいかを判定できるだろうか?
といえば、内部のニューラルネットに思いっきり刷り込まれていれば、判定に成功する可能性は高くなる、みたいな事しか言えないだろうと思うます
Re: (スコア:0)
これって出典元があれば誤情報でも載せられるウィキペディアでとっくの昔にみんな学んだことでしょ。
Re: (スコア:0)
持ってないよ。何を得意げに寝言を垂れ流してるの?
根本的なシステムを変えない限り嘘をつく状況は何も変わらないよ。
Re:そのうち法令特化AIが出るのでは? (スコア:3)
これ、グラウンディング問題ってやつなんですかね。ChatGPTくんの妄言って、GPTくんが現実じゃなくどこか平行世界とか辺獄に生きてると想定すればそう間違ってないような気がしますし、分野に詳しくない匿名厄介さんとかが現実では広く共有されてる認識を受け入れていないときの挙動にも似てる気もしますし。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
それは運営が間違いの概念を持ってることしか意味しないんでは?
Re: (スコア:0)
嘘をRejectするガワ付けたっていいと思うんだが
なんで根本的に変えなきゃいかんの?
Re: (スコア:0)
すまん、俺は頭が悪いので、「嘘をリジェクトするガワ」をどう作れば良いか分からない
もし良いアイデアがあるなら、OpenAIに教えてやってくれ。或いは貴方が特許をとるのも良いと思う
Re: (スコア:0)
自動運転については求めるレベルがおかしいだけだよ
人間程度の運転はできてるのにAIには完璧を求めるから「完成」しないだけ
Re: (スコア:0)
ChatGPTたって人間程度に受け答えして人間程度に嘘をついてるだけ。
そこに何の違いがある?
Re: (スコア:0)
現状だと一般的に期待できる人間よりは嘘を吐くかなぁ
といって病的な嘘つき人間ともちょっと違う
ある知識を自分が知ってるか知らないかさえ知らないんだよな
Re: (スコア:0)
言い方悪いけど、痴呆症の人みたいな感じ。
会話可能だけど、事実ベースじゃなくなってる。
Re: (スコア:0)
まあこれまで読んだ文章を元に、それっぽい文章を作るといった機構だし
それで自然言語で受け答え出来てるように見えるのが、今回のブレイクスルーな訳で
人間でも似たような人が居たり、似たような状態に陥ったりはするやもだな
Re:そのうち法令特化AIが出るのでは? (スコア:1)
過去データ(判例)とルールの解釈(法律)の知識だしAIに向いてる仕事かもね
Re: (スコア:0)
横だがそれは真面目に言っているのか
AIは日進月歩だから、数年後には誰も働かなくて良くなるし、AIに聞けば社会問題も解決だよね!
Re: (スコア:0)
AIではなくロボットだったけど、50年ぐらい前はそんな未来が流行ってたなあ
Re: (スコア:0)
アイザック・アシモフがご存命であれば、今の状態を何と言うのだろうか?
まぁネタ的にはもう執筆されているから特段言うことはないでしょうけど
Re: (スコア:0)
アジモフ「なんか陰キャものがはやってるのでロボットの脳を
陽電子頭脳から陰電子頭脳に変更する」
ダグラス・アダムス「根暗ロボットならうちの
マーヴィンでもうやったよ」
Re: (スコア:0)
あー、みんな銀色の全身タイツ着てビルの間に透明チューブが通っててその中をロケットみたいな乗り物で動き回る「来なかった未来」な。
Re: (スコア:0)
人間が人間を産み育てられない社会問題は、AIによって解決されるのだろうか。
Re: (スコア:0)
AIによって管理された社会にしよう
Re: (スコア:0)
育てないのを育てられないと言っちゃう他責思考が改まらんことにはな
広義の強制断種とか言い出すのも近いね
Re: (スコア:0)
AIによる計画経済でソ連が覇権を取ってるはずなんだ
Re: (スコア:0)
>優秀な弁護士や裁判官
判例の検索能力のことを言っているのか
望ましい弁護や判決の能力を言っているのか
どちらなのか判らないと貴方の意見への評価はできないですわ
Re: (スコア:0)
chatCPTそのものが「人間にとって自然な文章を生成する」ことにフォーカスしていて
「正しい回答をする」は二の次になっているんじゃね?
Re: (スコア:0)
昨日合法だったものが今日から違法なんてのに素早く対応できるかどうか。
Re: (スコア:0)
何を聞いたんだ?