アカウント名:
パスワード:
人間もAIも嘘もつくし間違いもするが、今ん所は、人間のやらかした嘘や間違いの方が「何で嘘や間違いをやったか??」を突き止める事が出来る確率が高そう。
人間が間違った理由なんてそんな細かくわかるもんかな思い込んでたとか勘違いしたとかが残るんじゃない?そしたら今のAIのハルシネーションと何も変わらんようなまだAIのほうがわかるに賭けるかなぁどこまで行っても細胞内な化学反応レベルは再現実験できる気がしないので
たしかに嘘や間違いやらかしてる時点で、そいつの後付けの供述なんてアテにならないケースも多いんよね…むしろそんなものを真に受けてマジメに付き合って、結局なんの参考にもなりませんでしたってムダ工数になるのが自分は怖い誤解を恐れず言うと、やらかしが発生した時点で自分で現地現物現場に行って対応するほうが早いAIならむしろやらかし発生→対応までのリードタイムが短縮できるまであると思う人間ならそいつの将来も考えたらなぜなぜ分析したり次どうしたらいいかまで一緒に考えてあげる必要が出てくるがもしそれがAIならそんなこと考えず手間なくスパッと切り捨てて対応に移れる、納品物にならない余計な考慮がいらなくなる
人間の場合は、少なくとも思考の経過を記録で残せるけれど、ChatGPTにはそんなもの無い。そこは大きな違いだと思う。
自分は人間だけど思考の過程なんかほとんどの場合残してないですがAIだって別に残したきゃ残せるでしょ 現状残してないだけで
そして原理的には完全なスナップショットだってのこぜるAIのほうが確認できる再現性高いでしょそういう意味で「どこまで行っても細胞内な化学反応レベルは再現実験できる気がしない」ので人間のほうにこそ限界があるかなと
AIが・言った覚えは無い・そういう意味で言ったのでは無い・その時とは状況/前提が変わったとか言い出すようになれれば一人前。
人間に対する教育はある程度体系立てられた上で出力によるデバイス(=個人)の取捨選択ができるようになってるけど、AIに対する教育は「数をこなす」以外これといった方法論が存在しないことと、取捨選択の基準がいまいちなのが問題では。
正しい情報だけを食わせばいいというのは違くて、間違いも含めて食わせて「これは間違いである」って判断をできるようにしないといけない、そのうえで逐一間違いを指摘しても、果たして人間が理解できる正誤判断を構築しているかどうかを人間側が判断できない、できる基準とツールの多様性がない(発展途上を理由にされて「このAIは使えない」と切り捨てられない)。それが人間がまだ持ってる、AIに対して道具としての優位性かと。
「まだ」持ってるという話であればだいたいその通りではないかと今のAIはいろいろ穴がありますからな
人間「何もしてないのに壊れました!」
多分、そこも人間そのものの優位性じゃなくて、人間が置かれてる環境に由来する優位性で、人間の間違いや嘘は物証などの嘘・間違いかを判別したり、嘘・間違いの理由を調べる為の証拠が多い。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
人生の大半の問題はスルー力で解決する -- スルー力研究専門家
AIに対する人間の優位性が見えてきた気がする (スコア:2)
人間もAIも嘘もつくし間違いもするが、今ん所は、人間のやらかした嘘や間違いの方が「何で嘘や間違いをやったか??」を突き止める事が出来る確率が高そう。
Re:AIに対する人間の優位性が見えてきた気がする (スコア:2)
人間が間違った理由なんてそんな細かくわかるもんかな
思い込んでたとか勘違いしたとかが残るんじゃない?
そしたら今のAIのハルシネーションと何も変わらんような
まだAIのほうがわかるに賭けるかなぁ
どこまで行っても細胞内な化学反応レベルは再現実験できる気がしないので
Re: (スコア:0)
たしかに嘘や間違いやらかしてる時点で、そいつの後付けの供述なんてアテにならないケースも多いんよね…
むしろそんなものを真に受けてマジメに付き合って、結局なんの参考にもなりませんでしたってムダ工数になるのが自分は怖い
誤解を恐れず言うと、やらかしが発生した時点で自分で現地現物現場に行って対応するほうが早い
AIならむしろやらかし発生→対応までのリードタイムが短縮できるまであると思う
人間ならそいつの将来も考えたらなぜなぜ分析したり次どうしたらいいかまで一緒に考えてあげる必要が出てくるが
もしそれがAIならそんなこと考えず手間なくスパッと切り捨てて対応に移れる、納品物にならない余計な考慮がいらなくなる
Re: (スコア:0)
人間の場合は、少なくとも思考の経過を記録で残せるけれど、ChatGPTにはそんなもの無い。
そこは大きな違いだと思う。
Re:AIに対する人間の優位性が見えてきた気がする (スコア:2)
自分は人間だけど思考の過程なんかほとんどの場合残してないですが
AIだって別に残したきゃ残せるでしょ 現状残してないだけで
そして原理的には完全なスナップショットだってのこぜるAIのほうが確認できる再現性高いでしょ
そういう意味で「どこまで行っても細胞内な化学反応レベルは再現実験できる気がしない」ので人間のほうにこそ限界があるかなと
Re: (スコア:0)
AIが
・言った覚えは無い
・そういう意味で言ったのでは無い
・その時とは状況/前提が変わった
とか言い出すようになれれば一人前。
Re: (スコア:0)
人間に対する教育はある程度体系立てられた上で出力によるデバイス(=個人)の取捨選択ができるようになってるけど、
AIに対する教育は「数をこなす」以外これといった方法論が存在しないことと、取捨選択の基準がいまいちなのが問題では。
正しい情報だけを食わせばいいというのは違くて、間違いも含めて食わせて「これは間違いである」って判断をできるようにしないといけない、
そのうえで逐一間違いを指摘しても、果たして人間が理解できる正誤判断を構築しているかどうかを人間側が判断できない、
できる基準とツールの多様性がない(発展途上を理由にされて「このAIは使えない」と切り捨てられない)。
それが人間がまだ持ってる、AIに対して道具としての優位性かと。
Re:AIに対する人間の優位性が見えてきた気がする (スコア:2)
「まだ」持ってるという話であればだいたいその通りではないかと
今のAIはいろいろ穴がありますからな
Re: (スコア:0)
人間「何もしてないのに壊れました!」
Re:AIに対する人間の優位性が見えてきた気がする (スコア:2)
多分、そこも人間そのものの優位性じゃなくて、人間が置かれてる環境に由来する優位性で、人間の間違いや嘘は物証などの嘘・間違いかを判別したり、嘘・間違いの理由を調べる為の証拠が多い。