ChatGPTで判例を集めた弁護士、嘘の判例だらけという前代未聞の事態に 186
ストーリー by headless
架空 部門より
架空 部門より
弁護士が裁判で使用する判例をChatGPTに依頼して集めたところ、大量の偽物をつかまされる事態となったそうだ
(The Verge の記事、
The New York Times の記事、
Neowin の記事、
裁判所文書)。
この裁判は 2019 年 8 月 27 日のエルサルバドル発ニューヨーク行きアビアンカ航空 670 便に搭乗し、機内食の配膳用カートをぶつけられた男性がアビアンカを訴えたものだ。アビアンカ側は出訴期限を過ぎていると主張して棄却申立を行い、男性側の弁護士は反論すべく8件の判例の要約を提出した。ところが、アビアンカ側が実際の判例を見つけられないと主張し、6件が架空の判例であることが判明した。
当初、弁護士はニューヨーク州上級裁判所で訴訟を提起したが、資格のない連邦地裁へ移送されたため同僚に弁護を任せ、調査を担当することになったという。法曹界では生成 AI の利用が進んでおり、弁護士も ChatGPT を利用することになる。しかし、弁護士はこれまでに ChatGPT を使ったことがなく、虚偽の情報が含まれる可能性があることを知らなかったそうだ。
弁護士は (問題が提起されてから) ChatGPT に判例が本物であるかどうかを確認しているが、ChatGPT は一部を訂正しつつすべての判例は本物だと主張している。だますつもりはなかったと弁護士は謝罪し、ChatGPT の利用を深く後悔しているとも述べたという。
判事は判例も引用も嘘ばかりという前代未聞の事態だと述べ、懲戒のための聴聞を 6 月 8 日に設定したとのことだ。
この裁判は 2019 年 8 月 27 日のエルサルバドル発ニューヨーク行きアビアンカ航空 670 便に搭乗し、機内食の配膳用カートをぶつけられた男性がアビアンカを訴えたものだ。アビアンカ側は出訴期限を過ぎていると主張して棄却申立を行い、男性側の弁護士は反論すべく8件の判例の要約を提出した。ところが、アビアンカ側が実際の判例を見つけられないと主張し、6件が架空の判例であることが判明した。
当初、弁護士はニューヨーク州上級裁判所で訴訟を提起したが、資格のない連邦地裁へ移送されたため同僚に弁護を任せ、調査を担当することになったという。法曹界では生成 AI の利用が進んでおり、弁護士も ChatGPT を利用することになる。しかし、弁護士はこれまでに ChatGPT を使ったことがなく、虚偽の情報が含まれる可能性があることを知らなかったそうだ。
弁護士は (問題が提起されてから) ChatGPT に判例が本物であるかどうかを確認しているが、ChatGPT は一部を訂正しつつすべての判例は本物だと主張している。だますつもりはなかったと弁護士は謝罪し、ChatGPT の利用を深く後悔しているとも述べたという。
判事は判例も引用も嘘ばかりという前代未聞の事態だと述べ、懲戒のための聴聞を 6 月 8 日に設定したとのことだ。
それが嘘 (スコア:2)
>ChatGPT は一部を訂正しつつすべての判例は本物だと主張している
嘘を嘘と見抜け無い人はネットの情報を使わない方が良いと
いにしえに誰か言ってたような
Re:それが嘘 (スコア:2)
ChatGPT「よって、私は人では無いので、嘘を見抜けるか否かに関わらず、ネット情報を活用してもいいんですね」
Re:それが嘘 (スコア:1)
そして「判例」も「真実」もAIが生成していく時代に
Re:それが嘘 (スコア:2)
だから、一番タチが悪い嘘吐きは「本当の事を言う場合も、嘘を言う場合も有る」タイプの嘘吐きの中でも、更に「本当の事を言うべきタイミングと嘘を言うべきタイミングを見極めるのが巧い」奴なんですよ。
Re:それが嘘 (スコア:1)
思い付きで答えていい状況じゃない人に、答えられないと知っていて記者はその質問をしているんだよ。
これは誘導して揚げ足を取ったり口約束をさせるなど、失言をさせたい意図がある。
そして答えなければ「仮定の質問には答えられない」を強調して不誠実感を醸し出した報道をする。
これは政治家も企業も一緒だし、どの国も同じだよ。
オフィシャルな場での発言はとても重いことを逆手に取っているだけ。
Re:それが嘘 (スコア:1)
> その程度の建前は誰でも分かっているのでは?
納得されてるから完結したと思ったじゃない
反論しなきゃいけなかったの?
報道は揚げ足取りや不誠実に報道すると書いたこと、そこは納得してるんでしょ
ということは正論で誠実な回答をしても、揚げ足取りなど出来ないならその質問者にとって価値が無い回答
つまり正論で誠実な回答は報道されない
さらに言うなら
・仮定の質問というのはいくらでも作り出せてきりがないから質問攻めにできる
・仮定したことが実際に起きたとしても、現実は諸条件が様々あるので単純に同じにならない
・仮定の質問と前置きして回答しても、言ったことを実行できなければ約束を反故にしたと責任追及できる
もはや一人歩きし仮定ではなくなっている
・仮定の質問に回答することそのものが、社会的影響を与える
外交、軍事で仮定の質問に回答すると、仮定の話にもかかわらず、その後の国際関係に悪影響がでたり、手の内をさらすことになる
財政や金融で仮定の質問に回答すると、仮定の話にもかかわらず、憶測で市場が混乱するなど悪影響がでる
・回答者は一人だが、実際は複数人で検討した結果をもとに話している
突然の仮定の質問に対して、その回答者が勝手に回答できるものではない
仮定の質問に回答することは危険なんだよ
この前ChatGPTにコード例を書かせたら (スコア:2, 興味深い)
変数A=変数B=処理
っていうコードが返ってきた。
変数Bは最後の行まで一度も使わない。どこかからコピペしてきたのかな。
検索しても出てこなかったけど。
Re:この前ChatGPTにコード例を書かせたら (スコア:2)
俺も出た
これもそうだけど、誤りを指摘すると誤解を招いたことをお詫びしますと定型文をはくが、
誤解ジャネーよなぁ
Re:この前ChatGPTにコード例を書かせたら (スコア:2)
引用したサイトなんて言われたことないな
誤りを指摘したら謝ったうえで同じ誤りを繰り返すのはしょっちゅうだけど
本当に (スコア:2, おもしろおかしい)
AIって人間の職を奪うんだな。
# クビだろ、この弁護士
アホなウソつき (スコア:2, すばらしい洞察)
すいません、間違えました。
正しくはこちらです。
と言って出してくる情報もまた間違ってる。
Re:アホなウソつき (スコア:1)
さらにつっこむと「まだ習熟途中で未熟です(大意)」という感じで逃げていきますね
聞いたことがない、それはしらない、よくわからない、諸説あります的な答えを返せるようになるにはどれくらいかかるんだろう
AIに対する人間の優位性が見えてきた気がする (スコア:2)
人間もAIも嘘もつくし間違いもするが、今ん所は、人間のやらかした嘘や間違いの方が「何で嘘や間違いをやったか??」を突き止める事が出来る確率が高そう。
Re:AIに対する人間の優位性が見えてきた気がする (スコア:2)
人間が間違った理由なんてそんな細かくわかるもんかな
思い込んでたとか勘違いしたとかが残るんじゃない?
そしたら今のAIのハルシネーションと何も変わらんような
まだAIのほうがわかるに賭けるかなぁ
どこまで行っても細胞内な化学反応レベルは再現実験できる気がしないので
Re:AIに対する人間の優位性が見えてきた気がする (スコア:2)
自分は人間だけど思考の過程なんかほとんどの場合残してないですが
AIだって別に残したきゃ残せるでしょ 現状残してないだけで
そして原理的には完全なスナップショットだってのこぜるAIのほうが確認できる再現性高いでしょ
そういう意味で「どこまで行っても細胞内な化学反応レベルは再現実験できる気がしない」ので人間のほうにこそ限界があるかなと
Re:AIに対する人間の優位性が見えてきた気がする (スコア:2)
「まだ」持ってるという話であればだいたいその通りではないかと
今のAIはいろいろ穴がありますからな
Re:AIに対する人間の優位性が見えてきた気がする (スコア:2)
多分、そこも人間そのものの優位性じゃなくて、人間が置かれてる環境に由来する優位性で、人間の間違いや嘘は物証などの嘘・間違いかを判別したり、嘘・間違いの理由を調べる為の証拠が多い。
架空の (スコア:2)
判例はダメ!絶対!って指示するだけじゃダメなのか。
そのうち法令特化AIが出るのでは? (スコア:1)
正確な法令・政令・省令・告示・通達、裁判の判例等を学習させた、法令特化AIが出来て、
こういった問題が解決するのでは?
Re:そのうち法令特化AIが出るのでは? (スコア:1)
「ソースを正しく出す」っていう行為はディープラーニングの構造の対極だと思うんだよね
Re:そのうち法令特化AIが出るのでは? (スコア:2)
Bing Chatなんかはこれですな。brittleなエキスパートシステムのインターフェイスとしてGPTが被さっている。現実にはあんまり状況は改善していないですが、方向性としてはこの発想。
Re: (スコア:0)
今のAIのしくみだと学習元が正しいからと言って出力が必ず正しくなるとは限らないからなぁ。
無理なんじゃないか?
Re:そのうち法令特化AIが出るのでは? (スコア:1)
原理的に正確性を保証できなくても、実用上は人間が調べた時の精度を超えれば問題ないよね。
今のDNN系の技術はそういう方向で発展していってる。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
単純に今後の精度向上の問題だと思いますよ。
じゃあ人間だったら出力が必ず正しくなるかって言ったらそんな訳はないです。
問題はAIの出力の価値が人間の出力の価値を上回るかどうかということかと。
単純化していますが、かたや人間が2~3日かけて精度9割の出力、AIが5分で精度8割の出力となれば、
今後AIがますます進化していくことを考えると、人件費のかさむ専門職を雇う意味は少なくなっていくと思います。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
裁判の判例を探してこいと命令されて全部存在しない判例を持ってきて、かつ追求されても存在すると言い張る奴は一般論として存在しないけど
それが日常茶飯事のchatGPTと同一視して「人間でも出力が必ずしも正しい保証はない」ってすげー詭弁だな
西村構文っぽい
「じゃあ人間なら確実に100%正しいと保証されてるんですか?間違ってたらあなた死んでくれますか?(目パチパチ」
Re: (スコア:0)
そんなのは時間の問題でしょう
AIは日進月歩で進んでるので、すぐに優秀な弁護士や裁判官を上回るAIになるのはほぼ確実
Re:そのうち法令特化AIが出るのでは? (スコア:1)
過去のAIの進化の仕方を見ていると、日進月歩というよりある時期急にブレイクスルーが起きるというパターンなので、時間の問題ではあるけどそれがいつになるかはあてにしない方がいいと思う。
自動運転なんかもそうだよね。
Re:そのうち法令特化AIが出るのでは? (スコア:2)
ワイの大学の頃の指導教官が、そのパターンで、卒論書いてた頃は第n次AIブームの最中だったけど、博士論文書く頃には、その時代のAIの定番のやり方は行き詰まりかけてた。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
まずはAIさんには「自分が間違うこともある」ってことを覚えさせるのが先ですね。
今回の件でも多少の訂正はしつつも「俺は間違ってない」を押し通してるんだし。
向こうでは謝ったら負けみたいな文化があるのかも知れないけど、まさかAIまでそのノリってのはどうなのよ。
Re:そのうち法令特化AIが出るのでは? (スコア:4, おもしろおかしい)
全くだ、とりあえず語尾に「知らんけど」とつけておくだけで解決するのにな
Re:そのうち法令特化AIが出るのでは? (スコア:2)
User: マヨネーズとはなんですか
Agent: 飲み物です。
User: 違いますよね。訂正してください。
Agent: 違いました。お詫びします。マヨネーズとはなんですかという疑問の答えは、
……という台本があったとして、今のGPTくん達はここから、現在のカーソル位置において次の単語を予測する上で、最後の読点から後ろに数えて60文字めと70文字め付近に含まれている文字列については次に出現する確率が著しく下がり、具体的には2位以下の"ドレッ"や"ソー"の確率がより高くなる、と弾き出せるようにはできてないんですよ。残念ながら。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
今のAIはそもそも間違い/正しいという概念も持っていないだろうし、「俺は間違ってない」もつっこまれた場合の人間の対応を学習した結果と言っていいと思う。
Re:そのうち法令特化AIが出るのでは? (スコア:2)
もしくは持っていても、人間からすると「こいつらの考える『正しい/間違い』って、人間が考える『正しい/間違い』の概念と何かズレてねえか?」
Re:そのうち法令特化AIが出るのでは? (スコア:3)
これ、グラウンディング問題ってやつなんですかね。ChatGPTくんの妄言って、GPTくんが現実じゃなくどこか平行世界とか辺獄に生きてると想定すればそう間違ってないような気がしますし、分野に詳しくない匿名厄介さんとかが現実では広く共有されてる認識を受け入れていないときの挙動にも似てる気もしますし。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
それは運営が間違いの概念を持ってることしか意味しないんでは?
Re:そのうち法令特化AIが出るのでは? (スコア:1)
過去データ(判例)とルールの解釈(法律)の知識だしAIに向いてる仕事かもね
Re: (スコア:0)
それを誰が学習させるのか?
大衆に学習を任せると絶対イタズラや勘違いで間違った学習をさせる輩が現れる。
誰でも知ってるような一般的な知識なら多数派の力でそれらを打ち消せるが専門性の高い案件はそうもいかない。
誰でも知ってるような知識に限定したらこんなツール要らないしね。
現状のAIって、前提知識がある人が補助として使う以上には役に立たない。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
法律と判例を「学習させる」というは易いけれど、現状の仕組みでは人間における学習とおよそ異なっている。
言葉の並びを計数化するだけなので、似たような文言の並ぶ条文などは下手すると全く逆の意味内容を「学習」してしまうおそれだってある。
判例についてはもっと酷いことが予想される。判例は法令ほど定型的な文章にはなっていないので、いわゆる判旨を学習できないといった問題点もあるだろうよ。
裁判みたいに正誤の区別はもちろん言葉の厳密な意味内容まで正確な理解が要求される分野では今の学習方式によっては信頼性を確保できない、したがってまともに活用できないと思う。
Re:そのうち法令特化AIが出るのでは? (スコア:2)
そういう内容を登録したDBなんぞどこにでもあるが。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
DBからの検索にAIの出番がある。
今でもデジタル化されて整備されてるけど、キーワード(類似語含)でマッチしないと探せないし、だから専門知識がないと探すのも難しい。
その辺AIにかけたらあいまい検索できるようになるし、要約なんかもしてくれる。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
その要約すら正しいことが担保されていないんですよ。
Re:そのうち法令特化AIが出るのでは? (スコア:1)
大量の文章から関連するものを検索する機能は、昨今のAIブームよりずっと前から機械の得意とするところだ。
文章を理解せずに「関連する文章を見つける」だけだから、最終的に人間が読んで判断する必要があるが、それが現状のAIの限界。
知らなかったで済むんなら (スコア:1)
弁護士いらねーよな
まさか (スコア:1)
AIによって奪われる仕事の一つがひろゆきだったとわ...
Re:まさか (スコア:3)
AIひどゆき「私のオリジナルは所詮は人間です。人間のオリジナルより完璧な私が居る以上、人間のオリジナルは、最早、不要です」
オリジナルひどゆき「それって、貴方の感想ですよね?」
AIひどゆき「AIである私が『感想』を抱ける事を証明出来ない限り、貴方のその発言こそ『感想』です」
Re:まさか (スコア:2)
人間と複数のAIと複数のひどゆきワナビー(多分、人間)の内「相手を論破した」という印象操作が一番上手かった(≠本当に論破出来た)者が、本物のひどゆきとなる。
Re:どこからウソ情報を取得しているのか (スコア:2)
今回の嘘判例がどんなのかわからないけど、
(判例A+判例B+判例C)/3みたいなことやってんじゃないのかな?
登場人物とか企業名とか日時とかがごっちゃになっているんじゃないかなと推測。
Re:どこからウソ情報を取得しているのか (スコア:1)
画像生成AIのことをツギハギコラって言うと擁護厨が原理が違う!お前は無知でバカ!って飛んでくるけど
実際の現物の動作としてはそれ以外に説明しようがないよね
「\nアン」「アンコ」「ンコ」「コリーノ」なんかどれも続く確率が極めて高い
「そうだけど、」に「世の」「の中の」「中のどこにも」「どこにもない」「ない情報」が続く確率も割と高い
じゃあ連続的にこれをループさせたら「そうだけど世の中のどこにもない情報だけど情報どこにもないですね」
みたいな文章になるのは全くおかしくない
でもそういうマルコフ連鎖もどきでちゃんと文章が書けるのは意味不明なんだよなぁ…魔法か何かかと
Re:どこからウソ情報を取得しているのか (スコア:1)
魔法でも何でもなく、人間自身がそうやってフィーリングで喋りまくってるだけだろう
ここの連中だって「~中」と言いたい時には善し悪し問わずいちいち「絶賛」を付ける
そこに意味など微塵もない
Re:馬鹿とはさみは使いようで切れる (スコア:1)
成長する必要は全く、微塵も、無いな。
# 例えが悪い