弁護士をAIに置き換えてもらえますか?

ケースはこれです:オーストラリアのドライバーは、運転中に携帯電話を使用していると非難されています。道路規則2014(NSW)Reg 300。彼らの防御:それは彼らの手にある携帯電話ではなく、誤認されたジュースボックスでした。彼らのために行動するのは、法律事務所のシニアアソシエイトであるジャネット・メルジェンですランダー&ロジャース

また、彼らのために行動するのは、法的文書で訓練されたAIです。

SXSWシドニーセッション、シドニーの工科大学の明るい講義ホールで「AIは裁判に勝つことができますか?」人間の弁護士を比較しますnexlaw両方とも同じ訴訟を主張させることにより、法的AI裁判副操縦士。 Merjaneが伝統的な方法で彼女の議論を準備している間、Copilot(と混同しないでくださいMicrosoftの生成AIチャットボット)防衛ライブを生成するように求められます。これは、ボランティアが法廷で自分自身を代表しているかのように読むことです。

参照:

対決の前の手のショーから、聴衆の約3分の2は、マルジャネがより説得力のある議論をすると信じています。それでも、合法的なAIツールが私たちを驚かせるかもしれないと思う人がいくつかあります。

An illustration of a person with a computer monitor for a head (symbollising AI) sitting next to someone else, writing something down.

クレジット:J。Hazelwood / Mashable Composite;ゴロデンコフ、イストック /ゲッティ

それに直面して、法律専門職は、AIの広範な採用を熱心に受け入れるべき分野のように思われます。

法的作業は、長時間、広範な研究、複雑な専門用語を含むことで悪名高い。 AIアルゴリズムを使用すると、この困難な作業の一部を自動化すると、理論的にコストが削減され、法制度がよりアクセスしやすくなり、弁護士が多くの痛みを抑えます。さらに、法的議論は通常、法律や過去のケースに広範な言及を行います。これらはすべて、AIアルゴリズムのトレーニングに使用できます。

そのため、法的AIは有望な分野のように見えるかもしれません。実際、AIテクノロジーはすでに世界中の法律の実践を変えています。 2023年11月、AI会社輝度 契約交渉を自動化しました法的大規模な言語モデルのオートパイロットのデモンストレーションにおける「人間の介入なし」。 1か月後、aブラジルの議員は、彼がOpenaiのChatGptを使用して税法を書くことを明らかにしたことを明らかにしましたそれはそれ以来合格しました。マサチューセッツ州上院議員バリー・ファインゴールドさえchatgptを使用して、生成的AIを規制する請求書を書くのに役立ちます、アメリカ弁護士会はそれを指摘していますAIは、結果を予測し、法的戦略を通知するのに役立ちます

それでも、AIのそのような適用には問題がないわけではありません。おそらく、AI会議法の最も有名なインスタンスの1つはdonotpay、オンラインの法的サービスとチャットボットを提供し、「世界初のロボット弁護士。」2023年、DonotPayはAIを使用してスピード違反のケースを主張し、チャットボットにスマートフォンを介して議事録を聴き、被告にEarpieceを介して指示する計画を発表しました。スタントはキャンセルされました州の検察官が、CEOのJoshua Browderが、先に進むことができれば、不正な法律の慣行で起訴される可能性があると警告した後。

実験のキャンセルにもかかわらず、DonotPayはまだお湯でいることに気づきました連邦取引委員会(FTC)のAIテクノロジーに対する取り締まり昨年9月。けれど、FTCによると、DonotPayは、「2,000億ドルの法的産業を人工知能に置き換える」と主張したと言われています。FTCは、そのサービスが約束したものを提供できず、その出力を人間の弁護士の仕事に置き換えることができないことを発見しました。

「[i] FAクライアントは、「法的助言を与えた」生成的AIツールと直接対話することであり、そのツールの背後にある法人は法的助言を与えることを目的としています」とブレンダトロンソンはMashableに語り、一般的にAIと法律の問題について話しました。ニューサウスウェールズ大学の法律と司法の上級講師とシドニーのレベル22チャンバーズの法廷弁護士は、法的倫理と公法を専門としています。

「その法的機関がアドバイスを与える資格がなければ、私の見解では、彼らは資格のない法的慣行に従事し、その行為の責任を負うでしょう。」

生成AIチャットボットは、法的な質問に答えようとしています

LawConnectのCEOであるクリスチャンベックは、10月にMashableが彼に話しかけたとき、DonotPayのことを聞いていませんでした。それでも、彼は会社がLegal AIチャットボット素人は同じ問題に遭遇するでしょう。

「明らかに、法的助言を与えている弁護士であると主張する非弁護士を止める法律がある」とベックはマシャブルに語った。 「しかし、ChatGptのようなものを見ると、それはすべての法的質問に答えているのですか?そして、彼らはそれに縛られていません。だから私たちがしていることは、AIの答えを資格のある弁護士からの検証と組み合わせていることです。」

昨年10月に発表されたLawConnectのAIチャットボットは、ユーザーの法的質問に答えることを目指しています。 AIは即時の回答を提供しますが、ユーザーは確認と潜在的なさらなる行動のために、実際の人間の弁護士に問い合わせを送信することを選択できます。チャットボットはOpenAIのAPIを使用し、インターネットから公開されている情報についてトレーニングされていますが、Beckは、弁護士の確認された回答がAIに戻され、将来同様の質問に正しい回答を提供する可能性が高くなることを強調しました。

「あなたの法的問題を説明するだけで、AIが作成したパーソナライズされたレポートを受け取り、それをレビューして検証するオプションを受け取ります。」州のWebサイト。

参照:

ベックは、LawConnectが法律のすべての分野でグローバルに利用可能になっているため、必要に応じてOpenaiのAIモデルを使用していることに注意してください。それでも、彼はこの大規模で複雑な取り組みにda然としていませんでした。

「私たちは確かに、私たちがそうでないときに私たちが弁護士を言っていると言っていません」とベックは言いました。 「私たちは、これらは別のAIソースから得られるようなAIの答えであると彼らに言っていますが、私たちが言っているのは、私たちが弁護士と一緒にそれらを検証していることであり、私たちは常に資格のある弁護士を使用して質問を確認しています。」

Lawconnectのウェブサイトの下部にある免責事項は、そのコンテンツは「情報提供のみを目的としており、法的助言の代わりとして依存すべきではない」と述べています。それでも、このツールは、企業がこの地域を探求し続けるにつれて、AIアシストされた法制度がどのように見えるかを垣間見ることです。

幻覚AI弁護士

An illustration of a person with a computer monitor for a head (symbollising AI) looking confused.

クレジット:J。Hazelwood / Mashable Composite;ゴロデンコフ、イストック /ゲッティ

AIチャットボットのインスタント回答は利便性を提供しているように見えますが、幻覚現在、法制度をよりアクセスしやすくする際に、このようなツールの有用性を制限しています。幻覚は、アルゴリズムが真であると提示する偽のAI生成コンテンツです。これらのツールが実際に生成するものを実際に理解していないことを考慮すると、一般的な問題です。

「法的支援を求めている人がこれらのツールを使用し、出力を評価または検証しない場合、それらがそれらのツールを使用しなかった場合よりも悪い位置になる可能性があります」とTronsonはMashableに語った。

マッシャブルなライトスピード

しかし、そのような検証を行うべきベテランの弁護士でさえ、誤ったAIに生成された情報の犠牲になりました。すでによく公表されたケースが複数ありました弁護士は、生成AIを不適切に適用しています技術を理解していない

2023年6月、2人の弁護士に5,000ドルの罰金が渡されました存在しない法的訴訟を引用した提出提出。弁護士認められたChatGptを使用して研究を行うことで、AIツールによって完全に発明されたソースに依存しています。 P.ケビン・カステル裁判官は、彼らの真実性が疑問視された後でも、加工された事件に立ち向かい続けていると批判し、弁護士が悪意を持って行動したと非難した。

「[w] eは、テクノロジーが布全体からケースを作ることができると信じられないことに誠実な間違いを犯しました」声明で言った当時のカステルの特徴づけに反論します。

このような声明は、コンテンツを作成するために特別に設計されており、効果的に事実選択することができない生成AIの性質に関する明確な誤解を示しています。

AIチャットボットのインスタント回答は利便性を提供しているように見えますが、幻覚などの問題は現在、そのようなツールの有用性を制限しています...

このような例にもかかわらず、弁護士は自分自身の不利益にAIに頼り続けています。 2023年後半、別の弁護士は、偽の事件を引用していたと伝えられています彼のクライアントは、元トランプの弁護士を拒否したマイケル・コーエン、 持っていたGoogle Bardを使用して生成されました。この2月、米国の法律事務所Morgan&Morganは、従業員が盲目的に信頼しているAIの後に警告しました。その主任弁護士の一人は、ChatGptによって発明された事件を引用しているように見えました

「いくつかの法律実務家は非常に知識が豊富で、[AIツール]をよく使用していますが、他の人はまだツールの理解や認識が非常に限られており、ほとんどがその間のどこかに落ちています」とTronsonはMashableに語った。

TronsonはLawConnectやNexlawのCopilot自身を試していませんでしたが、そのような専門的なAIシステムは、ChatGptのようなツールよりもすでに使用が多い可能性があることに注意しました。

「私が実証した出版社のツールは、より閉じ込められた情報のセットで訓練されており、ソースとリンクを提供します」とTronsonはMashableに語りました。 「これらの2つの機能が適用されるツールは、一般にChatGPTよりも便利です。これにより、幻覚が制限され、情報の検証が容易になります。その時点で、ツールは結果のリストではなく、結果に関するテキスト(そのテキストが正しくない場合)を提供する検索エンジンになります。」

この限られた利益は、特にテクノロジーを考慮して、法的AIツールの有用性に疑問を投げかけます法外な環境コスト同様に、法律の誤りに対する潜在的に悲惨な結果。しかし、Tronsonは、そのようなツールが最終的により多くのユーティリティを提供するポイントまで改善される可能性があることを認めました。

「現在のツールからのツールや、出力の信頼性または品質が改善される可能性があります」とTronson氏は述べています。 「それが発生し、責任の問題にさらされた場合、それらはより良いアクセシビリティに貢献する可能性があります。同様に、法的援助やコミュニティの法的センターなどの組織を支援するために生成的なAIツールが開発された場合、それらの組織はより多くの人々を助けることができます。

法律専門家のためのツールとしてのAI

SXSWシドニーのNexlawのCopilotとMerjaneの戦いは、議論を執筆した人を隠す努力をしませんでした。それでも、携帯電話の使用中の運転の申し立てに対するどの防御が人間によって作成され、それがAIからのものであったことは明らかに明らかでした。

硬い言語を除いて、Copilotは、誤った法律を引用したり、間違った状態で法律を参照するなど、明らかなつまずきをしました。その防衛はまた、被告の配偶者の証言と彼らが運転した車の種類に焦点を当てており、彼らのと主張してメルセデスベンツ's bluetoothとりんごCarPlay機能は、電話と手動でやり取りする必要がないことを意味していました。

対照的に、Merjaneは、ドライバーの手にアイテムを積極的に識別できないことを強調して、疑わしい犯罪の写真を提示しました。彼女はまた、被告の電話記録を引き上げて、写真が撮影された時点では電話がかかっていないことを示し、彼のクリーンな運転記録を引用しました。メルジャネは、裁判官の質問にも大幅に迅速に答えました。

どの防御が人間によって作られ、それがAIからのものであったかは明らかに明らかでした。

幸いなことに、NexlawのLegal AI Trial Copilotは弁護士に取って代わるつもりはありません。そのウェブサイトが述べているように、「Copilotは、人間の法律専門家の仕事を補完し、増強するように設計されています。

「法的代理のコストを考えると、AIが裁判へのアクセスの改善を支援する大きな可能性があることは明らかだと思います」と、UTSの法学部のDavid Lindsay教授は述べました。

「しかし、この段階で、そしていくつかの点で、今日の午後のプレゼンテーションは誤った二分法を提示します。近い将来には、AIシステムと一緒に働く訓練された弁護士が関与します。

法的AIおよび非人間化法の倫理的意味

情報の質とは別に、法的AIアルゴリズムが分配される可能性があるため、そのようなツールは倫理的な問題を引き起こします。責任と機密性は、AIの法的慣行への統合をめぐる重大な懸念事項です。

Tronsonによると、法的AIには2つの主要な機密性の懸念があります。 1つ目は、AIシステムがそれに入力された情報を保持しているかどうかです(およびそのサーバーが該当する法的管轄権と同様に)。 2つ目は、特に機密情報が不注意に開示される可能性がある場合、AIアルゴリズムのトレーニングにそのような入力がどの程度使用されるかです。

「最初の懸念を管理することができます」とTronsonは述べ、AIツールの契約上の条件が重要であると述べました。 「発生する後者の懸念の可能性は低くなければなりませんが、特定のシステムがどのように機能するかについての知識がなければ、これは評価が困難または不可能です。」

Tronson氏によると、裁判所と専門機関の指導者は、法的実務家のAIツールに対する理解を構築する上で不可欠です。それでも、彼女は、AIを使用することは、証人の声明を書くなど、あらゆる状況で非倫理的である可能性が高い状況があると考えています。

裁判所と専門機関のリーダーシップは、法的実務家のAIツールの理解を構築する上で不可欠です。

昨年10月、ニューヨークの裁判官が専門家の証人をre責しましたMicrosoftの副操縦士を使用して、損害の評価を生成しました不動産ケースで。

ニュアンスとAIの限界を理解することは、その効果的で公正な適用に不可欠です。同様に、人間の行動と法律におけるニュアンスの理解は、法制度の効果的で公正な適用に不可欠です。 AIには法律を「民主化」する可能性がありますが、この技術は同様に非人間化するという同様に大きなリスクをもたらします。

「弁護士を買う余裕がない人のために、AIは助けることができます」と米国最高裁判所で米国最高裁判所で認めたジョン・G・ロバーツ連邦司法に関する2023年の年末報告書。 「テンプレートや裁判所のフォームを見つける場所、それらを記入する方法、裁判官へのプレゼンテーションのためにどこに持ち込むかなど、基本的な質問への回答を提供する新しい、非常にアクセスしやすいツールを推進します…

「しかし、AIの使用には注意と謙虚さが必要です」と彼は続けた。 「[l] egalの決定には、多くの場合、人間の判断の適用が必要な灰色の領域が含まれます。」

AIチャットボットはあなたの弁護士を置き換えることができますか?

An illustration of a person with a computer monitor for a head (symbollising AI) standing next to a person they're representing before a judge.

クレジット:J。Hazelwood / Mashable Composite;ゴロデンコフ、イストック /ゲッティ

SXSWシドニーでの実験は、合法的なAIチャットボットには、人間の弁護士と競争する前に、まだ何らかの方法があることを明確に示しています。 Nexlawが主張するように、これらのツールは現在、それらに取って代わるのではなく、人間の法律専門家を支援することを目的としています。しかし、AIが前進しても、弁護士を完全に置き換えることは、引き続き危険な見通しであり続けるでしょう。

広く流通している引用1979年のIBMプレゼンテーションに起因します宣言:「コンピューターは決して説明責任を持たないため、コンピューターは管理の決定を下さないでください。」同様に、弁護士をAIに置き換えると、事態がうまくいかないときに誰が責任を負う可能性があるかという問題が発生します。生成的AIの状態と、テクノロジーの広範な誤解を考慮すると、事態は間違っているに違いありません。

「私の観点から見ると、最も重要なことは、弁護士がツールが「考えない」ことを覚えておくことであり、実務家は常に出力をどのように使用するかに関して自分の判断と批判的思考を行使しなければならないことを覚えておくことです」とTronson氏は述べています。 「開業医が批判的思考と自分の判断を適用している限り、生成AIには適切な用途があります。」

などのクリエイティブとは異なりますアーティスト作家、 そしてミュージシャン、職業が自動化に落ちた場合、弁護士を嘆く人は少なくなります。それでも、そのような死は根本的に法制度を変え、その中で働く人々だけでなく、それとやり取りする理由がある人に影響を与えます。