AIで契約書のリーガルチェックをやってみようとしたけれど・・・・
AIというのは「人間の思考を模倣するもの」なので、AIが契約書のリーガルチェックをできないはずはないんですね。私は2年ほど前に初めてAIを触ってみたんですが、AIというプログラムが「人間の質問に答える」ということに驚きました。そして、AIは絶対に法務業界で使えると思いました。
当初はAIを質問コーナーのように使っていたのですが、使いはじめて3カ月ほど経った時に、AIに契約書のリーガルチェックをさせるのには、大きな2つの問題があると思いました。
1つは情報量です。法律問題、とりわけ専門的な内容について質問したり契約書のリーガルチェックをするには、AIがそれなりに法律に関する情報を持っていないとダメです。かといって、どのAIにもそのような情報が搭載されているわけではありません。私がAIを使い始めたのはちょうどChatGPT4が発表されたころだったのですが、法律の専門情報に関しては全く不足していました。ですので、AIに法律の専門情報を搭載する必要があります。
もう1つは情報漏洩への対策です。
最近、業務を行っていると、いろんな人が「チャッピーに契約書をチェックさせたので見てください」ということを言ってくるんですが、よくそんな恐ろしいことをするなあと思っています。クラウドAIに契約書を渡すことのリスクを知らないんだろうなと思います。
例えば、ChatGPTに契約書をチェックさせるとします。まず、ChatGPTの質問欄に契約書をドラッグアンドドロップしますね。それで「契約書をチェックして」とプロンプトを打ち込んでリターンキーを押せば、ChatGPTは契約書のリーガルチェックを行います。
そうすると、ChatGPTが搭載されているOpen AIが運営しているサーバに契約書のデータが残るんです。しかも、運営元がのぞき込める状況でデータが残るんですね。この点について、ちょっとAIを知っている方なら「うちは履歴が残らないようにしているから大丈夫だよ」とおっしゃると思います。
でも、OpenAIはChatGPTにデータ(プロンプトも)をサーバ内に30日間残しておいて、OpenAIがデータを読めるようにしているっていうことをご存じでしょうか。
OpenAIの公式ではこのように説明しています。
(https://help.openai.com/ja-jp/articles/8983778-chat-and-file-retention-policies-in-chatgpt)
・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・
チャットは手動で削除するまでアカウントに保存されます。 チャット(またはアカウント)を削除すると、チャットは即座にアカウントから削除され、以下の場合を 除き、30 日以内に OpenAI システムから完全に削除されます。 チャットはすでに匿名化され、あなたとの関連付けが解除されている、または OpenAI は、セキュリティまたは法的義務のためにそれをより長く保持する必要があります。 チャットを削除すると、復元することはできません。チャットを削除すると、保持期間後にチャット履歴 表示とシステムの両方から削除されます。
・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・
つまり、どんな方法を使っても、OpenAIのサーバにデータを入れる限り、そのサーバに30日間データが残るんです。これをOpenAIは「30日以内にシステムから完全に削除されます」と言っていますが、これを「30日以内にシステムから完全に削除されます」とポジティブに捉えるのか、「最高30日間、データが削除されずに残っています」とネガティブに捉えるのか。
その他、例えばAnthropicのClaudeでも同じ定めがあり、Anthropicの公式には、このような記述があります。
・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・
Claudeとのチャットはお客様が管理でき、いつでも会話を削除できます。会話を削除すると、以下のようになります: チャット履歴から即座に削除されます 30日以内にバックエンドストレージシステムから削除されます
・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・・
ということで、OpenAIと同じですね。
30日間の是非
私は弁護士で、絶対に情報漏洩は避けないといけません。その観点からすれば、クライアントの契約書を見て契約者の名前や契約内容を知ることができる状況に置く、しかもその期間が最長30日間というのは、私としては到底了解できないです。
ですので、私以外の第三者がクライアントの契約書の内容を見られる状況でAIを使う、という選択肢はありませんでした。
ではどうすればいいのか?
まず考えたのは、ローカルAI、つまり、パソコンなどにAIモデルを保存して、ウェブを使うことなくAIを使用する、というものでした。
ローカルAIだとインターネットにつながないので、情報漏洩が全くありません。
ローカルAIの大問題点
ご存じの方もいらっしゃると思いますが、ローカルAIのシステムを構築するためには、結構高性能のパソコンが必要になります。私もかなりの大枚をはたいてパソコンを自作しました。
その結果、契約書をAIに読ませてリーガルチェックをするということが可能となりました。
しかし大問題が発生しました。先程の2つの問題点のうちの情報漏洩とは異なる問題、情報量です。
法律関係の情報をAIに搭載していくのですが、実は、AIが一度に理解し記憶できる情報量には上限があります。どの程度が上限かといえば、ざっくりいえば、私の経験上、100万円程度のパソコンにAIを保存して契約書のリーガルチェックに使う場合、AIが判断をする一瞬に理解し記憶できる情報量は、A4版にして800ページ分ぐらいが上限です。法律文書に必要な情報量ってそんなぐらいでは到底網羅できません。
その他、技術的にはいろんな方法があるので、いろいろ試しました。どのようなことを試したのかは、ややこしいITの話になるのでここでは省略しますが、私の結論は、
「能力の高いAIモデルを使って、豊富な情報を理解・記憶させて分析させるのは、ローカルAIでは無理」
ということでした。
AIを使って、的確かつ情報漏洩のない契約書のリーガルチェックを行う方法は?
そこで私は考えました。
(次に続く)