法律AIとは何か
「法律に強いAI」と言われるものには大きく2種類あります。一つは汎用LLM(ChatGPT・Claude等)に法律の質問をするもの、もう一つは法律データに特化して設計された専門AIです。両者の仕組みと限界を理解することで、AIを正しく活用できるようになります。
汎用LLMが条文を「読む」仕組み
GPT・Claudeなどの大規模言語モデルは、インターネット上のテキストデータから統計的なパターンを学習しています。法律の条文もトレーニングデータに含まれているため、条文の「意味」を統計的確率で推測して回答できます。ただし、これは「理解している」のではなく「もっともらしい続き」を生成しているに過ぎません。
RAG(検索拡張生成)——正確性を上げる技術
RAG(Retrieval-Augmented Generation)は、AIが回答を生成する前に、外部データベースから関連情報を検索して参照する技術です。法律AIにおいては、e-Gov法令データベースや判例データベースをリアルタイムで検索し、その結果を基にAIが回答を生成します。これにより、ハルシネーションを大幅に減らすことができます。
RAGなし(通常のLLM)
RAGあり(検索拡張)
ファインチューニング
法律AI特有の課題
- 解釈の一義性問題:条文は複数の解釈が可能であり、AIは「一つの正解」として回答してしまうことがある
- 判例の動態性:最高裁判例は変更されることがあり、古い判例が「正しい」とAIが示し続ける問題
- 管轄・手続きの地域差:民事訴訟の管轄・手続費用など地域によって異なる情報の処理
- 秘匿特権の問題:弁護士との会話は法的に保護されるが、AIとの会話は保護されない(秘密保持の問題)
Elencoのアプローチ
Elencoは汎用LLM(Claude)にRAGを組み合わせ、e-Gov法令データを直接参照しながら回答を生成する設計を採用しています。AIが条文を引用する際には、参照元の法令名・条文番号を明示し、学習者が一次資料を確認できるようにしています。「AIの補助で法律を学ぶ」という思想を、プロダクト設計の根幹に置いています。
法律AIを使うときは、常に「これはどの条文・判例に基づいているか」を確認する習慣が重要です。Elencoでは、AIの回答に条文ソースを必ず付記しています。