近年、目覚ましい進化を遂げている生成AIは、利便性と高い可能性から多くの組織が積極的に導入を進めています。しかし、この技術の急速な普及により新たなセキュリティ上の課題が発生しており、安全性が確保されていない生成AIの利用は、情報漏洩、金銭的損失、風評被害、法的責任といった重大なリスクをもたらす可能性があります。
生成AIの主なセキュリティリスク
AIの利用には特有のセキュリティリスクが存在します。
1. 意図しない情報漏洩リスク
生成AIは入力された情報を学習し、他のユーザーへの応答に活用する場合があります。大規模なデータセットで学習されたモデルが、出力において機密情報を意図せず漏洩させる可能性があります。
2. 攻撃により機密情報を引き出されるリスク
巧妙に作成したプロンプト(指示文)を入力することで、本来アクセスできない情報を引き出される恐れがあります。プロンプトインジェクションと呼ばれる攻撃手法で、従来のセキュリティ対策では防ぐことが困難です。
3. 生成AIモデルとシステムの脆弱性によるリスク
生成AIモデルやそれを運用するシステムには脆弱性が存在する可能性があり、脆弱性を悪用されると不正アクセスやデータの改ざん等の被害につながる恐れがあります。AIモデルの入力をわずかに改ざんすることで、モデルが誤った出力をするように仕向け、AIの挙動を操る敵対的攻撃も存在します。
また、AIが生成したコードをそのまま実行することで、不正プログラムが実行される恐れがあり、AIモデルを通じたマルウェア拡散も新たな脅威となっています。
4. 倫理的および法的な懸念
生成AIの出力が著作権侵害、差別的表現、犯罪への利用、プライバシー侵害等のコンプライアンス上の問題を引き起こす可能性があります。

主要なセキュリティ対策
これらのリスクに対処するために、以下のようなセキュリティ対策が重要となります。
1. プロンプトの機密情報マスキング
ユーザーが入力するプロンプトに含まれる機密情報を検出・マスキング(機密情報を隠す処理)することで、意図しない学習と情報漏洩のリスクを低減します。
2. 脆弱性診断
AIモデルや関連システムの潜在的な脆弱性を診断し、脆弱性の特定と修正を行います。レッドチームテスト(疑似攻撃テスト)やコード診断などが含まれます。
3. 攻撃の防御と監視
プロンプトインジェクションや敵対的攻撃などの悪意のある行為を検出し、防御するための仕組みを導入します。入力の異常検知や悪意のあるパターンの認識、出力の監視などが含まれます。
4. AIガバナンスとアクセス制御
AIの利用に関するポリシーと手順を策定し、アクセス権限を適切に管理することで、不正利用や情報漏洩のリスクを低減します。AIの出力が倫理的・法的な規範に違反しないよう、フィルタリングやコンテンツポリシーの適用、出力の監視などのガードレールを実装します。
また、AI利用のリスクと対策について、従業員教育を行い意識向上による人的リスクを低減します。
5. 業界標準とフレームワークの活用
NIST AIリスク管理フレームワーク(AI RMF)やOWASP LLMアプリケーションTop 10等の関連する業界標準とフレームワークを活用し、AIセキュリティリスクを管理します。
生成AIセキュリティの新たなトレンドと将来
これまで述べました生成AIのセキュリティについては、対策ソリューションが提供され始めており、今後も様々な製品やサービスがリリースされると予想されます。
現時点では有効性や評価が未確立のものも多いため、当社は幅広く情報収集を行い検証のうえ、効果のあるソリューションをご提案できるよう取り組んで参ります。