本サイトは、快適にご利用いただくためにクッキー(Cookie)を使用しております。
Cookieの使用に同意いただける場合は「同意する」ボタンを押してください。
なお本サイトのCookie使用については、「個人情報保護方針」をご覧ください。
AI開発におけるセキュリティは従来のシステムと同じ対策だけでは不十分で、AI開発固有のセキュリティがあることを考慮する必要があります。
例えば、攻撃者がAIの学習データを細工することでAIの判断を誤らせる学習データ汚染攻撃や、AI自体にバックドアを設置するモデル汚染攻撃、攻撃者が細工したデータ(敵対的サンプル)をAIに入力することで、AIの判断を誤らせる回避攻撃、そして、大規模言語モデル(LLM)からの情報窃取(Prompt Leaking)や、LLMと連携するシステムに対する攻撃(P2SQL Injection攻撃)など、多くの攻撃手法が存在します。
MBSDは2016年からAIおよびAIシステムに対する攻撃・防御手法の研究・検証を行っており、長年にわたるAIセキュリティのナレッジを活かして「AIおよびAIシステム」を守る各種サービスを提供します。