
ModelScan
複数の機械学習モデルフォーマットに対応した業界初のオープンソーススキャナーで、モデルに潜む悪意あるコードを検出し、より安全なAIデプロイを実現します
主な特徴
マルチフォーマット対応
PyTorch、TensorFlow、Keras、Scikit-Learn、XGBoostなど、主要な機械学習フレームワークのモデルフォーマットを包括的にサポートし、あらゆる環境で安全性を確保します
モデルシリアライゼーション攻撃の検出
モデルの保存・転送プロセス中に注入される悪意あるコードを自動スキャンし、モデルシリアライゼーション攻撃からシステムを保護します
認証情報盗難の防止
クラウド環境への書き込み・読み取りに使用される認証情報が攻撃者に窃取されるリスクを検出し、機密情報の漏洩を防ぎます
データポイズニング対策
モデルのトレーニングデータやモデル実行後に送信されるデータが改ざんされる攻撃を検知し、データの整合性を保護します
モデルポイズニング検出
攻撃によってモデルの出力結果そのものが汚染されることを防ぎ、AIアプリケーション全体への悪影響を未然に阻止します
オープンソースで無料
完全にオープンソースで提供されており、誰でも無料で利用でき、GitHubから簡単に導入を開始できます


コメント
製品への具体的な感想・改善案を歓迎します。トピック外の投稿や 個人・企業への攻撃的なコメントはモデレーションの対象となります。
コメント