大手ソフトウェア企業JFrogは、世界最大の公開機械学習(ML)モデルリポジトリーであるHugging Faceとの重要なパートナーシップを発表した。このコラボレーションは、Hugging Faceライブラリー内の全てのMLモデルのセキュリティーと分析を強化することを目的としている。この統合により、開発者、データサイエンティスト、MLエンジニア向けにモデルの安全性と信頼性を示す「JFrog Certified」チェックマークが提供される。
ビジネスアプリケーションにおける安全なMLモデルの重要性は、いくら強調してもし過ぎることはない。これらのモデルは、データ侵害、漏洩、意思決定エラーを防ぐ上で非常に重要だ。JFrogは2023年からHugging Faceと連携して、MLモデルの安全な制作を保証している。2024年にHugging Faceで悪意のあるモデルが発見されたことで、セキュリティーへの注目が高まり、AIアプリケーション開発の全てのモデルの安全性をスキャンして評価することに専念する専門家が増えた。
機械学習により、モデルやデータセットなどの新しいサプライチェーンアセットが導入されるが、これらには独自のセキュリティー上の課題が伴い、組織の攻撃対象領域が拡大する。悪意のある行為者がこれらのMLサプライチェーン領域を利用して、組織内に有害なコードを侵入して拡散し、大規模なデータ侵害や企業スパイ活動を引き起こす可能性がある。
JFrogソフトウェアサプライチェーンプラットフォームの主要コンポーネントであるJFrogのAdvanced SecurityとXrayは、ライフサイクルのあらゆる段階でAI/MLモデル成果物をスキャンして脅威を検出する。これらの脅威には、モデルシリアル化攻撃、既知の共通脆弱性識別子(CVE)、バックドアなどが含まれる。Hugging Faceは、Hugging Face HubでJFrog Advanced Securityスキャンを活用し、プラットフォーム内の各モデルをダウンロードして使う前にスキャンできるようにする。各スキャンの結果は、全てのユーザーに目立つよう表示される。
Hugging FaceとJFrogの高度なセキュリティー統合は、JFrogの悪意のあるコードの逆コンパイルと詳細なデータフロー分析により、既存のMLモデルスキャナーよりも優れている。この強化されたアプローチは、埋め込まれたコードを抽出して分析し、現在のHugging Faceモデルで他のスキャナーによって生成された誤検出の96%以上を排除する。JFrogの強化された分析では、Hugging Faceで使用できる他のスキャナーでは悪意があると識別されなかった25のモデルが、本質的にゼロデイ脅威があると識別された。
企業の80%以上がAIアプリケーションを使用または実験しているにもかかわらず、90%以上がAIセキュリティーの課題に対する準備ができていないと感じている。米国、英国、カナダのサイバーセキュリティー機関は、事前にトレーニングされたモデルに有害なコードがないか注意深くスキャンするよう企業に勧告する警告を発している。
JFrogプラットフォームを使ってHugging FaceのMLモデルスキャンを実行する方法の詳細、またはJFrogのHugging Face統合、悪意のあるAIモデルのスキャン、モデル脅威カテゴリーについて、詳細はこちら
出典:JFrog
この製品の詳細については、製品ページをご覧ください。