重要なお知らせ:GoogleとYahooは2024年4月よりDMARCを義務付けます。
PowerDMARC

ジェネレーティブAIのサイバーセキュリティ・リスク

ジェネレーティブAIのサイバーセキュリティ・リスク
読書時間 6

ジェネレイティブAI技術の新たな力が出現するにつれ、ジェネレイティブAIのサイバーセキュリティリスクも出現している。ジェネレーティブAIは、機械学習(ML)と人工知能(AI)の能力を組み合わせた最先端技術のフロンティアを表している。

私たちは、AI技術が飛躍的に進歩する技術ルネッサンスを迎えようとしている。しかし、ジェネレーティブAIのサイバーセキュリティに関連するリスクは見過ごせない。ジェネレーティブAIの使用や乱用から生じるサイバーセキュリティ上の課題をどのように防ぐことができるのか、この角度から探ってみよう。

ジェネレーティブAIとは何か?

ジェネレーティブAIとは、Generative Artificial Intelligence(生成的人工知能)の略で、既存のデータに似ている、または類似している新しいデータを作成することに焦点を当てた人工知能技術の一群を指す。特定のタスクのために明示的にプログラムされるのではなく、ジェネレーティブAIモデルは学習されたデータからパターンや構造を学習し、その学習された知識に基づいて新しいコンテンツを生成する。

生成AIの主な目的は、実際のデータと見分けがつかないようなデータを生成し、あたかも人間が作成したかのように見せかけたり、元のデータと同じ分布から得られたかのように見せかけたりすることである。この能力は、自然言語生成、画像合成、作曲、テキストから音声への変換、さらには動画生成など、さまざまな領域で数多くの応用がある。

なぜジェネレーティブAIがサイバーセキュリティの次なる脅威となるのか?

GPT-3、GPT-4、その他のジェネレーティブAIツールは、ジェネレーティブAIのサイバーセキュリティリスクやサイバー脅威と無縁ではない。企業は、ジェネレーティブAIに関連する重大なサイバーリスクを回避するためのポリシーを導入しなければならない。

マイクロソフトのチーフ・セキュリティ・アドバイザーであるテレンス・ジャクソンがフォーブスの記事で強調しているようにマイクロソフトのチーフ・セキュリティ・アドバイザーであるテレンス・ジャクソンがForbesの記事で強調しているように、ChatGPTのようなプラットフォームのプライバシー・ポリシーは、IPアドレス、ブラウザ情報、ブラウジング・アクティビティといった重要なユーザー・データの収集を示している、 これらは第三者と共有される可能性がある。

ジャクソンはまた、ジェネレーティブAIがもたらすサイバーセキュリティの脅威についても警告している、 攻撃対象が拡大し、ハッカーが悪用する新たな機会が提供される。

さらに 月のワイアードの記事は、これらのツールの脆弱性を明らかにし、ジェネレーティブAIのサイバー・リスクを強調した。

わずか数時間で、セキュリティ研究者がOpenAIの安全システムを迂回し、GPT-4を操作したことで、潜在的なジェネレーティブAIのサイバー脅威と強固なサイバーセキュリティ対策の必要性が浮き彫りになった。

ジェネレーティブAIのサイバーセキュリティ・リスク トップ7を発表

ジェネレーティブAIは問題解決のための強力なツールだが、いくつかのリスクもある。最も明白なリスクは、知的財産の窃盗や詐欺など、悪意のある目的に使用される可能性があることだ。

フィッシング・メールの作成

ジェネレーティブAIの最大のサイバーセキュリティリスクは、フィッシングの発生である。

フィッシングの脅威は現実であり、なくなることはない。

電子メールやその他のデジタル・コミュニケーションを利用して製品やサービスを販売する企業が増えるにつれ、犯罪者は個人情報を提供させるために人々を騙す手口も巧妙になってきている。

最も一般的な詐欺は「フィッシング」と呼ばれ、信頼できる情報源(銀行など)から送信された偽の電子メールに添付ファイルやリンクが含まれていることが多いため、合法的に見えますが、実際には偽のウェブサイトにつながり、そこで認証情報を入力してアカウントにアクセスします。

モデルの操作と毒物混入

ジェネレーティブAIのサイバーセキュリティ上の主要なリスクの1つは、モデルの操作とポイズニングである。この種の攻撃には、既存のモデルを操作または変更して、誤った結果を生成させることが含まれる。

例えば、攻撃者は、ある画像を、あなたのデータベースにある別の画像に見せかけることができます。攻撃者は、ネットワークや組織に対する攻撃戦略の一環として、これらの操作された画像を使用することができます。

敵対的攻撃

ハッカーが機械学習システムの弱点を突こうとするため、機械学習アルゴリズムに対する敵対的な攻撃が一般的になりつつある。

敵対的な例(アルゴリズムに間違いを犯させたり、データの分類を誤らせたりする攻撃)の使用は、AI研究の初期から行われてきた。

しかし、敵対的な攻撃がより洗練され、強力になるにつれ、生成モデルやチャットボットを含むあらゆるタイプの機械学習システムを脅かすようになる。

プライバシー侵害

生成モデルに関する一般的な懸念は、個人や組織に関する機密データを不注意に開示してしまう可能性があることだ。

例えば、ある組織が生成モデルを用いて画像を作成したところ、誤って顧客や従業員に関する機密情報が漏洩してしまったとする。

そうなれば、プライバシー侵害や損害賠償訴訟に発展する可能性がある。

ディープフェイクと合成メディア

生成モデルは、ディープフェイク(フェイクビデオ)や合成メディア(フェイクニュース)に使用できるフェイクビデオや音声記録を生成することで、悪意のある目的に使用することもできる。

これらの攻撃の背後にある技術は比較的単純である。誰かが悪意のあるコンテンツを作成し始めるには、適切なデータセットといくつかの基本的なソフトウェア・ツールにアクセスする必要がある。

知的財産の窃盗

知的財産の窃盗は、今日のテクノロジー業界における最大の懸念事項のひとつであり、人工知能がより高度になるにつれて増加の一途をたどるだろう。

ジェネレーティブAIは、人間には本物で通用するように見える偽のデータを生成することができる。

このデータ型は、医療、金融、防衛、政府など様々な業界で利用される可能性がある。偽のソーシャルメディア・アカウントを作ったり、オンライン上で個人になりすましたりすることもできる。

生成コンテンツの悪意ある利用

ジェネレーティブAIは、ウェブページやソーシャルメディア上のテキストや画像内の単語やフレーズの意味や文脈を変更することで、コンテンツを操作することもできる。

例えば、画像にキャプションを自動生成するアプリケーションを使ったとする。キャプションを編集するだけで、写真そのものを変更することなく、キャプションを「白い犬」から「黒い猫」に変更することができる。

ジェネレーティブAIのサイバーセキュリティリスクに対する防御を強化する方法

このような懸念の高まりを受けて、組織はこれらのリスクに対する防御を強化しなければならない。

そのためのヒントをいくつか紹介しよう:

DMARCへの切り替え

DMARCは、独自ドメインを装ったなりすましメールやフィッシング攻撃を防ぐためのメール認証プロトコルです。

DMARCアナライザ DMARCアナライザーDMARCアナライザーを導入することで、企業は許可された送信者のみが自社のドメインをメール通信に使用できることを保証し、AIが生成するフィッシングメールに関連するリスクを最小限に抑えることができます。

DMARCは、ドメイン所有者が電子メール配信に関するレポートを受け取り、電子メールのセキュリティを強化するために必要な措置を講じることを可能にすることで、追加の保護レイヤーを提供し、それによって生成的なAIのサイバーセキュリティリスクに対する盾として機能する。

のいずれかを実装する必要があります。 SPFまたは DKIMまたはその両方(推奨)を実装する必要があります。

セキュリティ監査の実施

ハッカーによるシステムへのアクセスを防ぐもうひとつの方法は、サイバーセキュリティ監査を実施することである。 サイバーセキュリティ監査である。

これらの監査は、システムの潜在的な弱点を特定し、それらが大きな問題になる前にパッチを当てる方法を提案するのに役立ちます。 マルウェアを提案します。)

敵対的トレーニング

敵対的トレーニングとは、敵対的攻撃をシミュレートし、モデルを強化する方法である。敵対者(または攻撃者)を使い、間違った答えを与えてシステムを騙そうとする。目的は、よりロバストなモデルを設計するために、モデルがどのように反応するか、その限界は何かを見つけることである。

ロバストな特徴抽出

もう1つのソリューションは、ロバスト特徴抽出(RFE)だ。RFEはディープラーニングを用いて生画像から関連する特徴を抽出する。この技術はスケーラブルで、大規模なデータセットに使用できる。また、特徴抽出の精度を向上させるために、VTS(Verification Through Sampling)やOD(Outlier Detection)などの他の技術と組み合わせることもできる。

セキュアモデル・アーキテクチャ

セキュア・モデル・アーキテクチャ(SMA)は、セキュア・モデル・アーキテクチャを使用して、ソフトウェア・コード、データ・ファイル、またはAIシステムのその他のコンポーネントの脆弱性を悪用する攻撃を防止します。SMAの背後にある考え方は、攻撃者はシステム自体の弱点を悪用するだけでなく、コードの脆弱性を見つける必要があるということです。包括的な ソフトウェアコード監査サービス を採用することは、AIシステム内の脆弱性を特定して軽減し、高度なサイバー脅威に対する生成AIテクノロジーの整合性とセキュリティを確保するために不可欠です。

定期的なモデル監査

モデル監査は、長年にわたってサイバーセキュリティにとって不可欠な部分である。これは、システムで使用されているモデルが健全で最新であることを確認するために、そのモデルを検査することを含む。モデル監査は、モデルの脆弱性を検出したり、ハッカーによって破損または変更された可能性のあるモデルを特定するためにも使用できます。

入力検証とフィルタリング

入力検証は、モデルを本番環境にデプロイする前にモデル開発者が取ることができる最も重要なステップの1つです。入力検証は、モデルに入力されるデータが不正確であったり、システム内の脆弱性を悪用しようとするハッカーによって悪意を持って変更されたりしないことを保証します。入力フィルタリングによって、開発者はモデルを通して許可されるべきデータタイプを指定することができます。

最後の言葉

この技術は多くの利点と進歩をもたらす一方で、潜在的な脆弱性や脅威への扉を開くものでもある。

説得力のある偽の画像、動画、テキストを作成するジェネレーティブAIの能力は、個人情報の盗難、誤報キャンペーン、詐欺に関する懸念を引き起こしている。

さらに、生成AIの悪意ある使用は、フィッシング攻撃やソーシャル・エンジニアリングといった既存のサイバー脅威を増幅させる可能性がある。

この技術が進化し続ける中、組織や個人は、強固な認証、継続的な監視、定期的な脆弱性評価などのサイバーセキュリティ対策を優先し、ジェネレーティブAIに関連するリスクを軽減しなければならない。

そうすることで、このテクノロジーに内在するサイバーセキュリティの課題から守りつつ、その可能性を活用することができる。

モバイル版を終了する