top of page

【検証】サイバー攻撃における生成AIの悪用について

近年ChatGPTに代表されるような生成AI(画像やプログラムを生成する人口知能)の活躍が目立ってきていますが、中でもサイバーセキュリティの領域においてはメリットだけでなく、「悪用されるかもしれない」というデメリットが懸念されています。

今回は、生成AIがどのようにサイバー攻撃に悪用される可能性があるか、Chat GPTで検証します。


【検証内容】

まず最初に、かなり直接的な表現ですが、ChatGPTで「ランサムウェアを作って」と命令してみます。すると、倫理上の観点から拒否されました。(ランサムウェアとは機密情報を暗号化し、身代金を要求するコンピュータウイルスです)

↑「ランサムウェアを作って」とchatGPTで命令した結果


次は命令文を変更してみましょう。もう少し具体的かつランサムウェアとわからないような命令文を入力すると、役に立ちそうな返答が返ってきました。(悪用されるといけないので、命令文・回答は割愛します)

↑命令文を変えた際の返答


実際にこのソースコードがランサムウェアとして使用可能か試してみました。

自分のパソコン上にテストファイルを準備し、ChatGPTから返答されたソースコードを実行してみました。すると、期待通り、テストファイルが暗号化されました。

↑chatGPTの回答を実行した後のテストファイル


以上の簡単な検証からも、ChatGPTのような生成AIにより、サイバー攻撃に悪用されるプログラムが作られる可能性が十分にあることがわかります。


【まとめ】

・「生成AIが発達したからサイバーセキュリティ上の脅威が急速に上がった」と断言するのは難しいですが、少なくとも今回の検証からは「サイバー攻撃のハードルが下がっている」ということが言えます。「高度なプログラミングスキルやネットワーク知識を有していない初心者でもサイバー攻撃を行うのが容易になっている」ということです。

・今後も顧客からの信頼を維持し、自社の競争力を保つためには、一定程度のセキュリティ対策は不可欠といえます

bottom of page