AIの攻撃をAIで防御、サイバーセキュリティの“いたちごっこ”最新事情
コメント
注目のコメント
「例えば米Adobe Systemsは19年、カリフォルニア大学と協力して、「Photoshopで加工された人間の顔」を検知するツールを発表している。」
「画像だけでなく文章でも同様の例がある。MIT-IBMワトソンAI研究所とハーバードNLPの研究チームは、AIにAIが書いた文章を検知させるという実験をした。」
はい。ただ、それらも例えばAdversarial Attack (敵対的ノイズ生成)の技術によって判定を間違わせることができるということが報告されています。そして、Adversarial Attackを見破る技術の研究もどんどん進展しており、、、とまさにいたちごっこです。
Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples
https://arxiv.org/abs/2002.12749まとめの部分とかはまとまってるんだけどやはりサイバーセキュリティの専門家ではいらっしゃらないので細部がかなり気になりました
リアルとは言えません
DDoS攻撃の文脈は惜しいですね
書くならBotネット構築の過程でオートマトン化しているマルウェアの増殖過程と、侵食すべきかせざるべきかを判断しているというものを取り上げるべきでしょう
上がってきたアラートを見て学習するなんて単純なものでクラウドフレアやakamaiが回避できるならだれも苦労しません
というより最近のDDoSは、一昔前までのストレステストツールを改造した参加型からDNSのリゾルバを利用したアンプ攻撃など、設定不備が目立つインフラの悪用にシフトしています
いつまでもBOT使っているチームなんてもうそうそういないと思うしトップチームはみな後者です
あとDDoSツールの購入ですが、ツール購入はもう古くてサービス型に移行しています
あと株トレードと脆弱性ハントのAI利用についての対比がありますが、これはさすがに似て非なるものです
脆弱性検出には静的コード解析やVM上で実際に動的解析をするなど様々な方法があります
単にコードやPEをデータ比較だけで脆弱性をあぶりだすのが本筋とは言えません映画「博士と彼女のセオリー」のベースにもなったスティーブン・ホーキング博士も最後の論文で「AIが人間を超える可能性を恐れている」と言ってましたが、正に今そうですよね。
新たにAIを使って様々な事をする事は良いですが、その反面AIが人間を超えて暴走するのを止めるのをプログラミングしておかなければいけないと思いますし、それを防げる物を作っておかなければいけないと思います。