2020. 10. 14. 08:24 사이버 보안
머신러닝, AI를 속이는 공격
최근 MBN김주하 앵커의 모습에 스크립트를 읽어 내려가는 음성을 덧씌운 가상의 캐스터, 일명 김주하 AI 앵커를 보고 놀람을 금하지 않을 수 없었습니다. Deep fake 기술로 저명인사를 가장한 fake news를 생산하기도 하지만, 이제는 AI를 통해 누군가를 대체할 수 있는 세상이 되어가고 있습니다.
올해 RSAC 컨퍼런스에서 머신러닝을 겨냥한 3가지 공격으로 회피공격 (evasion attack), 모델 탈취공격 (model stealing attack), 중독공격 (poisoning attack)에 대해 논의 한바 있습니다.
머신러닝 및 AI기술이 보안에도 서서히 적용되는 시점에서, 앞서 언급한 3가지 공격이 보안에 적용될 머신러닝 및 AI에 어떤 영향을 줄 수 있을지 여겨 볼 필요가 있습니다.
- 회피공격은 머신러닝 분석능력 자체를 회피할 수 있도록 패턴을 착각하게 만들 수 있습니다.
- 모델 탈취공격은 머신러닝 및 AI의 분석 및 대응기법을 탈취하여, 보안AI를 연구하고 역공격을 감행할 수 있습니다.
- 중독공격은 머신러닝 및 AI가 학습하는 과정에서 잘 못된 정보를 입력하여 보안분석 및 대응의 오작동을 유발할 수 있습니다.
AI 도입을 통해 보안인력의 노동강도를 줄일 수는 있겠으나, 이를 운영할 수 있는 고급인력에 대한 준비와 보강도 필요할 것입니다.
'사이버 보안' 카테고리의 다른 글
의료기관 랜섬웨어 공격 증가와 효과적인 대응방안 (0) | 2020.10.21 |
---|---|
효과적인 보안강화를 위한 방안, 보안인식 제고 (0) | 2020.10.19 |
The Forrester Wave, 2020년도 4분기 CIAM 평가 (0) | 2020.10.12 |
사이버보안 인식제고의 중요성 (0) | 2020.10.08 |
데이터 침해사고 비용을 절감할 수 있는 주요 3가지 요소 (0) | 2020.10.05 |