'모델 탈취공격'에 해당되는 글 1건

  1. 2020.10.14 머신러닝, AI를 속이는 공격

최근 MBN김주하 앵커의 모습에 스크립트를 읽어 내려가는 음성을 덧씌운 가상의 캐스터, 일명 김주하 AI 앵커를 보고 놀람을 금하지 않을 수 없었습니다. Deep fake 기술로 저명인사를 가장한 fake news를 생산하기도 하지만, 이제는 AI를 통해 누군가를 대체할 수 있는 세상이 되어가고 있습니다.

 

올해 RSAC 컨퍼런스에서 머신러닝을 겨냥한 3가지 공격으로 회피공격 (evasion attack), 모델 탈취공격 (model stealing attack), 중독공격 (poisoning attack)에 대해 논의 한바 있습니다. 

 

머신러닝 및 AI기술이 보안에도 서서히 적용되는 시점에서, 앞서 언급한 3가지 공격이 보안에 적용될 머신러닝 및 AI에 어떤 영향을 줄 수 있을지 여겨 볼 필요가 있습니다.

- 회피공격은 머신러닝 분석능력 자체를 회피할 수 있도록 패턴을 착각하게 만들 수 있습니다.

- 모델 탈취공격은 머신러닝 및 AI의 분석 및 대응기법을 탈취하여, 보안AI를 연구하고 역공격을 감행할 수 있습니다.

- 중독공격은 머신러닝 및 AI가 학습하는 과정에서 잘 못된 정보를 입력하여 보안분석 및 대응의 오작동을 유발할 수 있습니다.

 

AI 도입을 통해 보안인력의 노동강도를 줄일 수는 있겠으나, 이를 운영할 수 있는 고급인력에 대한 준비와 보강도 필요할 것입니다.

Posted by Cappuccino sapiens
이전버튼 1 이전버튼

블로그 이미지
생각의 전환
Cappuccino sapiens

공지사항

Yesterday
Today
Total

달력

 « |  » 2024.11
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30

최근에 올라온 글

최근에 달린 댓글

글 보관함