IT News

얼굴인식 AI를 속이는 AI? 기만 공격 가능하다

Attacker 2020. 1. 16. 14:13

 

얼굴인식 AI를 속이는 AI? 기만 공격 가능하다

 

 

- 기사 본문 : https://www.boannews.com/media/view.asp?idx=85797&page=1&kind=2

 

얼굴인식 AI를 속이는 AI? 기만 공격 가능하다

공주대 최대선 교수는 얼굴에 몇 개의 점을 붙여 얼굴인식 AI가 다른 사람으로 인식하게 만드는데 성공했다고 밝혔다. 연구팀이 개발한 공격자 AI에 얼굴 사진을 입력하면 얼굴에 붙일 점 스티커를 만들어 주고, 점을 붙일 위치를 알려준다. 공격자 AI가 알려준대로 얼굴에 점 스티커를 붙이면, 얼굴인식 AI는 전혀 다른 사람으로 인식하게 된다.

www.boannews.com

 

- 기사 요약

공주대 최대선 교수는 얼굴에 몇 개의 점을 붙여 얼굴인식 AI가 다른 사람으로 인식하게 만드는데 성공했다고 밝혔다.

 

연구팀이 개발한 공격자 AI에 얼굴 사진을 입력하면 얼굴에 붙일 점 스티커를 만들어 주고, 점을 붙일 위치를 알려준다. 공격자 AI가 알려준대로 얼굴에 점 스티커를 붙이면, 얼굴인식 AI는 전혀 다른 사람으로 인식하게 된다.

 

보안 분야에서는 이미지나 보이스에 약간의 변형을 가해 딥러닝 AI를 속일 수 있는 기만 공격이 가능하다고 알려져 왔으며, 기만 공격을 통해 자율주행 자동차가 좌회전 표지판을 우회전으로 인식하게 되는 등 심각한 문제를 야기할 수 있어 AI의 보안 취약점으로 지적되고 있다.
이러한 변형 데이터를 적대적 예제(adversarial example)라고 부르며, AI를 기만하는데 사용한다. 공격자 AI가 어떻게 변형해야 하는지를 자동으로 찾아주므로 이러한 적대적 예제를 쉽게 생성할 수 있으며, 이를 방어하는 것도 어렵다고 알려져 있다.

 

연구팀을 이끈 최대선 교수는 “이러한 기만 공격 이외에도 AI의 오동작을 유발하거나 학습에 사용된 데이터를 추출해 프라이버시를 침해하는 등 여러 가지 AI 보안 취약점이 알려져 있다”며, “최근 AI에 대한 국가적 관심과 산업계의 적용이 활발한 가운데 AI 보안 문제에 대해서도 심각성을 인식하고 대비해야 한다”고 말했다.

 

 

- 개인 의견

현재 AI 기술은 많이 발전되고, 우리 생활에서도 쉽게 찾아볼 수 있게 되었다.

가장 쉬운 예로, 이세돌 9단과 대국을 알파고가 있으며, 가정집에서는 AI 스피커인 '기가지니', '클로바', '누구' 등을 사용하는 것을 심심찮게 볼 수 있으며, AI 기술의 발전으로 우리 생활이 편리해지고, 풍족해진 것은 사실이다.

 

하지만 자율주행과 같은 사람의 생명이 걸린 문제는 다르게 봐야한다고 생각한다. 정말 위급한 상황에 판단할 수 있는 능력의 한계가 결국 AI로 학습한 기계가 사람의 생각을 따라가는 것이 힘들 것이라 판단되기 때문이다. 그리고 여전히 문제가 되는 내용이지만, 이러한 AI 기계로 인한 사고 발생 시, 그 책임은 누구에게 있느냐도 아직은 정확하게 판별할 수 없다.

따라서 사람의 생명과 직접적으로 연결되어 있는 부분에 대한 AI 기술의 적용은 아직 조심스럽지 않나 생각된다.

 

 

- 관련 기사

 · 금융보안원 "AI 악용한 '딥페이크' 금융권 공격 위험 증가"

 · 2020년 보안위협 대응, AI 및 위협 인텔리전스 전략 필요하다