서로 싸우는 인공지능(AI) 개발로 사생활 보호 한다.

이 AI를 앱(App) 또는 웹(Web) 사이트에 오픈소스로 개인 정보 보호 필터로 사용할 수 있기를 희망

2018-06-10     최창현 기자
사진은 왼쪽의 원본 얼굴 이미지, 가운데는 AI가 변형시킨 사생활 보호 이미지로 사람 눈으로는 분간이 되지 않을 정도로 미세하게 변형, 오른쪽은 인식 AI가 얼굴 인식에 필수적인 부분 전체를 변형 시켰다(사진:논문 캡쳐, 편집:본지)

최근 인공지능(AI) 얼굴 인식 기술이 더 좋아지고 더 정확해지면서 앱과 웹에 대한 사진 또는 비디오 등 개인 정보 보호 및 데이터 보안에 대한 우려와 개인 사생활 침해에 대한 문제가 부각되고 있는 가운데 캐나다 토론토 대학 전기 및 컴퓨터 공학부 부교수인 파람 아라비(Parham Aarabi)가 '동적으로 얼굴 인식 시스템을 방해하는 AI 알고리즘'을 개발했다.

이 솔루션은 대립 학습(adversarial training)이라는 딥러닝 기법을 사용하는데, 두 개의 AI 알고리즘을 사용한다. '얼굴을 식별하는 AI'와 '얼굴 인식 작업을 방해하는‘ 두 가지 신경 네트워크로 두 AI는 끊임없이 싸우며 서로 배우면서 경쟁한다. 그 결과 사생활을 보호하기 위해 얼굴 이미지에 적용할 수 있는 인스타그램(Instagram) 형 필터를 탄생시켰으며, 그들의 알고리즘은 이미지의 매우 특정한 픽셀을 변경하여 인간의 눈에는 거의 감지할 수 없는 변화를 만든다.

'동적으로 얼굴 인식 시스템을 방해하는 AI 알고리즘' 개요

다시 말해, 감지 AI가 인식을 위해 눈의 모서리를 찾고 있다면, 또 다른 AI는 눈의 구석을 조정하는 등 사진에 매우 미묘한 교란을 일으켜 감지 AI의 얼굴 탐지 기능을 비활성화 시켜 얼굴 인식 기반의 특성을 방해, 감지 AI의 인식기능을 무력화할 수 있는 또 다른 AI인 것이다.

아라비는 이 기술을 위해 다양한 인종을 조명 등의 조건과 각 다른 환경을 포함하는 등의 600 개 이상의 얼굴 이미지를 산업 표준 풀인 300-W 얼굴 데이터 세트에서 시스템을 테스트했다. 그 결과 기존 얼굴인식 시스템에서 100 % 인식이 가능했던 인식률을 0.5 %까지 낮출 수 있었다. 결국 이 기술은 얼굴 인식을 비활성화 하는 것 외에도 이미지 기반 검색, 피처 식별, 감정 및 인종, 그리고 자동으로 추출할 수 있는 기타 모든 얼굴 인식 기반의 특성을 방해한 것이다.

한편 연구팀은 이번 연구 결과를 오는 8 월 29일부터 31일까지 캐나다 밴쿠버에서 개최되는 제 20 회 멀티미디어 신호 처리에 관한 IEEE 워크샵 ‘MMSP 2018'에서 발표할 계획이며, 아라미는 "얼마 전까지는 사람이 정의해야 했지만 이제 신경망은 스스로 학습한다. 훈련 데이터 이외에는 신경 회로망을 제공할 필요가 없다."며, 이 AI를 앱(App) 또는 웹(Web) 사이트에 오픈소스로 개인 정보 보호 필터로 사용할 수 있기를 희망한다."고 전했다.

참고) 위 기술 관련 논문명은 'Adversarial Attacks on Face Detectors using Neural Net based Constrained Optimization' 해당 논문(다운받기)