이 인공지능은 훈련된 데이터 세트로부터 얼굴 특성을 인식하는 방법을 배우고 그 정보를 이용해 이미지에 나타난 얼굴 특징을 식별한다. 이를 활용해 분노, 경멸, 두려움, 혐오, 행복, 중립, 슬픔, 놀람 등 8가지 핵심 감정 상태를 인식하게 된다.
산업계에서는 얼굴인식 기술 기반 소비자 감정 상태를 파악하려는 시도가 계속되고 있다. 마케팅 담당자가 매장 디스플레이나 영화, 음식 등에 대한 소비자의 반응을 파악하거나 소셜미디어 사용자가 공유하는 이미지를 보고 감정 상태에 따라 다양한 옵션 콘텐츠를 춘천하는 등의 소비자 서비스를 쉽게 만들 수 있기 때문이다.
첨단 과학기술의 총아라는 인공지능(AI)은 정말 감정을 파악할 수 있을까.
얼굴 표정 분석 알고리즘을 연구하는 마르티네즈 교수는 16일(현지시간) 미국 시애틀에서 개최한 미국과학진흥회(AAAS) 연례회의에 참석해 이같은 연구 결과를 발표했다.
연구팀은 사람의 얼굴에 나타나는 다양한 안면 근육운동을 역학적으로 분석하고 이를 사람의 실제 감정과 비교했지만 대부분의 비교 모델이 틀렸다는 사실을 발견했다.
연구팀은 35개국에 거주하는 400만 명의 표정을 수집하고 분석해 피험자의 표정 상태와 피사체의 감정을 비교했다. 그 결과, 표정과 감정은 연동하지 않았고 얼굴에서 감정을 감지하는 시도는 거의 대부분 실패했다고 설명했다.
마르티네즈 교수는 "모든 사람은 처한 상황이나 문화적 배경에 따라 다른 표정을 짓는다. 미소를 짓는 것이 꼭 행복하다는 것을 의미하지는 않는다"며 "그렇다고 미소를 짓지 않으면 불행한 것인가. 행복하다고 해서 하루종일 미소를 지은 채 돌아다니는 것은 아니다"라고 말했다.
많은 IT 기업이나 스타트업들이 AI를 활용해 표정으로 고객만족도를 측정하거나 범죄수사 시스템 등을 개발하려는 시도에 대해 그는 "표정에서 속내를 읽을 수 있다는 주장은 터무니 없다"며 "보안 카메라가 많은 도시에서 이것이 잘못 사용되어질까 우려된다. 앞으로 표정으로 사람을 구분하고 판단 한다면 매우 위험할 것"이라고 경고했다.
표정만으로는 파악이 어려웠던 연구팀은 '안색(complexion)'을 활용했다. 사람이 감정을 느끼면 뇌에서 혈류와 혈액 운동을 변화시키는 펩티드 등 호르몬이 방출돼 얼굴색이 변한다는 점에 착안했다. 결과는 역시 부정확했다.
마르티네즈 교수는 표정에 안색을 추가했지만 이 역시 부족했다고 말했다. 예를 들어 축구선수 이미지를 얼굴만 확대해서 보면 무언가에 화난 표정으로 얼굴색이 '누르락붉으락' 해진 것으로 전달된다. 실제로는 그가 얼굴이 벌개질 정도로 달려가 득점을 한 뒤 기쁨의 세리머니를 하는 모습이다. 여기에 사람마다 다른 신체의 자세나 표현, 여러 상관적 연관성(context)이 미치는 영향도 적지 않다는 점을 이해해야 한다고 그는 덧붙였다.
컴퓨터 비전 기술을 활용한 AI는 여전히 성별과 인종, 피부색 등에 따라 편중된 결과물을 내놓고 있다는 점도 우려할만 하다. 매 년 수 천 명의 미아가 발생하는 인도에서 경찰이 얼굴인식 기술을 활용해 3000여 명의 미아 신원을 확인했다거나 테러방지, 무인 상점 등 무인 기술 발전이 가져올 편의성을 감안하더라도 인간이 제공하는 훈련 모델에 따라 결과가 달라지는 오류에 빠질 위험이 높기 때문이다.
마르티네즈 교수는 "나는 지금도 사람의 감정과 사회적 의미를 이해하는 알고리즘을 개발할 수 있다고 믿고 있지만, 이 기술에 대해 알아야 할 중요한 것 두 가지 있다"며 "사람의 마음을 종잡으려면 표정만으로는 결코 부족하고 100% 정확도를 달성 할 수 없다는 것"이라고 말했다.