네이버 데뷰2018 송창현 네이버 CTO / 네이버랩스 대표 네이버
"기술은 일상의 유익함과 즐거움을 실현하기 위한 도구입니다. 기술의 진정한 가치는 인간의 삶 속으로 들어가 사용자들과 연결될 때 비로소 발현됩니다"
네이버 송창현 CTO(최고기술책임자)는 11일 서울 삼성동 코엑스 그랜드볼룸에서 열린 DEVIEW 2018 (이하 데뷰)에서 네이버가 추구하는 기술의 가치와 방향성을 전했다. 2006년 사내 개발자 기술 공유 행사로 시작한 데뷰는 매년 국내외 개발자 수천여명이 참여하면서 국내 최대 규모의 IT 기술 컨퍼런스로 꼽힌다.
네이버가 추구하는 기술 전략의 핵심은 '생활환경지능(Ambient Intelligence)'이다. 이는 '생활 속 상황과 환경을 인지하고 이해해 필요한 정보와 액션을 적시에 자연스럽게 제공하는 것'이다.
송 CTO는 기조연설을 통해 "PC, 노트북, 모바일로 사람과 정보가 연결되는 도구들이 점점 작아지면서 일상 곳곳에 자연스럽게 녹아 들고 있다"면서 "인간의 의도를 판단하는 일은 더욱 어려워졌고, 서비스 제공자가 위치와 이동, 시간, 상황 등 데이터를 분석해 적절한 정답을 추천해 주는 단계에 이르렀다"며 플랫폼 변화를 설명했다.
기존에는 '검색/질의'에 대한 검색 결과를 보여주는 방식으로 정보를 제공하는 것이 가능했지만, 현재의 질의는 음성, 이미지 등 종류도 다양할 뿐 아니라 그 사람의 위치, 이동 등 다양한 상황과 맥락도 포함하고 있다는 것이다.
검색결과도 적절한 정답과 추천을 제공하는 방향으로 변했다. 송 CTO는 "가까운 미래에는 질의가 없이 맥락만으로 사용자의 의도를 발견해 적절한 행동까지 연결해주는 기술이 필요한 시대가 도래할 것"이라고 전망했다.
네이버는 이를 위해 ▲사물·상황·공간/위치의 인식 및 이해 ▲적시에 답이나 추천, 액션을 제공하는 예측 ▲자연스러운 사용자경험 구현 기술을 연구 개발하고 있다.
예를 들어, 지난 10일 네이버 모바일 첫 화면 개편에서 처음 선보인 '그린닷 (GreenDot)'에는 가상 세계 '온라인'과 실제 생활 터전인 '오프라인'을 연결하는 다양한 AI 기술이 녹아있다.
촬영한 이미지를 분석해 답을 찾아주는 스마트렌즈는 이미지 검색, 문자인식(OCR), 이미지 분류, 객체 인식(object detection) 등 비전 (vision) 분야의 최신 AI 기술이 복합적으로 결합된 서비스다.
AI스피커와 키즈 웨어러블폰 AKI (아키), IVI플랫폼 AWAY(어웨이) 등에 적용된 네이버 AI 플랫폼 클로바는 음성인식과 합성, 자연어처리 등 AI 기술이 들어있다. 클로바의 월간 쿼리는 6300만건에 달한다. 클로바로 컴퓨터나 스마트폰 사용에 익숙하지 않은 유아나 실버 세대도 원하는 음원이나 정보를 쉽게 찾을 수 있다.
AiRS (에어스), AiTEMS (에이아이템스), AiRSPACE (에어스페이스), 개인맞춤형 검색 등 다양한 추천 기능은 딥러닝 기반 품질모델, 협력 필터를 통한 소비패턴 분석, 실시간 패턴 분석 등을 통해 구현해 냈다. 사용자가 직접 검색을 하지 않아도 적절한 콘텐츠나 쇼핑상품, 장소, 유용한 검색결과 등을 실시간으로 추천해 준다.
월간 이용자 820만명, 번역 콜수 2억 9000만건에 달하는 인공신경망 번역 파파고는 일상생활에서 외국어 통번역의 어려움을 해소해 주는 기술로 각광받고 있다. OCR 기술을 통해 외국어 문장을 사진 촬영만으로 번역하는 등 다양한 기술들을 접목, 더욱 유용한 사용자 경험을 제공하기 위해 노력하고 있다.
네이버가 물리적 공간에서 가장 중요하게 여기는 맥락은 '위치'다. 네이버랩스에서 위치와 이동 기반 기술들을 연구개발하고 있는 이유가 바로 여기에 있다. 위치와 이동 기술의 핵심 기반이 되는 플랫폼은 지도다. 정확한 지도 정보와 장소에 대한 부가 정보는 관련 사업자들에게는 필수적이다.
네이버는 데뷰 2018에서 위치와 이동 기반의 산업 생태계 활성화와 관련 사업자들의 안정적인 성장을 지원하기 위해 국내 최대규모의 POI(Point Of Interest)정보와 길찾기 등 다양한 정보를 제공하는 '네이버지도 엔터프라이즈(Enterprise) API'를 공개한다고 밝혔다.
이전까지 지도 오픈API는 웹과 모바일에서 지도 로딩과 좌표-주소 변환만 가능했고, 일일 쿼터 제한이 있었다. 그러나 내달 공개되는 엔터프라이즈 API를 이용하면 제한 쿼터 이상 이용은 유료로 이용할 수 있다. 모바일 지도 로딩 API는 국내에서 유일하게 무료로 무제한 이용이 가능하다.
네이버랩스는 사람과 자율주행 머신을 위한 위치 및 이동 기반 기술플랫폼인 'xDM(eXtended Definition & Dimension Map Platform)'을 처음으로 공개했다. 이는 네이버랩스에서 연구 중인 맵핑, 측위, 내비게이션 등 첨단 기술과 고정밀 데이터를 통합한 것이다.
네이버랩스 대표이기도 한 송 CTO 는 "GPS가 잡히지 않는 실내 공간은 아직 위치와 이동 기반 기술이 미치지 못하는 영역"이라고 언급했다. 본격적인 플랫폼 확장과 연결을 위해서는 ▲사람과 자율주행 기계들을 위한 3차원 고정밀 지도 제작과 업데이트트 ▲실내/실외/도로까지 음영지역이 없는 정밀한 측위 ▲실시간/공간의 데이터를 담아 이동 객체 의도와 상황을 잘 이해하는 이동정보 제공 기술에 대한 연구가 필수라는 게 그의 설명이다.
도보 내비게이션 API와 AR 인터페이스를 결합해 유용한 쇼핑 정보를 보여주거나 특정한 장소까지 AR내비게이션을 구현하는 것도 가능해지는 것이다. 이날 실제로 아무런 인프라 없이 스마트폰 카메라로만 작동하는 AR 도보 내비게이션이 처음으로 소개되기도 했다.
네이버랩스는 인천공항공사와 손잡고, 공식 가이드앱을 개발해 AR 내비게이션 서비스를 선보일 계획이다. 사용자가 항공편 정보를 입력하면 출발지에서 인천공항 내 탑승구까지 논스톱 이동경로 통합 안내 서비스가 진행되는 방식이다.
네이버랩스는 xDM 플랫폼에서 구현될 최신 기술들도 선보였다. AHEAD (어헤드)는 광학 기술을 응용해 개발중인 3D AR HUD(Heads-Up Display)다. 기존 HUD와 달리 운전자의 초점에 맞춰 정보를 제공하는 3D 디스플레이 기술이 적용됐다. 운전자가 보는 실제 도로와 디스플레이 시점이 동일해 자연스럽고 편리하게 위치 및 이동 정보를 접할 수 있다.
SSIM(Scalable & Semantic Indoor Mapping)은 자율주행과 시맨틱 매핑 기술을 활용, 환경 변화가 잦은 실내에서 POI 정보를 최신 상태로 유지할 수 있도록 돕는다.
예를 들어 쇼핑몰 내 매장이 바뀌면 자율주행 로봇에 탑재된 AI 기술이 주행시 자동으로 이를 인식해 지도를 업데이트 한다.
자율주행 차량 분야에서는 새로운 방식의 HD맵 솔루션도 개발 중이다. 네이버랩스의 '하이브리드 HD맵'은 고정밀 항공사진과 모바일 매핑 시스템 차량을 통해 수집한 데이터를 결합해 자율주행 차량을 위한 HD맵을 구축한다. 또 고층건물이 많아 GPS 음영이 자주 발생하는 지역에서도 자율주행 차량이 HD맵을 기반으로 끊김 없는 측위도 할 수 있다.
지난해 데뷰에서 참석자들의 눈길을 끌었던 로보틱스 기술들도 플랫폼 확장과 고도화를 진행 중이다.
지도제작 로봇 M1과 자율주행 서비스 로봇 AROUND (어라운드) 등은 현대중공업지주와 양산화 협력에 들어갔다. 에어카트는 지난 6월 오픈키트 방식으로 특허 기술과 도면을 공개한 데 이어 7월에는 삼송캐스터와 도서관용 에어카트 상용화에 착수했다.
코리아텍과 산학협력으로 개발 중인 로봇 팔 'AMBIDEX(앰비덱스)' 역시 삶 속에서 사람과 직접 인터랙션할 수 있도록 고도화 중이다. 앰비덱스는 위치 제어 위주의 기존 로봇과는 달리 힘 제어가 가능하다. 로봇을 실제 구동하기 전에 시뮬레이터에서 프로그램을 테스트하여 안정성을 높였다. 실제 로봇이 아닌 시뮬레이터 상에서 환경을 바꿔가면서 많은 데이터를 빠르고 안전하게 얻을 수 있어 고도화 작업을 진행하고 있다.
송 CTO는 "생활환경지능 구현이라는 비전 아래 위치와 이동 분야와 관련된 다양한 기술 연구해 나가고 있다"면서 "앞으로도 보다 다양한 상황 속에서 다양한 사용자들의 일상을 기술로 이어나가고자 한다"고 강조했다.