[딥뉴스]"제2 이루다 막자"…'AI 윤리 강화' 나선 포털

카카오 "개발 단계서 알고리즘 윤리 실천"…전 직원 대상 AI 윤리 교육
네이버 "차별 없고 안전한 AI 만들겠다"…AI 윤리 준칙 발표
이미 구글·MS·IBM 등은 AI 윤리 기준 공표…방통위 AI 윤리 법체계 정비

네이버 카카오 제공
네이버와 카카오가 인공지능(AI) 윤리 관련 정책을 발표했다.

카카오가 전 직원을 대상으로 인공지능(AI) 알고리즘 윤리 교육을 실시한다. 기술과 서비스 개발 단계에서부터 알고리즘 윤리를 실천하겠다는 의지다. 네이버는 차별 없고 안전한 AI를 만들기 위해 모든 구성원이 준칙을 준수하겠다고 선언했다. 기업과 학계가 머리를 맞대 AI 윤리 준칙을 만든 것은 업계에서 처음 있는 일이다.

인공지능(AI) 챗봇 '이루다'가 성차별 발언과 개인 정보 유출 의혹 등으로 서비스를 중단한 지 한 달여 만에 국내 대표 IT 기업이 개선에 앞장서면서 업계에 긍정적인 영향을 일으킬 전망이다.

AI 상품이나 이를 활용한 서비스가 빠르게 늘고 있는 만큼, '제2의 이루다' 사태를 방지하려면 기업마다 AI 윤리 기준이나 대안을 서둘러 마련해야 한다는 지적이 나오고 있다.

◇ 카카오, 전 직원 AI 윤리 교육…네이버 'AI 윤리 준칙' 발표

카카오는 지난 17일부터 내달 2일까지 전 직원이 참여하는 온라인 사내 교육 '카카오 크루가 알아야 할 윤리경영'을 진행 중이다.


카카오에 따르면 이번 교육에는 AI 알고리즘 윤리 교육 과정을 신설했다. 카카오의 △디지털 책임 구현 사례를 소개하고 △카카오 인권경영선언문 △알고리즘 윤리 헌장의 각 조항을 하나씩 학습할 수 있도록 구성했다. 기술 및 서비스 개발 단계에서 알고리즘 윤리 헌장을 구체적인 실천에 나선다.

카카오는 "AI 알고리즘 윤리를 내재화하고 구체적으로 실천하려는 노력이 반영된 사례"라며 "ESG 경영을 실천하는 기업으로서 '기업의 디지털 책임' 구현에 필요한 AI 알고리즘 윤리를 비롯, 카카오의 윤리경영 원칙을 공유하는 시간이 될 것"이라고 말했다.

네이버도 이날 서울대 AI 정책 이니셔티브와 '네이버 AI 윤리 준칙'을 내놓았다. 준칙의 전문(前文)에 "AI 기술은 누구나 쉽고 편리하게 활용할 수 있는 '일상의 도구'"라고 명시했다.

준칙에는 △사람을 위한 AI 개발 △다양성의 존중 △합리적인 설명과 편리성의 조화 △안전을 고려한 서비스 설계 △프라이버시 보호와 정보 보안 등 5가지 조항이 담겼다.

네이버는 준칙을 통해 "AI 개발·이용 과정에서 인간 중심의 가치를 최우선으로 삼겠다"며 "AI가 모든 사람을 차별하지 않도록 개발하겠다"고 선언했다.

연합뉴스
◇ 韓 AI 윤리 시작 단계…구글·MS·IBM 등 빅테크 기업 공표, 규범 확립

SK텔레콤은 지난해 말 대학에서 'SKT AI 커리큘럼'을 수강중인 학생들을 대상, 릴레이 강연 주제 중 하나로 AI 분야의 화두인 윤리 문제와 SK텔레콤의 실천 방안을 소개하는 등 일찍부터 AI 윤리 규범을 구체화하는 데 힘을 쏟아왔다.

SK텔레콤은 AI 윤리 기준 만들기에 착수했다. 올해 AI를 자사 모든 상품과 서비스에 본격 도입해 빅테크 기업으로 도약을 목표로 하고 있다. 이에 걸맞게 더 구체적인 AI 윤리 기준을 세우겠다는 계획이다.

KT도 여러 부서와 협업해 AI 윤리 기준을 만들고 있다. 내부 기준이 있지만 이를 더 세부적으로 발전시키고 있다. 삼성전자도 지난 2019년 AI 윤리 핵심원칙을 발표하는 등 AI 규범 확립에 적극적으로 나서고 있다.

그러나 '국내에서의 AI 윤리 논의'는 겨우 '시작 단계'라는 게 전문가들의 공통된 목소리다. "AI가 화두로 떠오르면서 곳곳에 적용되고 있지만, 실제 AI 윤리 기준을 공개한 국내 기업은 손에 꼽을 정도"라는 것이다.

글로벌 기업들은 AI 윤리 기준을 대외적으로 공표하고 있다. 구글은 지난 2018년 이미 7가지 AI 윤리 원칙을 세웠다. △사회적 유익성 △불공평한 바이어스 방지 △안전성 확보를 염두에 둔 개발과 실험 △설명 책임 △프라이버시 원칙 적용 △과학적 탁월성의 탐구 △기본 이념에 따른 기술 제공 등이다. 마이크로소프트(MS)도 AI 기본 원칙을 세우고 AI 윤리위원회를 발족했다.

IBM은 AI 접근법과 원칙을 자사 홈페이지에 공개하고 있다. 올해 초 열린 CES 2021에서도 AI 윤리가 화두였다. 독일 자동차부품 업체 보쉬는 "AI를 산업에 적용하려면 AI에 대한 신뢰가 전제돼야 한다"며 "사람이 항상 AI를 제어할 수 있다는 기본 개념을 토대로 AI 윤리 기준을 마련해 실천하고 있다"고 소개했다.

유럽에선 AI 윤리를 더 발전시켜 법제화하려는 움직임이 나타나고 있다. 외신을 종합하면 유럽연합(EU)의 입법부인 유럽의회는 작년 10월 법제화를 추진하기 위해 AI의 윤리·책임·지식재산에 관한 제안을 채택했다. 학습 능력을 갖추는 AI를 사람이 감시할 수 있도록 설계하고, 위험에 따라 자동차처럼 보험에 가입을 의무화하는 내용 등이 포함될 전망이다

인공지능(AI) 챗봇 '이루다'. 이루다 페이스북 캡처
◇ "양질의 데이터 확보·알고리즘 편향성 지속 점검해야"

전문가들은 제2의 이루다 사태를 막기 위해서는 AI 윤리기준 구체화, 학습용 데이터 확보 등이 필요하다고 조언한다. 내재적 불확실성을 안고 있는 AI 기술의 현주소에서 사전에 완벽한 학습과 혐오 발언 학습에 대한 적절한 필터링도 어렵기 때문이다.

강신철 한남대 글로벌 IT경영 전공 교수는 "AI 기술 연구 초기 단계이고, 모든 법이나 제도, 기술 등이 완벽하지 않은 만큼 이루다 사태를 완벽하게 방지할 수는 없을 것"이라면서도 "법, 제도, 기술 등을 계속 보완하는 과정을 거쳐 나가 피해를 최소화해야 한다"고 진단했다.

그는 이어 "현재 딥러닝 방식의 AI는 스스로 학습을 해 정답을 찾아가는 특성이 있다"며 "양질의 학습용 데이터를 확보해 스스로 윤리기준을 마련할 수 있도록 하고, 알고리즘 편향성 등 지속적으로 점검해야 한다"고 해법을 제시했다.

방송통신위원회는 AI 이용자 보호를 위한 구체적 실행지침을 마련하고, 책임소재, 권리구제 절차를 포괄하는 등 법체계 정비에 나선다.

사업자와 이용자, 정부 등 지능정보사회 구성원 모두가 AI 윤리의 중요성을 인지하고, 각자가 실천할 수 있는 방안을 모색해야 한다는 것이다. 이를 위해 방통위는 AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼고 이용자 교육, 사업자 컨설팅, 제도개선 등을 추진해 나간다는 방침이다.

방통위는 올해부터 이용자를 대상으로 'AI 서비스의 비판적 이해 및 주체적 활용' 교육을 실시한다. 방통위 관계자는 "내년부터는 신규예산을 확보해 AI 윤리교육 지원대상을 이용자에서 사업자로까지 확대할 것"이라면서 "스타트업 등을 대상으로 서비스 설계 시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진한다"고 말했다.

실시간 랭킹 뉴스