인공지능(AI) 기본법이 시행된 지 10주가 지났지만 기업 현장에서는 여전히 어디까지가 의무 대상인지, 어떤 경우에 표시와 고지 의무가 발생하는지를 두고 혼선이 이어지고 있다.
같은 AI를 사용하더라도 단순 이용자인지, AI 사업자인지에 따라 의무가 달라지고, 채용·대출·의료처럼 민감한 분야에서도 사람의 개입 정도에 따라 법 적용 여부가 달라지면서 현장에서는 경계가 여전히 모호하다는 지적이 나온다.
'AI 사업자', '이용자', '투명성 확보' 등 기준 제시
5일 과학기술정보통신부가 공개한 지원데스크 사례집에 따르면, 기업들은 법 조항 자체보다 해당 법이 자신의 상황에 어떻게 적용되는지에 대해 더 큰 궁금증을 갖고 있는 것으로 나타났다. 특히 자사가 AI 사업자인지, 단순 이용자인지를 두고 혼란이 큰 것으로 분석됐다.
과기부는 챗GPT나 제미나이 같은 생성형 AI를 활용해 텍스트·이미지·영상을 제작해 자사 사이트에 게시하는 것만으로는 곧바로 AI 사업자로 보지 않는다고 판단했다. 생성형 AI로 콘텐츠를 만들어 게시하는 행위만으로는 AI 서비스를 직접 제공하는 것으로 보기 어렵기 때문에, 원칙적으로 해당 기업은 '이용자'에 해당한다는 설명이다.
예를 들어 온라인 백과사전 운영사가 AI로 생성된 콘텐츠를 검수해 게시하는 경우, 이는 AI 서비스를 이용자에게 직접 제공하는 구조가 아니므로 원칙적으로 이용자로 분류되고, 투명성 표시 의무도 발생하지 않는다. 다만 이용자가 직접 AI와 상호작용할 수 있는 기능을 제공할 경우, 해당 범위에서는 'AI 이용사업자'로 볼 수 있다고 설명했다. AI 사업자는 큰 범주이며, 그 아래에 AI 이용사업자와 AI 개발사업자가 포함된다.
외부 사업자가 만든 생성형 AI를 내부 업무에만 활용하는 공공기관 역시 원칙적으로는 이용자로 보고, 투명성 확보 의무 대상이 아니다. 그러나 공공기관이 직접 AI 서비스를 개발해 외부에 제공할 경우에는 AI 사업자로 분류돼 의무가 발생할 수 있다.
외주 개발을 맡긴 기업도 유사하다. 타사가 개발한 AI 서비스를 납품받아 고객에게 제공하는 경우 원칙적으로는 AI 이용사업자지만, 발주사가 구조 설계에 깊이 관여하거나 개발 전반을 실질적으로 통제했거나, 납품받은 시스템을 중대하게 변경했다면 AI 개발사업자로 판단될 수 있다.
"AI 썼다고 다 표시?"…헷갈리는 투명성 표시 기준
콘텐츠 제작자들이 가장 민감하게 반응하는 '표시' 문제는 실제로는 적용 범위가 비교적 제한적인 것으로 나타났다. 개인 유튜버나 인스타그램 이용자가 생성형 AI로 제작한 표지나 삽화, 홍보 이미지를 게시하는 경우, 일반적으로는 AI 사업자가 아닌 이용자로 분류돼 표시 의무 대상이 아니라고 정리했다.
광고나 후원으로 수익을 얻는다고 해서 곧바로 사업자로 전환되는 것도 아니다. 온라인 커머스 상세페이지에서 배경 이미지를 AI로 합성하거나 문구를 AI로 수정한 경우에도, 소비자에게 AI 서비스를 직접 제공하는 구조가 아니라면 원칙적으로 'AI 사용' 표시 의무는 발생하지 않는다고 봤다.
반면 챗봇과 보이스봇은 다른 기준이 적용된다. 사례집은 이를 이용자가 AI와 직접 상호작용하는 대표적인 AI 서비스로 분류했다. 이 경우 이용자는 서비스 이용 전에 해당 서비스가 AI 기반임을 인지할 수 있어야 한다. 또 대화 내용이나 음성 파일을 다운로드하거나 공유할 수 있는 기능이 있는 경우에는, 생성물 자체에도 AI 생성 결과물임을 확인할 수 있도록 표시해야 한다고 강조했다.
워터마크 적용 기준도 명확히 제시됐다. 과기부는 법정 표준 서식은 없으며, 이용자가 합리적으로 AI 생성 사실을 인지할 수 있는 수준이면 충분하다고 설명했다. 서비스 화면 내에서만 제공되는 이미지라면 화면 내 로고나 문구 표시로도 충분하며, 개별 이미지마다 워터마크를 반복 삽입할 필요는 없다고 봤다.
다만 다운로드나 공유 등 외부 반출이 가능한 경우에는 파일 자체에서 AI 생성 여부를 확인할 수 있도록 메타데이터나 디지털 워터마킹 등을 포함해야 한다. 비가시적 표시만 사용하는 경우에는 이용자에게 최소 1회 이상 별도로 안내해야 한다.
예외도 있다. 예술 작품이나 전시물처럼 감상에 영향을 줄 수 있는 경우에는 화면 중앙 워터마크 대신 엔딩 크레딧이나 자막, 비가시적 메타데이터 삽입 방식도 허용된다. 반면 실제와 구분이 어려운 이미지·영상·음성, 이른바 딥페이크 수준의 콘텐츠는 이용자가 명확히 인식할 수 있도록 가시·가청적 표시가 원칙이다.
한편 법 시행 이전에 생성·게시된 콘텐츠에는 표시 의무가 소급 적용되지 않는다. 별도로 워터마크를 추가하거나 재업로드할 필요는 없다는 뜻이다.
특별 관리 필요한 '고영향 AI' 판단 기준도 정리
또 다른 혼선 지점은 '고영향 AI'다. 고영향 AI는 사람의 생명·신체 안전이나 기본권에 중대한 영향을 미칠 수 있어 별도 관리가 필요한 인공지능을 의미한다.
사례집은 채용, 대출, 의료, 교육평가 등 법에 명시된 영역이라 하더라도 모두 자동으로 고영향 AI로 분류되는 것은 아니라고 설명했다. 핵심은 해당 AI가 실제로 해당 영역에 활용되는지, 사람의 권리나 안전에 미치는 영향이 큰지, 그리고 인간의 최종 판단과 통제가 유지되는지를 종합적으로 고려해야 한다는 점이다.
예컨대 채용 분야에서 AI가 서류를 요약·분류하는 보조 도구로만 사용되고 최종 평가와 선별은 사람이 수행한다면, 고영향 AI에 해당하지 않을 수 있다. 대출 심사 역시 AI 결과를 참고자료로 활용하고 최종 판단은 담당자가 내리는 구조라면 고영향 AI로 보기 어렵다. 의료 분야에서도 진단 보조 수준이라면 동일한 기준이 적용된다.
교육 분야는 특히 혼선이 큰 영역으로 지목됐다. 유아·초등·중등교육에서 학생 평가를 목적으로 사용하는 AI는 고영향 AI에 해당할 수 있지만, 학습 보조나 콘텐츠 생성, 학원 교육 목적은 법정 대상이 아니어서 원칙적으로 고영향 AI로 분류되지 않는다. 특수교육 대상 학생을 위한 콘텐츠 작성이나 학습 분석 역시 평가 기능이 아니라면 고영향 AI에 해당하지 않는다는 설명이다.