e비즈*솔루션

업계, AI기본법 ‘집중탐구’...하위법령 제정 위한 의견 취합 본격화

오병훈 기자
[ⓒ국회인터넷의사중계시스템 화면 갈무리]
[ⓒ국회인터넷의사중계시스템 화면 갈무리]

[디지털데일리 오병훈기자] 인공지능(AI) 기본법 구체화 작업이 본격화되면서 정부가 각계각층 의견 수렴 작업에도 속도를 내기 시작했다. 기업들 의견은 관련 협회를 통해 정부 측에 전달될 예정이다. AI 기본법 내에는 AI 사업 전략에 지대한 영향을 미치는 조항이 다수 포함돼 있는 만큼, 업계들이 특별히 예의주시하고 있는 조항에 다시금 관심이 쏠리고 있다.

22일 한국소프트웨어산업협회(KOSA)는 서울 강남구에서 ‘AI 기본법 하위법령 작업반-회원사 간담회’를 개최했다. KOSA는 이날 간담회를 시작으로 KOSA 산하 ‘초거대 AI 추진협의회’ 소속 기업들과 소통을 지속하며 AI 기본법 구체화와 관련된 다양한 목소리를 종합할 예정이다. 초거대 AI 추진협의회에는 네이버와 KT, SK텔레콤, 뤼튼테크놀로지스, LG 등 스타트업부터 통신사 및 플랫폼 기업까지 다양한 시장 내 플레이어들이 소속돼 있다.

이들이 사전 검토에 돌입한 조항은 대체로 AI 기업이 지켜야 할 의무 조항이나, 정부가 사업 활동에 관여할 수 있는 다양한 근거 조항들이다. KOSA는 사전에 기업들을 대상으로 의견 수렴서를 전달해 ▲32조 AI 안전성 확보 의무 ▲26조 국내 대리인 지정 ▲31조 AI 투명성 확보 의무 사항 ▲제35조 AI 영향평가 ▲30조 AI 검·인증 ▲33조 고영향 AI의 확인 ▲34조 고영향 AI와 관련한 사업자의 책무 ▲40조 사실조사 등에 대한 각 사 입장을 물었다.

KOSA와 추진협의회 소속 기업들은 위 조항 내 하위법령(시행령, 고시 등)으로 위임하게 돼 있는 부분을 집중적으로 살필 예정이다. 하위법령에 대한 최종 입법권은 정부가 쥐고 있는 만큼, 기업 입장에서는 정부 기조와 자사 상황을 면밀히 검토해 감안해야 할 것으로 보인다.

먼저, 이전부터 업계가 주목했던 조항으로는 ‘고영향 AI 관련한 사업자의 책무(34조)’ ‘고영향 AI의 확인(33조)’이 있다. 고영향 AI란 신체·생명·재산 등에 지대한 영향을 미칠 것으로 예상되는 AI로써, 법으로 해당 AI의 통제 근거를 마련하기 위해 도입됐다. 특히 AI의 영향 범위가 어느 정도까지 넓어질지 쉽게 예측할 수 없는 상황, 간접적으로 AI의 영향을 받는 이들까지 보호하기 위한 정의 개념이다.

업계에선 AI 기본법에 대한 입법 단계부터 해당 조항에 대해 우려를 표했다. ‘영향’이라는 애매한 단어 탓에 그 대상 범위를 예측하기 힘들며, 고영향 AI 기준을 지나치게 포괄적으로 설정할 경우 각사 사업에 큰 규제 리스크로 다가올 수 있기 때문이다.

KOSA와 회원사들이 집중적으로 논의할 위임사항은 ‘고영향 AI 확인 절차 등 필요한 사항’과 ‘사업자의 책무 이행을 위해 필요한 세부 내용’ ‘고영향 AI 운영사업자가 지켜야할 6가지 의무 조치(위험관리 방안, 이용자 보호 방안의 수립·운영 등)에 대한 구체적인 사항’ 등이다.

그 다음으로 업계가 예의주시하고 있는 조항으로는 40조 사실조사 부분이다. AI 기업·기관에 대한 정부의 행정조사 토대가 되는 내용이다. 이에 근거해 정부는 위반 사항을 조사하기 위해 기업이나 기관에게 관련 자료 등을 요구할 수 있다. 기업·기관 입장에서는 정부가 사업이나 경영에 직접적인 영향을 미칠 수 있다는 업계 우려가 지속되고 있다.

관련해 과학기술정보통신부(이하 과기정통부)에서는 기존 법률의 일반적인 규정을 따른 것이라는 입장을 밝힌 바 있다.

관련 조항과 관련해 의견수렴할 부분은 사실조사 요건의 명확한 기준에 대한 내용이다. 조문에는 사실조사 요건을 “투명성 확보 의무, 안전성 확보 의무, 고영향 AI 사업자 책무 위반 사항을 발견하거나, 해당 위반사항에 대한 신고/민원이 접수된 경우”라고 표현하고 있다.

앞서 업계는 이 같이 느슨한 사실조사 요건을 설정할 경우 악의적인 민원이나 신고만으로도 조사 요건이 충족될 수 있다는 우려를 표한 바 있다. 이에 과기정통부는 “사실조사 조건을 명확히 하기 위해서 민원인의 사적 이해관계에서 민원이 제기되었거나, 익명의 탄원‧투서 등에 의해 이루어지는 경우에는 사실조사를 실시하지 않도록 하위법령에 명시할 계획”이라고 설명했다.

각종 의무에 대한 내용도 면밀히 살핀다. AI의 안정성 및 투명성 확보 의무 조항이 대표적이다. 특히 생성형 AI 기반이 되는 대형언어모델(LLM)은 막대한 데이터를 수집 및 학습해 탄생하게 된다. 그 과정에서 개발자조차 예측하지 못한 결과값을 내놓는 등 문제가 일어나기도 한다. 이와 관련해 AI 사업자는 안전성과 투명성을 확보해야 한다는 취지다.

안전성 확보 의무 조항에서는 위임 사항 중 ‘안정성 의무가 부여되는 기준: 학습에 사용된 누적 연산량’과 관련된 의견을 나눈다. 대규모 데이터를 학습한 AI일수록, 예측 불가능성이 더 커지기 때문에 일정 누적 연산량을 넘어가는 AI 모델의 경우 안정성 의무를 확보해야 한다는 취지의 내용이다. 유럽의 AI 법인 ‘EU AI act’에서는 누적연산량 기준을 플로팅 포인트 연산량 10의 25승으로 잡고 있다.

투명성 확보 의무 조항에서는 ‘사용자 사전 고지’ ‘생성형 AI 산출물 표시 방법 및 예외 사항’ 등 위임사항을 살핀다. 생성형 AI가 발달함에 따라 AI가 산출한 결과와 인간이 작성한 제작물을 구분하기는 점점 더 힘들어지고 있는 현실이다. 이에 따라 글이나 영상 사진 등 콘텐츠가 AI에 의해 제작됐는지 구분할 수 있도록 하겠다는 취지 조항이다. 다만, 기업 입장에서는 모든 결과값에 AI 산출물 표시를 하게 될 경우 콘텐츠 활용도 측면에서 경쟁력을 잃게될 수도 있기 때문에 신중한 방법 및 예외사항 기준 마련이 필요한 부분이다.

그 외에도 ▲‘인공지능 영향평가(35조)’ 조항 내 ‘영향평가의 구체적인 내용 및 방법’에 대한 내용 ▲ ‘인공지능 검·인증(30조)’ 조항 속 ‘단체 등의 인공지능 검인증 활동 지원’ ‘중소기업 등의 인정 취득을 위한 행정·재정적 지원에 관한 사항’에 대한 내용 ▲‘국내대리인 지정(36조)’ 조항 안의 ‘국내대리인 지정 의무 사업자 기준: 이용자 수, 매출액’ 등 위임사항에 대한 의견도 수렴한다.

KOSA가 주최한 이번 간담회와 관련해 한 과기정통부 관계자는 “AI 기본법 하위법령 제정 과정에서 기업 의견을 잘 수렴하고 반영해야 한다”며 “KOSA가 기업 의견을 수렴하는 창구 역할을 할 것이란 내용의 보고를 받았다”고 말했다.

오병훈 기자
digimon@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널