2026년 1월호

규제가 혁신 따라가도록 ‘AI 거버넌스 전략’ 필요

[2026 경제 대기획] 2026년 1월 ‘인공지능기본법’ 시대 시작

  • 강정희 법무법인 태평양 변호사

    입력2026-01-05 09:00:01

  • 글자크기 설정 닫기
    • AI 관련 19개 법안 통합, 韓 최초의 포괄적 AI 규제법

    • 규제 기관 권한 중첩 문제 우려…조정 메커니즘 필요

    • 기존 규정 정합화한 EU ‘디지털 옴니버스 패키지’

    • 인공지능기본법, 완결된 규제라기보다는 혁신의 출발점

    2024년 12월 26일 서울 여의도 국회에서 열린 국회 본회의에서 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(인공지능기본법)’이 재적 300인 중 재석 264인, 찬성 260인, 반대 1인, 기권 3인으로 통과되고 있다. 뉴스1

    2024년 12월 26일 서울 여의도 국회에서 열린 국회 본회의에서 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(인공지능기본법)’이 재적 300인 중 재석 264인, 찬성 260인, 반대 1인, 기권 3인으로 통과되고 있다. 뉴스1

    인공지능(AI)은 더는 특정 산업이나 기술 영역에 국한된 문제가 아니다. 생성형 AI의 확산을 계기로, AI는 미디어·금융·노동·교육·행정 전반에 걸쳐 일상적인 의사결정 구조 속으로 깊숙이 편입되고 있다. 이러한 변화 속에서 각국은 경쟁적으로 AI 규제 체계를 정비하고 있으며, 한국 역시 ‘인공지능기본법’ 제정을 통해 제도적 대응에 나섰다.

    그러나 AI 규제 또는 진흥의 핵심 쟁점은 단순히 “법이 있느냐 없느냐”의 문제가 아니다. 오히려 문제는 여러 법과 기관이 동시에 개입하는 상황에서 규제가 어떻게 작동하는가, 다시 말해 거버넌스의 문제에 있다. AI는 본질적으로 데이터, 알고리즘, 콘텐츠, 시장구조가 유기적으로 작동하는 기술이기 때문에 단일 법률이나 단일 부처의 관점으로 포섭하기 어렵다. 이로 인해 규제 공백보다는 규제 중첩, 책임 분산, 집행 혼선이 발생할 위험이 오히려 커진다.

    2026년 1월 22일 시행을 앞둔 ‘인공지능기본법’은 이러한 문제의식 속에서 마련된 첫 번째 종합적 시도라 할 수 있다. 다만 법이 만들어졌다고 해서 모든 문제가 자동으로 해결되는 것은 아니다. 오히려 AI를 둘러싼 여러 법과 기관, 정책이 어떻게 맞물려 작동할 것인지에 대한 고민은 이제부터가 시작이다. 인공지능기본법이 어떤 틀을 제시하고 있는지 간단히 살펴보고, 그 과정에서 드러나는 규제 거버넌스상의 과제를 짚어본 뒤, 최근 유럽연합(EU)이 논의 중인 ‘디지털 옴니버스 패키지’ 사례를 통해 우리가 참고할 만한 방향을 생각해 보고자 한다.

    AI 관련 19개 법안 통합, 韓 최초의 포괄적 AI 규제법

    인공지능기본법은 2026년 1월 22일 시행 예정으로, AI의 건전한 발전과 신뢰 기반 조성을 목적으로 하는 대한민국 최초의 포괄적 AI 규제법이다. 2024년까지 국회에는 무려 19건의 AI 관련 법안이 발의됐으나, 정부는 이를 개별적으로 처리하는 대신 통합·조정해 단일한 기본법 체계로 정비하는 방식을 선택했다. 그 결과 인공지능기본법은 2024년 5월 공식 채택된 EU의 ‘AI Act’에 이어 세계에서 두 번째로 포괄적 AI 규제 입법으로 평가받고 있다.

    이 법의 가장 큰 특징은 AI를 단순한 기술 문제가 아니라 국가 차원의 정책과제로 인식하고 있다는 점이다. 인공지능기본법은 대통령이 의장을 맡는 국가인공지능전략위원회를 설치하고, 3년마다 국가 차원의 AI 기본계획을 수립하도록 의무화했다(법 제3조, 제7조, 제8조). 이는 부처별로 흩어져 있던 AI 정책을 하나의 틀 안에서 조정하고, 민관협력을 기반으로 한 거버넌스를 구축하려는 의도를 반영한 것이다.



    또한 이 법은 규제만을 목적으로 하지 않는다. 인공지능특화단지 지정(제23조), 인공지능데이터센터 구축(제25조), 인공지능 활용 촉진(제26조) 등 산업 지원의 근거를 명문화해, 규제와 진흥의 균형을 도모하고 있다. 이는 “AI를 통제해야 할 위험 요소로만 보지 않겠다”는 정책적 메시지이기도 하다.

    규율 대상 측면에서 인공지능기본법은 인공지능을 세 가지 유형으로 나눈다. 첫째는 사람의 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 ‘고영향 인공지능’이다. 둘째는 텍스트, 음성, 이미지, 영상 등 다양한 결과물을 생성하는 ‘생성형 인공지능’이며, 셋째는 누적 연산량이 대통령령으로 정하는 기준 이상인 ‘고성능 인공지능’이다(법 제2조, 제32조). 

    이러한 AI를 개발·운영하는 사업자는 투명성과 안전성을 확보할 의무를 진다. 특히 생성형 AI의 경우, 결과물이 AI에 의해 생성됐음을 사전에 고지하거나 표시해야 하며, 고영향 인공지능은 위험관리 체계를 갖추고 안전성을 입증해야 한다(법 제31조, 제34조). 이 법은 국내 기업뿐 아니라 해외 기업에도 동일하게 적용되며, 해외 기업이 한국 시장에서 AI 서비스나 제품을 제공하는 경우에는 국내 대리인을 지정해 책임을 부담하도록 하고 있다(법 제36조). 위반 시에는 최대 3000만 원 이하의 과태료가 부과된다(법 제43조).

    현재 마련 중인 하위 법령 역시 ‘한국형 균형 모델’을 지향한다. 시행령은 총 34개 조항으로 구성돼 있으며, 과태료에 대해 계도기간을 운영하는 방침을 포함하고 있다. 더불어 안전성 확보 의무 고시, 사업자 책무 고시와 함께 여러 가이드 라인이 제정될 예정이다. 이는 법 조문만으로는 포착하기 어려운 기술적·실무적 기준을 보완하는 역할을 하게 될 것으로 보인다.

    규제 기관 권한 중첩 문제 우려…조정 메커니즘 필요

    문제는 인공지능기본법이 시행된 이후 본격적으로 나타날 가능성이 크다. AI는 학습 단계에서의 데이터 활용, 서비스 제공 과정에서의 개인정보 처리, 생성 결과물의 권리 귀속, 타인의 권리침해, 알고리즘의 공정성 등 다양한 법적 쟁점을 동시에 발생시킨다. 이 과정에서 저작권법, 개인정보보호법, 데이터산업법, 부정경쟁방지법, 공정거래법 등이 한꺼번에 작동하게 된다.

    이에 따라 규제 기관의 권한 중첩 문제가 필연적으로 발생할 수밖에 없다. 과학기술정보통신부는 AI 산업과 기술 정책을 총괄하고, 개인정보보호위원회는 AI 학습과 활용 과정의 개인정보 관련 데이터 규율을 담당하며, 방송통신위원회는 미디어·콘텐츠 AI 알고리즘의 이용자 보호를, 저작권위원회는 데이터 저작자의 권리보호를 소관한다. 공정거래위원회는 AI 알고리즘이 경쟁을 제한하거나 담합을 유발하는지를 살핀다. 하나의 AI 시스템이 여러 영역에 걸쳐 작동할 경우, 기업은 동시에 여러 기준과 지침을 적용받을 수밖에 없다.

    이러한 상황에서 조정 메커니즘이 부재하면, 규제 공백이 아니라 오히려 규제 중첩, 즉 과잉 규제의 위험이 커진다. 책임은 여러 기관으로 분산되고, 기업은 “어느 기관의 기준을 우선해야 하는가”라는 불확실성에 직면하게 된다. 개별 법률이 각자의 목적과 철학을 유지한 채 독립적으로 운영되는 것도 의미가 있지만, 조정 메커니즘이 없으면 동일한 AI 시스템에 대해 서로 다른 의무와 기준이 적용되는 문제가 발생한다. 이는 기업에는 과도한 부담으로, 이용자에게는 불명확한 책임 체계로 돌아오며, 결과적으로 규제 효과를 약화시키는 원인이 된다.

    2025년 11월 19일 EU 집행위원회(EC)는 기존 인공지능법을 간소화하고, 법률 간 중복된 요건을 통합해 기업 부담을 완화하며, 행정 절차를 간소화하는 내용을 담은 ‘디지털 옴니버스 패키지(Digital Omnibus Package)’ 방안을 발표했다. EC 홈페이지

    2025년 11월 19일 EU 집행위원회(EC)는 기존 인공지능법을 간소화하고, 법률 간 중복된 요건을 통합해 기업 부담을 완화하며, 행정 절차를 간소화하는 내용을 담은 ‘디지털 옴니버스 패키지(Digital Omnibus Package)’ 방안을 발표했다. EC 홈페이지

    기존 규정 정합화한 EU ‘디지털 옴니버스 패키지’

    EU는 비교적 이른 시기부터 디지털·AI 영역에 대한 포괄적 규율을 단계적으로 구축해 왔다. 개인정보보호법(GDPR)을 시작으로 데이터법(Data Act), 디지털서비스법(DSA), 디지털시장법(DMA), 그리고 최근의 AI Act에 이르기까지 데이터 보호, 사이버보안, 플랫폼 규제, 인공지능 규범이 연속적으로 도입됐다. 이러한 규범들은 각각 정당한 정책 목표를 가지고 설계됐다 그러나 실제 집행 단계에서는 규제 간 중복과 절차의 복잡성이 심화됐고, 이러한 구조가 기업에 과도한 부담을 줄 뿐만 아니라 기업 혁신과 성장에도 장애가 되고 있다는 비판이 있었다.

    이에 EU 집행위원회는 새로운 규제를 추가하는 방식이 아니라, 기존 규범의 운용 방식을 조정·정합화하는 접근을 선택했다. 그것이 바로 2025년 11월 19일 EU 집행위원회(EC)가 발표한 ‘디지털 옴니버스 패키지(Digital Omnibus Package)’ 논의다. 옴니버스 패키지는 규제 완화나 후퇴라기보다는, 규범의 목적과 강도는 유지하되 집행 단계에서 비효율을 제거하는 거버넌스 개편 시도로 이해된다. 

    구체적으로 EU는 AI Act의 일부 적용 시점을 조정해 산업과 감독기관이 기술 표준, 인증 체계, 집행 역량을 갖출 수 있는 현실적 준비 기간을 확보했다. 중소·중견기업에 대해서는 보고·신고 의무를 비례적으로 완화하고 단일 정보 창구를 도입하는 등 규제 준수의 문턱을 낮췄다. 아울러 AI Act와 GDPR 등 기존 디지털 규범 간의 중첩과 충돌 가능성을 사전에 조율함으로써 AI 학습·활용 과정에서 발생하는 이중 규제 불확실성을 줄이고자 했다. 이러한 조정은 규범 간 우열을 선언하는 방식이 아니라, 실제 집행 단계에서 불거질 해석과 운용의 문제를 정합적으로 맞추는 데 초점이 있다. 

    위 패키지에 대해 일부에서는 디지털 기본권의 후퇴 가능성을 우려하는 비판의 목소리도 제기되고 있다. 그러나 ‘규제는 유지하되, 거버넌스는 유연하게’라는 EU식 사후 조정 모델을 보여주는 사례로 평가할 수 있어 보인다.

    인공지능기본법, 완결된 규제라기보다는 혁신의 출발점

    EU 집행위원회는 데이터·AI 규제의 간소화를 통해 2029년까지 최대 50억 유로의 행정비용 절감과 디지털 인프라 활용 확대 시 연간 최대 1500억 유로의 비용 절감 효과를 전망하고 있다. 이는 인공지능 산업의 지속적 성장과 혁신을 위해서는 이용자 보호와 산업 진흥의 균형뿐만 아니라, 규제 준수 부담을 현실적으로 조정하는 정책 설계가 중요함을 보여준다.

    특히 AI Act의 핵심 구조와 규범적 강도를 유지하면서도 적용 시점 조정, 절차 간소화 등을 통해 기업의 체감 부담을 낮춘 EU의 접근은 규제 완화가 아닌 운영 방식의 정교화가 혁신 친화적 환경을 조성할 수 있음을 시사한다. AI 규제를 완화하기 위한 시도가 아니라, 혁신이 멈추지 않도록 규제의 작동 방식을 조정하려는 제도적 출구에 가깝다고 생각한다.

    우리 인공지능기본법도 완결된 규제라기보다는 출발점에 가깝다. 결국 한국에서도 인공지능기본법 시행 이후 관련 규범이 실제로 어떻게 작동하는지를 점검하고, 중첩과 비효율을 최소화할 수 있는 유연한 사후 조정 메커니즘에 대한 논의가 필요하다. 이는 특정 국가의 제도를 답습하기 위한 것이 아니라, 한국의 산업구조와 규제 환경에 부합하는 방식으로 규제가 혁신의 속도를 따라갈 수 있도록 만드는 거버넌스 전략의 문제라 할 수 있다. 



    댓글 0
    닫기

    매거진동아

    • youtube
    • youtube
    • youtube

    에디터 추천기사