중국의 인권탄압에 AI 쓰인 것이 규제 마련 계기
혁신 저해할 우려도
일본 니혼게이자이신문(닛케이)에 따르면 EU 집행위원회(EC)는 21일(현지시간) 중요 인프라나 얼굴 인증 등에서의 사용을 대상으로 사실상 사전 심사제를 도입하는 등 광범위한 제한을 담은 규제안을 발표했다. 구속력을 수반하는 포괄적 AI 규제안을 내놓은 것은 전 세계 주요국·지역에서 이번이 처음이다.
이번 규제안은 온라인상의 개인정보 보호에 큰 영향을 준 일반데이터보호규칙(GDPR)의 AI 판이라고도 할 수 있다. 위반하는 기업은 최대 3000만 유로(약 403억560만 원) 또는 세계 매출액의 6%의 벌금이 부과될 수 있다. 앞으로 EU 각료 이사회와 유럽의회에서 심의를 거치게 될 예정인데, 규제안이 통과돼 시행에 이르기까지 몇 년이 걸릴 가능성이 있다.
규제의 목적은 AI가 자유와 민주주의, 인권과 같은 가치관을 훼손하는 사태를 피함으로써 사람이 AI를 사용하는 ‘인간 중심의 원칙’을 지키려는 것이다. 마르그레테 베스타게르 EU 디지털 시대 담당 부집행위원장은 "EU가 신뢰할 수 있는 AI 개발을 주도하겠다"면서 “EU 시민의 안전과 기본적 권리가 (AI에 의해) 위협받으면 우리의 룰이 개입된다”고 말했다.
규제안은 AI 위험을 4단계로 분류했다. 가장 엄격한 단계에서는 정부가 AI를 이용해 개인의 데이터를 분석하고 등급을 매기는 ‘스코어링’을 금지하는 것 이외에 주로 경찰에 의한 법 집행을 목적으로 한 실시간 얼굴 인증을 원칙적으로 금지한다. 장난감 음성 기능으로 아이에게 위험한 행위를 할 수 있는, 사람의 행동을 조작하는 AI의 이용도 인정하지 않는다.
‘고위험’이라고 평가되는 두 번째 엄격한 단계는 운송 등 중요 인프라나 로봇을 이용한 수술, 기업의 채용 활동 등에서 사용되는 AI를 대상으로 했다. 얼굴 등 생체인증도 대부분 고위험으로 분류된다. 고위험 제품·서비스는 시장 투입 전에 가맹국 정부가 지정하는 기관 등에서 심사를 받을 필요가 있다.
AI의 이용은 최근 세계에서 급격하게 늘어나고 있다. 조사회사인 그랜드뷰리서치는 AI 시장 규모가 2020년 이후 연평균 40% 이상 성장, 2027년에는 7300억 달러(약 815조 원)를 넘어설 것이라고 예측하고 있다. 이러한 성장세 속에서 AI는 사회에 폭넓게 스며들어 기존 법령으로는 대처할 수 없는 문제를 낳을 수도 있다.
닛케이는 "EU가 규제에 나서려는 배경에는 소수민족 위구르족 감시 등에 AI를 사용하는 중국이 있다"며 "다만 개인의 자유와 권리를 지키려는 규제가 혁신을 저해할 우려도 있다. 진화하는 기술의 리스크를 줄이면서 경제와 사회적 이익으로 연결하는 것이 과제"라고 설명했다.