오는 23일 국제 컨퍼런스 열고 글로벌 소통
정부가 챗GPT로 대변되는 생성형 AI(인공지능)에 대한 ‘가이드라인’을 마련한다. 생성형 AI 이용 시 기업 등 사용자들이 유념해야 할 개인정보 보호 지침을 제시하겠다는 것이다. 이를 위해 이달 EU, 영국, 일본 등 개인정보 감독기구 수장과 세계적 석학들과 논의를 통해 ‘한국형 챗GPT’ 경쟁력을 찾기 위한 국제 여론전에 본격 나선다.
7일 본지 취재를 종합하면, 개인정보보호위원회(개보위)는 AI 개인정보 이용 가이드라인에 관해 세계적 전문가들의 의견을 듣기 위해 오는 23일 ’생성형 AI 프라이버시 이슈’를 주제로 국제 콘퍼런스를 진행한다. 이날 회의에는 EU(유럽연합), 영국, 일본 등 주요국들의 규제 감독기구 수장과 세계적 석학 등이 참석할 예정이다. 이날 회의에서는 최근 화두인 생성형 AI 이용 과정에서 일어나는 개인정보 보호 등의 대책 방안을 다룰 계획이다. 챗GPT 부터, 생성형 AI 전반에 관련해 개인정보 이용을 어떤 식으로 규제할지, 동시 다발적인 이슈에 대해 방향성을 정립하는 자리가 될 것으로 보인다.
개보위는 이날 회의에서 논의한 내용을 인공지능의 합리적 개인정보 이용 가이드라인에 반영할 계획이다. 개보위 관계자는 “인공지능을 이용할 때 개인정보에 대한 합리적인 기준을 개인정보보호법으로 적용하기에는 AI라는 특성이 법에 모호한 지점이 있다”며 “AI의 학습부터, 서비스 제공 단계까지 전 과정에서 개인정보 법령을 마련하는 방향을 제시할 것”이라고 설명했다. 개보위는 현재 생성형 AI를 포함한 인공지능 전체 이용 과정에서 발생하는 프라이버시 이슈에 대응하기 위한 정책 방향을 마련하고 있다.
해당 정책은 이달 말에 1차 발표할 예정이다. 또 다른 개보위 관계자는 “6월 23일에 열리는 국제행사에서 논의된 내용을 반영해 6월 말에 1차로 발표할 예정”이라며 “후속사항들은 추후에 계속해서 발표할 계획”이라고 말했다. 그는 “6월 말을 목표로 페이퍼, 발표 등을 준비하고 있으며, 늦어질 경우 7월 초가 될 수 있다”고 덧붙였다.
정책의 중심은 생성형 AI다. 특히 네이버, 카카오 등 기업들이 현장에서 생성형AI 등을 만들 때 지켜야 할 가이드라인에 대해 다룰 방침이다. 기업들이 고객의 데이터를 수집, 크롤링 기법으로 해석할 때 데이터 성격별로 민감정보, 비정형데이터 등을 어떻게, 어떤 목적 범위 내에서 처리해야 하는지 제시한다. 여기에 특정 목적으로 AI를 이용하는 경우도 포함한다. 가령, 기존에 문제가 됐던 클리어뷰 AI, 출입국 관리 AI 등 인공지능의 실제 세부 모델링 단계도 염두에 두고 있다.
기업들이 이를 위해 준비해야 하는 안전조치와 법적으로 제지해야 하는 기준 등이 정립될 예정이다. 또 다른 관계자는 “기업들이 AI 모델을 만들려고 할 때 어떤 부분이 개인정보보호법에 위반되는지, 어떤 건 괜찮은지 대답해줄 수 있어야 실질적으로 도움이 되는 것”이라며 “기업들이 가지는 이런 부분을 어떻게 해소해줄지에 대해 검토하고 있다”고 설명했다.
이를 위해 현재 개인정보보호위원회 정책국 내 신기술과, 데이터과, 정책과 세 과가 내부 TF를 꾸려 논의를 하고 있다. 해당 정책 수립의 관할은 정책과로, 관계 부처들은 필요 시 협조하고 있다.