2019년 AI 관련 피해 예방 위해 조직
이달 초 ‘제1회 AI 안전 정상회의’ 열려
미국·EU 등 AI 규제 가이드라인 마련 중
페이스북 모회사 메타(Meta)가 인공지능(AI) 피해 예방을 위해 만들어진 조직을 해체한다. 이달 초 세계 주요국이 모여 국제적 피해예방 대책 마련을 위해 협력한 것과는 엇갈린 행보다.
18일(현지시간) 메타는 입장 자료를 통해 “책임 있는(Responsible) AI 팀원 대부분이 ‘생성 AI’로 이동할 것”이라며 “해당 직원들이 핵심 제품 개발과 기술 연구에 더 집중할 수 있도록 할 계획”이라고 밝혔다. 다만 “안전하고 책임감 있는 AI 개발에 우선순위를 두고 계속 투자할 것”이라고 덧붙였다.
‘책임 있는 AI’는 AI 모델 학습 방식의 문제점을 파악하고 관련 피해를 예방 또는 중재하기 위해 메타가 2019년 만든 조직이다. 이와 달리 생성형 AI 도구 가운데 하나인 ‘메타 AI’는 지난 9월 공개됐다. 기존 피해 예방 조직을 새로운 조직에 통합하면서 애초 궁극적인 목적이 희석되는 것 아니냐는 분석도 뒤따르고 있다.
실제로 메타가 AI 피해 예방 조직을 해체한 것과 관련해 “세계 주요국 정부가 AI 규제 방안을 마련하기 위해 움직이는 국제적 추세를 거스르는 것”이라는 분석도 나온다.
이달 초 한국과 미국, 중국, 영국 등 주요 28개국과 유럽연합(EU)은 영국 블레츨리에 모여 ‘제1회 AI 안전 정상회의’를 개최하고 AI의 위험성에 대해 공감했다.
나아가 AI 피해를 막기 위해 각국이 서로 협력해야 하는 데 동의하고 관련 내용을 담은 ‘블레츨리 선언’까지 내놨다. 이 선언에는 일론 머스크 테슬라 최고경영자(CEO)를 비롯해 브래드 스미스 마이크로소프트(MS) 부회장, 샘 올트먼 전 오픈AI CEO 등 주요 기술 기업 임원들이 동참해 AI 규제 필요성에 동의했다.
미국과 EU도 자국 AI 규제를 마련하기 위해 움직이고 있다.
조 바이든 미국 대통령은 지난달 말 ‘안전하고 신뢰할 수 있는 AI에 대한 행정명령’에 서명하면서 AI 기업들이 정부에 안전 테스트 결과를 미리 공유하도록 했다.
AI 규제에서 앞서고 있는 EU에서는 6월 생성형 AI 기술을 4단계 위험으로 나눠 규제하는 내용의 ‘AI 액트’ 법안이 통과된 바 있다.