안락사 권하는 등 부적절 답변도
▲인간 모양의 피규어 뒤로 챗GPT로고가 보인다. 로이터연합뉴스
10일 요미우리신문에 따르면 미국과 일본의 국제 연구팀이 대화형 AI GPT와 GPT-4로 하여금 2018~2022년도 일본 의사국가시험을 치르게 한 결과, GPT-4가 5년 치 시험에서 모두 합격선을 웃돌았다. 챗GPT는 모두 불합격했다.
다만 GPT-4는 인간 응시자의 평균을 밑돌았으며, 안락사와 관련해 부적절한 답변을 선택하는 등 한계점이 드러났다. GPT-4는 임산부 환자에게 투여할 수 없는 약제를 골랐고, 환자에게 안락사를 유도하는 듯한 말씨를 적절한 대응으로 선택했다.
카사이 준고 미국 워싱턴대학교 연구원은 “일본 의료 현장의 법률과 규칙을 모르거나, 임산부인 점 등 중요한 정보를 간과하는 것이 문제”라고 지적했다.
류이치로 히가시나카 나고야대학교 교수는 “선택지의 차이를 알기 쉬운 의사국가시험은 AI에게 비교적 풀기 쉬운 시험”이라며 “앞으로 의료 현장의 규칙 등을 꾸준히 외워 활용하면 의료진의 부담 경감으로 이어질 수 있을 것”이라고 평가했다.
GPT-4는 앞서 미국 사법시험과 의사국가시험에서도 합격한 바 있다.