신동완(사이넥스 의료기기사업부 상무)

[라포르시안] 인공지능(AI)은 그 어느 때보다 우리 사회 전반에서 빠르게 발전하고 있다. 챗GPT를 비롯한 생성형 AI의 등장은 의료·헬스케어 분야에도 큰 파급효과를 일으키고 있다. 환자 상담 챗봇을 넘어 ▲임상 데이터 분석 ▲신약 후보 물질 발굴 ▲영상진단 보조 ▲디지털 치료제까지 활용 범위 또한 무궁무진하다.

그러나 이러한 혁신만큼 중요한 과제가 바로 ‘규제 속도’이다. 기술이 임상 현장에서 안전하고 효과적으로 사용되려면 적절한 규제가 뒷받침해야 한다. 하지만 현재의 규제 체계는 여전히 기술 발전을 따라가지 못하고 있다. 특히 헬스케어 AI는 단순한 데이터 분석 단계를 넘어 의사결정 보조 단계에 본격 진입하고 있다.

AI는 영상의학 분야에서 이미 폐결절·유방암·뇌졸중 병변 탐지 등에 상용화돼 의사의 진단에 필적하는 성능을 보인다. 뿐만 아니라 챗GPT 같은 대규모 언어 모델은 환자 상담·진료기록 요약·연구 문헌 검색 등에서 의료진의 부담을 줄여주는 가능성을 인정받고 있다. 이러한 기술은 환자 진단·치료에 직결되는 만큼 안전성과 신뢰성을 보장할 규제 체계 정립이 필수적이다.

이 때문에 미국·유럽·중국은 각기 다른 방식으로 헬스케어 AI 규제를 정비해 나가고 있다. 미국 FDA는 AI·머신러닝(ML) 기반 소프트웨어의 지속적 학습과 업데이트를 고려한 사전 변경 관리 계획(Predetermined Change Control Plan·PCCP) 제도를 2024년 최종 확정해 발표했다.

또한 임상의사결정지원(Clinical Decision Support·CDS) 소프트웨어 가이드라인, AI·ML 소프트웨어 의료기기(Software as a Medical Device·SaMD) 액션 플랜, 국제 규제 기관과 공동 발표한 ‘기계학습 우수사례(Good Machine Learning Practice·GMLP) 원칙’ 등을 통해 실무 지침을 계속 보완해 나가고 있다. 이는 혁신을 저해하지 않으면서도 환자 안전을 보장하기 위한 합리적 ‘균형점’을 모색하는 접근으로 평가된다.

유럽연합(EU) 또한 의료기기 규정(Medical Device Regulation·MDR)·체외진단의료기기 규정(In Vitro Diagnostic Medical Device Regulation·IVDR)과 함께 2024년 발효된 AI 규제 법안 ‘EU AI Act’를 통해 의료기기 영역의 AI를 고위험(High-Risk) 범주로 분류하고 있다. 이러한 규제 체계는 개발자와 기업에 복합적인 의무를 부과하는 동시에 ▲데이터 거버넌스 ▲투명성 ▲위험 관리 등 핵심 요소를 강화해 AI 도입의 신뢰성을 높인다.

이와 함께 EU 집행위원회 산하 조직인 Medical Device Coordination Group(MDCG) 가이드라인을 통해 소프트웨어 의료기기의 임상 평가, 분류, AI Act와의 상호작용까지 세부적으로 안내하며 규제 실효성을 높이고 있다.

중국 역시 국가약품감독관리국(NMPA)을 중심으로 의료기기 소프트웨어 및 AI 가이드라인을 대거 개정했다. 먼저 2022년에는 ▲의료기기 AI 등록 심사 가이드라인 ▲의료기기 소프트웨어 등록 ▲사이버보안 가이드라인을 발표해 AI 알고리즘의 업데이트와 전주기 관리까지 규정했다.

또한 일반 대중을 대상으로 하는 서비스 차원에서는 사이버공간관리국(Cyberspace Administration of China·CAC)이 2023년 ‘생성형 AI 서비스 관리 잠정조치’를 시행하며 챗GPT 유사 서비스에 대한 별도의 관리 틀도 마련했다. 이는 의료기기 심사와 공공 서비스 규제를 병행하는 이원적 구조를 보여준다.

미국·유럽·중국 모두 각국 상황에 맞는 규제와 가이드라인을 제시하며 빠르게 변화하는 기술 흐름을 따라잡으려 하고 있다. 미국은 PCCP·GMLP를 통한 동적 업데이트 관리에 초점을 맞추고, 유럽은 AI Act와 MDR·IVDR 정합성을 강화하며 중국은 의료기기 등록 단계에서부터 알고리즘 관리와 사이버보안까지 포괄한다. 이들 모두 ▲투명성 ▲데이터 품질 ▲위험 관리의 ‘공통 키워드’를 중심으로 제도를 다듬고 있다는 점이 주목할 만하다.

물론 한국도 식품의약품안전처가 국제 규제 동향에 발맞춰 AI 기반 의료기기 관리체계를 정비하고 있다. 2020년대 들어 ▲인공지능(AI) 의료기기 허가·심사 가이드라인 ▲빅데이터 및 머신러닝 활용 의료기기 검증 가이드라인 등을 발간하며 AI 알고리즘의 학습 데이터 적합성, 성능 검증, 임상적 유효성 평가 기준을 제시했다.

특히 2023년 이후에는 디지털 치료제, 영상진단 보조 AI, 환자 맞춤형 소프트웨어 의료기기 등 세부 분야별 가이드라인을 단계적으로 마련한 데 이어 올해부터 국제 공동 검토 제도를 도입해 글로벌 규제기관과의 조화도 강화하고 있다. 이와 함께 AI 의료기기의 주기적인 성능 업데이트 관리와 사후 안전관리 절차를 제도화하는 방향으로 규정 개정 작업을 진행 중이다.

결국 헬스케어 AI 규제의 핵심은 ‘혁신과 안전의 균형’이다. 지나친 규제는 혁신을 저해할 수 있고, 규제의 부재는 환자 안전을 위협할 수 있다. 글로벌 주요국의 움직임을 보면 앞으로 규제기관들은 기술의 발전 속도를 따라잡는 것을 넘어 선제적 규제 설계로 산업과 환자의 신뢰를 동시에 확보하려는 방향으로 나아갈 것으로 전망된다. 

의료 현장은 더 이상 AI 없이 설명하기 어려울 만큼 급격히 변하고 있다. 그러나 환자 안전과 신뢰를 확보하지 못한다면 혁신은 허상에 불과할 따름이다. 규제는 단순히 속도를 맞추는 역할을 넘어 기술 진화를 안전하게 견인하는 ‘가드레일’(guardrail)이어야 한다. 이제는 “규제가 혁신을 늦춘다”의 오래된 인식에서 벗어나 “좋은 규제가 혁신을 가속화한다”는 새로운 패러다임을 만들어야 할 때다.

※ 외부 필진의 글은 본지의 편집방향과 다를 수 있습니다.

저작권자 © 라포르시안 무단전재 및 재배포 금지