딥시크 "의료데이터 처리 전문성 더 뛰어나...챗지피티보다 활용 가능성 높아"
챗지피티 "의료정보 제공은 강하지만 의료영상 분석 등 딥시크가 더 특화돼"

[라포르시안] 보건의료 분야에서 인공지능(AI)을 활용한 다양한 연구와 의료기기 개발이 활발하다. 정부는 4차 산업혁명의 주요 산업으로 보건의료 AI기술개발을 추진하고 있으며, 식품의약품안전처는 보건의료에서 AI 소프트웨어를 의료기기로 분류하고 여러 지침을 개발하고 승인하고 있다

이런 가운데 최근 중국 인공지능(AI) 스타트업 딥시크(DeepSeek)의 등장으로 AI 산업구조에 큰 변화가 올 것이란 기대감이 높아지고 있다. 특히 딥시크는 '저비용 AI'로, 챗지피티(ChatGPT) 개발사 오픈에이아이(AI)를 일부 앞섰다는 평가를 받고 있다.  

특히 헬스케어 분야에서 딥시크는 챗지피티와 비교해 의료 데이터 분석 및 영상 진단, 의료데이터 보안 등에서 챗지피티보다 더 강점을 갖고 있다는 분석도 있다. 

이와 관련 딥시크와 챗지피티에 직접 "헬스케어 분야 활용 가능성에 있어서 딥시크가 챗지피티보다 강점은 무엇인가?"라는 질문을 던졌을 때 딥시크와 챗지피티가 비슷한 답변을 내놓았다. 결론은 딥시크가 더 낫다는 쪽이었다. 

먼저, 딥시크는 이 질문을 입력하자 제시한 답변에서 "헬스케어 분야 활용 가능성에 있어서 챗지피티보다 더 큰 강점을 무엇인가"를 물어본 결과 "헬스케어 분야에서 ChatGPT보다 더 큰 장점을 가지는 이유는 주로 의료 데이터 처리의 전문성, 보안 및 규제 준수, 맞춤형 솔루션 제공 등에 있다"고 설명했다. 

딥시크는 "의료 분야의 대규모 데이터(예: 의료 기록, 진단 데이터, 임상 시험 데이터 등)를 학습해 의료 전문가 수준의 정확한 분석과 통찰을 제공할 수 있다"며 "ChatGPT는 일반적인 언어 모델이지만, 딥시크는 의학 용어와 복잡한 문맥을 더 정확하게 이해하고 처리할 수 있다"고 강조했다.

보안 및 규제 준수에 있어서 딥시크는 "헬스케어 분야에서는 환자 데이터 보안이 매우 중요하다. 딥시크는 HIPAA(미국), GDPR(유럽) 등 의료 데이터 보호 규정을 준수하는 설계가 가능하며, 데이터 암호화 및 접근 제어 기능을 강화할 수 있다. 또한 의료 AI는 엄격한 규제를 받기 때문에, 딥시크는 이러한 규제 요구사항을 충족하는 데 더 적합한 구조를 가지고 있다"고 했다. 

이미지 출처: 딥시크(DeepSeek) 사이트 챗 화면.
이미지 출처: 딥시크(DeepSeek) 사이트 챗 화면.

병원에 특화한 맞춤형 솔루션 제공도 강점으로 꼽았다.

딥시크는 답변에서 "딥시크는 특정 병원, 클리닉, 또는 의료 기관의 요구에 맞춰 시스템을 최적화할 수 있다. 예를 들어, 특정 질병에 대한 진단 모델이나 치료 계획을 맞춤형으로 개발할 수 있다"며 "각 국가나 지역의 의료 환경, 법규, 문화적 차이를 반영한 솔루션을 제공할 수 있다"고 설명했다. 

실시간 데이터 처리 및 의사 결정 지원도 딥시크의 강점으로 꼽혔다. 

딥시크는 "실시간으로 환자의 건강 데이터를 분석해 즉각적인 의사 결정을 지원할 수 있다"며 "수술 중 실시간 데이터 분석, 환자 상태 예측, 치료 옵션 제안 등 의료진의 업무를 보조하는 데 더 효과적"이라고 했다. 

이밖에 딥시크는 "대규모 데이터를 기반으로 질병 발병 위험을 예측하고, 조기 경고 시스템을 구축할 수 있다"며 "신약 개발 관련해 딥시크는 임상 시험 데이터를 분석하여 신약 개발 과정을 가속화할 수 있으며, 대규모 의학 문헌을 분석해 새로운 연구 주제나 치료법을 발견하는 데 기여할 수 있다"고 강조했다. 

딥시크는 이런 분석을 바탕으로 낸 결론에서 "딥시크는 헬스케어 분야에서 ChatGPT보다 더 전문적이고 안전하며, 맞춤형 솔루션을 제공할 수 있는 잠재력을 가지고 있다. 특히, 의료 데이터의 특수성과 규제 요구사항을 충족하면서도, 실시간 분석과 예측을 통해 의료 서비스의 질을 크게 향상시킬 수 있다"며 "이러한 장점들로 딥시크는 헬스케어 분야에서 더 큰 활용 가능성을 가지고 있다"고 내다봤다. 

동일한 질문을 챗지피티에 던졌을 때 내놓은 답변이 딥시크가 제시한 답변과 겹치는 부분이 많았다. 

챗지피티는 "헬스케어 분야 활용 가능성에 있어서 챗지피티보다 더 큰 강점은 무엇인가?"를 묻는 질문에 내놓은 답변에서 ▲의료 데이터 분석 및 영상 진단 특화 ▲실시간 정밀 진단 지원 ▲임상 적용을 위한 규제 및 검증 적합성 ▲의료 데이터 보안 및 프라이버시 보호 ▲의료진을 위한 맞춤형 AI 솔루션 등을 꼽았다. 

챗지피티는 관련 답변에서 "딥시크는 딥러닝을 기반으로 한 의료 영상 분석 및 진단 보조 시스템에 특화되어 있다. CT, MRI, X-ray 등의 의료 영상을 분석해 질병을 조기 발견하거나 진단을 보조하는 데 강점을 갖는다"며 "반면, ChatGPT는 주로 자연어 기반의 상담, 문서 요약, 의료 지식 제공에 강하다"고 설명했다. 

실시간 정밀 진단 지원 관련해 챗지피티는 "딥시크는 환자의 의료 데이터를 분석해 실시간으로 특정 질환을 탐지하거나 이상 징후를 감지하는 데 적합하다"며 "특히 방대한 양의 영상 데이터를 학습해 의료진이 놓칠 수 있는 미세한 패턴까지 잡아낼 수 있다. 반면, ChatGPT는 의료 정보를 제공하는 데 강하지만, 직접적인 영상 분석이나 정밀 진단을 수행하는 능력은 없다"고 분석했다.

이미지 출처: 챗지피티(ChatGPT) 사이트 챗 화면.
이미지 출처: 챗지피티(ChatGPT) 사이트 챗 화면.

실제로 챗지피티는 X-레이나 MRI 등의 의료 영상을 직접 분석할 수 없어, 이를 바탕으로 한 진단에 한계가 있다는 평가를 받고 있다. 그 이유는 챗지피티가 텍스트 기반 AI로 설계돼 있기 때문에 X-ray나 MRI 등 의료 영상을 수치화된 데이터로 변환하거나 패턴을 분석하는 능력이 부재하다. 

챗지피티는 딥시크가 의료분야에서 갖고 있는 더 큰 강점으로 "임상 적용을 위한 규제 및 검증 적합성을 꼽았다. 딥시크 역시 챗지피티와 비교했을 때 강점으로 보안 및 규제 준수를 꼽은 것과 같은 맥락이다. 

챗지피티는 "딥시크는 의료 AI 솔루션으로 개발됐기 때문에 FDA(미국 식품의약국) 및 CE(유럽 적합성) 인증과 같은 규제 승인 과정을 거쳐 임상 환경에서 사용할 수 있도록 설계됐다"며 "이는 병원이나 의료 기관에서 직접적인 사용을 가능하게 한다. 반면, ChatGPT는 의료 정보를 제공할 수 있지만, 규제 기관의 공식 인증을 받지 않은 일반 AI 모델이므로 진료 현장에서 직접 사용하기엔 한계가 있다"고 분석했다. 

챗지피티는 또 "딥시크는 병원 및 의료진의 실무를 고려하여 맞춤형 AI 솔루션을 제공할 수 있으며, 특정 질환(예: 암, 폐질환, 뇌졸중 등)의 진단을 위한 고도화된 모델을 구축할 수 있다"며 "반면, ChatGPT는 일반적인 의료 상담이나 정보 제공 수준에 머무르는 경우가 많다"고 설명했다. 

이런 분석을 기반으로 한 결론에서 챗지피티는 "딥시크는 영상 기반 진단 보조, 실시간 분석, 임상 적용, 의료 데이터 보호 측면에서 ChatGPT보다 더 큰 장점을 갖는다"며 "반면 ChatGPT는 환자 상담, 의료 정보 제공, 연구 지원 등에 강점을 가지므로 두 기술이 상호 보완적으로 활용될 수 있다"고 내다봤다. 

국립보건의료연구원, ''보건의료 분야 인공지능 연구윤리 지침' 발간

인간의 자율성 존중과 보호 등 6가지 핵심 원칙 제시

"AI가 갖는 양면성 고려해 부정적인 결과 예방하고 줄이는 방향 지향해야"

한편 국립보건연구원(원장 박현영)은 2023년 8월 보건의료 분야 연구자를 위한 '보건의료 분야 인공지능 연구윤리 지침'을 발간한 바 있다.   

국립보건연구원이 발간한 인공지능 연구윤리 지침은 연구자가 자율적이고 책임 있는 인공지능 연구를 할 수 있도록 윤리적 기준을 제시한다. 지침에는 인공지능 연구 설계부터 데이터 생성, 모델 개발, 검증‧평가, 적용 및 사후 점검 전 과정에서 발생할 수 있는 윤리적 질문에 대한 원칙을 담았다. 

이 지침에는 응급상황에서 인공지능 활용과 동의, 의료 인공지능의 질과 안전성, 챗봇의 환각 효과, 임상결정의 미묘한 경계선과 인공지능, 인공지능과 인종 편향, 인공지능 기술이 가져올 의료인 고용환경 변화 등 구체적 사례를 함께 제시하고 있다. 

주요 내용을 보면 전반적으로 WHO가 발표한 '의료 분야 인공지능 윤리와 거버넌스 지침서' 내용을 참고해 AI를 윤리적으로 사용하기 위한 6가지 핵심 원칙으로 ▲인간의 자율성 존중과 보호 ▲인간의 행복, 안전, 공공의 이익 증진 ▲투명성, 설명가능성, 신뢰성 ▲책무, 법적책임 ▲포괄성, 공정성 ▲대응성, 지속가능성 등을 제시하고 그 개념과 해설, 사례 등으로 구성했다. 

핵심 원칙 중 '인간의 행복, 안전, 공공의 이익 증진' 관련해 AI 연구와 기술은 인류의 건강과 행복, 안전, 공공의 이익을 증진하는 것을 목표로 하고, 연구자는 잠재적 위해를 인식하고 이를 피하도록 노력한다고 명시했다. 

지침은 "인공지능 기술과 관련된 안전성은 인공지능 알고리즘 자체의 불완전성과 내재적 모순으로 인해 발생할 수 있는 위험에 대한 우려와 위험이익분석 결과뿐 아니라 실존 위험에 대한 도덕적, 실제적 책임의 문제를 포괄하는 의미"라며 "의료 인공지능 기기의 오류 발생으로 인해 환자의 건강에 위험이 발생할 가능성이 있고, 알고리즘의 불투명성(블랙박스)는 정보주체가 그 권리를 안전하게 행사하는 것을 침해할 가능성을 들 수 있다"고 했다. 

이 지침과 관련된 사례로는 인공지능의 신경망 해킹, 인체 삽입 의료기기 해킹 위험, 딥페이크와 오픈 인공지능 등을 제시했다. 

지침에 따르면 신경망 해킹은 신경망이 이미지를 잘못 분류하도록(매우 높은 수준으로) 약간의 변경을 통해 강제로 이미지를 수정하는 방법을 통하여 가능하다. 폐암 진단에서 인공지능 해킹기술을 이용해 의료기록을 조작함으로써 인공지능 시스템 오류를 발생시킨 사례가 있다. 

실제로 이스라엘의 벤구리온대학 연구진이 코넬대 논문 사전 출판 웹사이트인 아카이브(ArXiv)에 제출한 논문에 따르면 AI 기술을 바탕으로 3D 스캔 영상 이미지를 조작해 의료진이 잘못된 진단을 내리도록 유도하는 악성 코드가 가능하게 할 수 있음을 확인했다. 

'투명성, 설명가능성, 신뢰성' 원칙 관련해 AI 개발자나 개발기관이 해당 기술에 대하여 기술적, 윤리적 기능을 설명할 수 있는 역량을 갖추고, 알고리즘의 역할 및 목적과 데이터 처리의 전 과정에 대한 명료한 정보를 제공하는 것에서 나아가 어떠한 오류나 피해가 발생했을 때 그 결과의 추적가능성과 사후 설명까지를 의미한다고 지침은 설명했다. 

이 원칙과 관련한 사례로 '처방과 블랙박스', '챗봇의 환각 효과' 등을 제시했다. 

처방과 블랙박스 사례로 임상에서 의사가 인공지능 알고리즘을 활용해 환자에게 최적의 약물과 복용량을 권장할 때 인공지능의 블랙박스 특성 상 의사가 인공지능 알고리즘에서 어떻게 약물과 복용량을 권고했는지 알지 못할 수 있다.

이런 상황에서 ▲의사는 인공지능의 권고를 따라야 하는가 ▲의사가 환자에게 치료를 권하기 위해 인공지능이나 기계학습을 사용하더라도 그러한 사실을 환자에게 알리지 않는다면, 환자들은 어떻게 느낄 것인가? ▲의사는 환자에게 인공지능이나 기계학습을 활용한 여부를 말해야 할 도덕적 또는 법적 의무가 있는가 ▲의사는 환자에게 어떤 필수 정보를 제공해야 하는가 등의 질문을 제기할 수 있다. 

챗봇(ChatGPT) 등 초거대 언어모형에 기반을 둔 챗봇이 발표되면서 인공지능 활용은 급격히 확대되고 있지만 오픈 인공지능이 피해갈 수 없는 문제로 '환각 효과'가 있다. 챗봇이 잘못된 정보를 그럴듯하게 제시해 사람이 속아 넘어가는 것을 말한다. 

보건의료 영역에서 이런 환각 효과는 큰 쟁점이 된다. 환자가 챗봇에게 질병의 치료법을 물어봤다가 틀린 대답을 그대로 믿고 시행해 환자에게 해악이 발생한다거나 응급상황에서 어느 병원으로 가야할지 챗봇에게 문의했는데 잘못된 정보를 제공해 응급처치가 늦어지게 되는 상황이 발생한다면 어떻게 될까. 의료인과 챗봇이 진단이나 치료에 대해 다른 대답을 내어놓았는데, 챗봇의 말이 훨씬 '그럴듯해' 보이는 경우라면 또 어떨까. 

지침은 "챗봇을 보건의료 영역에 활용하기 위해선 투명성과 설명가능성을 확보할 필요가 있다"며 "챗봇이 내놓은 결과는 어떤 자료 또는 데이터세트를 바탕으로 만들어진 것인지 공개하고, 챗봇이 보건의료 영역에서 어떤 질문에까지 반응할 수 있으며, 어떤 질문에는 대답하지 않아야 하는지 사전에 결정하며, 챗봇이 내놓은 대답을 확인할 수 있는 경로를 제공해야 한다"고 강조했다. 

'포괄성, 공정성' 원칙 관련해서는 헬스케어 인공지능은 보편적인 활용을 위해 설계돼야 하며, 성별과 인종, 문화, 종교, 민족, 사회경제적 요소 등 개인적 특성에 따라 차별하지 말아야 한다는 점을 제시했다. 

이를 위해 데이터세트 개발기관 및 인공지능 개발·심의기관은 불공정한 편향을 식별하거나 해결, 완화하는 방법을 개발하기 위해 노력해야 한다. 연구자들은 개발의 모든 단계에서 불공정한 편향이 있는지 확인하고, 발견된 편향을 제거하거나 식별해 완화해야 한다고 제시했다. 

보건의료연구원은 지침을 만든 배경 설명에서 "인공지능 기술이 가지고 있는 잠재적인 양면성을 고려하면, 사회가 보건의료 인공지능 기술을 개발하는 초기 단계에서부터 인간의 존엄성을 보호하고 근본적으로 지적되는 이슈를 공론화함으로써 사회 전체가 기술의 부정적인 결과를 예방하고 줄이는 방향을 지향해야 한다"고 강조했다. 

관련기사
저작권자 © 라포르시안 무단전재 및 재배포 금지