박상철 서울대 법학전문대학원 교수
[촬영 김길원]
김길원 기자 = AI(인공지능) 기술을 이용한 헬스케어 산업이 전 세계적으로 급격한 성장세를 보이고 있다.
방대한 의료 데이터 분석을 통한 질병 예측에서부터 개인 맞춤형 진단 및 치료, 원격 의료, 의료 영상 분석, 신약 개발에 이르기까지 헬스케어 분야에서 AI의 적용 가능성은 무궁무진하다.
미국 식품의약품청(FDA)에 따르면 지난 6월 25일 기준으로 FDA에 등록된 AI 관련 디지털헬스·소프트웨어 의료기기(SaMD)는 950개에 달한다.
의료기기에 AI가 적용된 분야 중에는 영상의학이 76.1%(723개)로 가장 많았으며 심혈관질환(10.3%), 신경학(3.6%), 혈액학(1.8%) 등의 순이었다. 아직은 AI 기술이 질병 치료보다는 진단에 주로 쓰이고 있음을 보여주는 대목이다.
국내 기업 중에는 루닛과 뷰노, 휴론 등 6개 업체가 FDA에 AI 관련 제품을 등록한 것으로 파악됐다.
하지만 AI 헬스케어 시장이 확대되는 만큼 우려의 시선도 커지는 게 사실이다.
그 이유로는 조금의 오류만으로도 건강에 치명적일 수 있는 헬스케어 산업의 특성상 AI 기술의 안전성과 효과성이 입증돼야 하지만, 아직은 신뢰할만한 수준에 도달하지 못했다는 지적이 대표적이다.
이에 일부 국가에서는 AI 기술을 규제하기 위한 움직임이 구체화하고 있다.
가장 먼저 규제책을 내놓은 곳은 유럽연합(EU)이다.
EU에서는 지난 8월 세계 최초의 포괄 AI 규제법인 'EU AI Act'가 발효됐다.
이 규제법에는 EU에서 AI 기술의 발전과 함께 발생할 수 있는 다양한 사회적, 윤리적 문제를 해결하기 위한 여러 포괄적인 규제책이 담겼다.
예컨대 사회 질서나 기본권을 심각하게 위협하고 차별을 조장하는 AI 시스템을 금지하고 의료와 교통, 법 집행 등 사람들의 안전과 권리에 직접적인 영향을 미치는 고위험 인공지능 시스템에 대해서는 엄격한 모니터링을 의무화했다.
또 사용자에게 AI 시스템과 상호 작용이 이뤄지고 있음을 알리고, 시스템의 의사결정 과정에 대한 설명을 제공해야 하는 투명성 의무도 빼놓지 않았다.
이 법은 단계적으로 적용된다. AI 관련 의료기기는 2026년 8월 2일 이후에 출시되면 2027년 8월 2일부터 규제를 받고, 그 이전에 출시된 AI 관련 의료기기의 경우 2026년 8월 2일 이후 중대 설계변경이 있을 때만 규제 대상이 된다.
생명과 직결되는 응급의료 호출과 응급환자 분류 등에 활용되는 AI 기술의 경우 2027년 8월 2일 이후부터 규제받는다.
FDA 디지털헬스·소프트웨어 의료기기 현황
[박상철 교수 제공]
국내에서도 유럽연합의 법 제정 이후 이를 참고한 'AI 기본법' 제정이 서둘러 추진되고 있다. 정부는 AI 기본법을 통해 AI 발전과 안전·신뢰를 균형 있게 달성한다는 계획이다.
하지만 의료계 전문가들은 국내에서 EU 같은 '수평적 규제' 방식의 AI 기본법이 제정될 경우 이제 막 태동기에 들어간 AI 헬스케어 산업의 성장을 가로막을 수 있다고 지적한다.
예컨대 AI 기술로 얼굴, 음성을 조작하는 딥페이크 콘텐츠를 막기 위해 AI 기술 전반을 수평적으로 규제할 경우 AI 헬스케어 산업에까지 불똥이 튈 수 있다는 것이다. AI를 적용한 의료기기나 체외진단기기 등을 '고위험 AI'로 분류하고 각종 규제와 제재를 강제하는 게 이에 해당한다.
일각에서는 국내에서 마련 중인 AI 기본법이 EU보다 더 강화된 규제책을 담고 있다는 주장도 나온다.
의료법 전문가인 박상철 서울대 법학전문대학원 교수는 최근 한국의학바이오기자협회가 개최한 미디어 아카데미에 나와 국내에서 마련 중인 AI 기본법 중 규제 조항이 헬스케어 산업을 위축시킬 우려가 있는 만큼 진흥 조항만 조속히 통과시키고 규제 조항은 분리해 신중한 검토를 할 필요가 있다는 의견을 내놨다.
오랜 기간의 규제 합리화를 통해 식품의약품안전처의 의료기기 품목허가, 한국보건의료연구원의 신의료기술평가, 건강보험심사평가원의 보험등재가 통합 운영 중이고, 디지털의료제품법이 곧 시행될 예정인데 AI 기본법에 따른 규제가 추가되면 이중 규제에 해당할 수 있다는 것이다.
그는 "미국과 영국 등의 경우 AI가 불러오는 사회문제와 리스크가 분야별로 다르기 때문에 EU와 달리 AI 기술 전체에 일률적으로 적용되는 수평 규제법을 마련하는데 적극적이지 않다"면서 "대신 AI 기반 의료의 경우 기존 의료기기 관련 법을 기반으로 AI 기술 발전과 문제 발생에 맞춰 이를 수정해나가는 '맥락 특유적 규제'를 적용하고 있다"고 설명했다.
박 교수는 방통위가 준비 중인 AI 이용자법안까지 마련되면 사실상 전 산업에 'AI 3중규제'가 생길 수 있다고 진단했다.
박 교수는 "AI에 대해 전문성을 가진 과기부의 역할이 중요하지만, AI 기본법으로 전 산업에 적용될 AI에 대한 중복규제를 추가하는 것은 적절치 않다"고 말했다.
그러면서 "과기부 산하에 설치될 AI안전연구소를 통해 리스크와 경감조치를 평가한 후 가이드라인과 표준을 만들고, 규제를 일원화함으로써 AI가 불러올 문제와 위험을 줄일 수 있는 핀셋형, 맞춤형 대책을 마련해야 한다"고 덧붙였다.