본문 바로가기

인사이트

해석가능한 의료 인공지능 모델

딥러닝을 활용한 머신러닝 모델들이 여러 분야에서 높은 성능을 보여주기 시작하면서 점점 더 다양한 문제를 풀기 위해 딥러닝 모델을 활용하는 경우가 늘어나고있습니다. 딥러닝 모델은 높은 성능을 보유하고 있을 뿐 아니라, 기존에 다른 방법으로 풀지 못했던 문제들을 해결할 수 있다는 장점을 가지고 있습니다. 그 중에서도 딥러닝 모델이 사람보다도 뛰어난 성능을 내는 것으로 알려진 연구 분야는 바로 ‘이미지 분류’ 입니다. 

 

관련된 논문(O. Russakovsky, et al., 2015, K. He, et al., 2016)에 나와있듯 ImageNet 데이터셋에 대한 이미지 분류 문제에 있어 딥러닝 모델의 이미지 분류 능력이 사람보다 더 높은 것을 확인할 수 있습니다.

허나, 이러한 장점에도 불구하고 딥러닝 모델에도 치명적인 단점이 존재합니다. 바로 모델의 의사결정 과정을 알 수 없는 ‘블랙박스 현상’ 입니다. 위에서 언급한 것과 같이 이미지 분류와 같은 분야에서는 사실 딥러닝 모델이 블랙박스로 되어있다는 것이 큰 문제가 되지는 않을 수 있습니다. 결과가 좋다면, 즉 이미지만 잘 분류해 낼 수 있다면, 어떠한 과정을 통해 모델이 이러한 결론을 내렸는지는 크게 중요하지 않기 때문입니다. 하지만 인공지능 판사 모델을 통해 범죄자에게 형량을 선고하게 된다면 어떻게 될까요? 

 

사람들은 해당 모델이 내리는 판단 결과 못지않게, 그 판단을 내리게 된 근거에도 관심을 가지게 될 것 입니다. 특정 범죄를 범한 범인에게 인공지능 판사가 징역 10년을 선고했다면, 왜 징역형이 나오게 되었는지, 그리고 형량은 왜 5년, 20년이 아닌 10년을 선고했는지 그 이유에 대한 해석을 요구하게 될 것입니다. 만약기존의 딥러닝 모델만을 이용해 인공지능 판사 모델을 만들었다면, 그 모델의 의사결정 과정은 블랙박스이기에 이러한 질문에 답을 할 수 없습니다.

따라서 최근에는 딥러닝을 활용한 모델의 성능 향상을 위한 연구 뿐 아니라, 그 모델이 의사결정을 내리는 과정에 대한 설명이 가능한 모델에 대한 연구가 활발하게 이루어지고 있습니다. 이러한 연구를 우리는 ‘해석가능한 인공지능 모델(Explainable AI)’이라고 부릅니다.

인공지능 모델의 해석 방법으로는 주로 모델이 예측값을 만드는데 있어서 어떠한 입력 값들이 주요한 영향을 미쳤는지를 계산하여 보여주는 방법들이 사용되고 있습니다. 대표적인 방법들은 다음과 같습니다.

 

출처: AITRICS

 

  • Feature Importance: 특정 Feature들의 값을 임의로 조정하면서 Loss의 변화량을 측정하여 Feature별로 모델의 예측결과에 미치는 영향을 계산하여 보여주는 방법

(Christoph Molnar, “Interpretable Machine Learning”)

 

  • SHAP (SHapley Additive exPlanations): Shapley값을 기반으로 각 Feature들이 모델의 예측 결과에 미치는 영향을 계산하여 해당 Feature들의 중요도를 보여주는 방법

(Ramprasaath R. Selvaraju, et al., 2019)

  • GRAD-CAM: 모델의 Gradient값을 이용하여 Feature Map들의 기여도를 계산하여 보여주는 방법

  • LRP (Layer-wise Relevance Propagation): 딥러닝 모델의 각 Layer별로 모델의 예측결과 값에 미치는 영향을 계산하여 보여주는 방법

(Ashish Vaswani, et al., 2017)

 

  • Attention Based Interpretation: 기존에 사용하는 딥러닝 모델안에 Attention Layer를 추가하여 Feature별로 혹은 Time Sequence별로 Attention Score를 계산하여 중요도를 표현

의료인공지능 모델에 결과 해석이필요한 이유

다른 그 어떠한 분야보다도 의료 업계에서 인공지능 모델을 사용하는 경우에는 결과 도출에 대한 모델의 의사결정 과정이 설명 가능해야하며, 그 과정이 임상적으로도 어긋나지 않아야 합니다. 인공지능모델의 판단이 환자의 치료로 연결되고, 곧 환자의 생명과도 직결되기 때문에 결과 해석이 더욱 중요하게 적용됩니다. 

 

아직까지 의료 인공지능 모델은 의사를 대체하는 것이 아니라, 의료진의 판단에 도움을 주는 하나의 보조지표(Clinical Decision Support System-CDSS)로 활용되는 정도의 수준이지만, 의료인공지능 모델의 판단 결과를 의료진들이 활용할 때에도해당 판단의 근거가 함께 제공되어야만 올바른 조치를 취할 수 있습니다. 

 

앞에서 이야기했던 ‘해석가능한 인공지능 모델’ 연구에서 한걸음 더 나아가, 단순히 모델의 의사결정 과정을 설명할 수 있는 것 뿐 아니라, 그 의사결정 과정이 임상적으로도 의미있는 해석이 되어야 하는 것이 해석 가능한 의료인공지능 모델 연구의 핵심이라 할 수 있습니다. 실제 의료 환경에서 의료진들이 환자의 상태를 진단하는 과정에는 특정 1–2가지 값들만이 주요한 영향을 미치는 것이 아니라, 다양한 형태의 데이터들을 종합적으로 고려하여 판단하기 때문입니다. 

 

따라서 기존의 해석 방법들처럼 입력 데이터들과 예측 결과의 관계만 설명해주는 것에서 그치는 것이 아니라, 모델이 사용한 다양한 데이터들이 종합적으로 예측결과에 어떤 영향을 미쳤는지에 대한 해석을 제공할 수 있어야합니다.


AITRICS-VC(바이탈케어)가 제공하는 결과 해석 기능

AITRICS에서 개발하고있는 AITRICS-VC(바이탈케어) 역시 다양한 방법들을 활용하여 모델의 예측 결과에 대한 해석을 함께 제공하고 있습니다. 현재 제품에 적용되어있거나 적용을 위해 연구중인 방법들은 아래와 같습니다.

 

 

  • Feature Importance: VitalCare 제품에는 입력 Feature들에 대한 Attention Layer를 구성하여 입력 Feature별 Attention Score를 계산하였으며, 해당 값을 이용하여 Feature별로 중요도를 시각화하여 제공하고 있습니다. 이를 통해 환자의 검사 결과 중 예측결과에 주요한 영향을 준 항목을 알 수 있습니다.

 

  • Time Importance: Feature Importance와 같은 방법으로 Time Sequence에 대한 Attention Layer를 추가하여, Time Sequence별로 Attention Score를 계산했습니다. 이를 통해 환자의 입실 시점부터 예측 시점까지의 데이터들 중에서 어떤 시간의 데이터가 모델의 예측에 주요한 영향을 미쳤는지를 시각적으로 보여주고 있습니다.

  • Graph Explanation: Graph Neural Network (GNN)을 사용하여 예측모델을 만들게 되면 Graph의 노드들과 엣지들의 값을 이용하여 노드들의 관계를 설명할 수 있게 됩니다. 이러한 Graph의 해석가능성을 이용하여 입력 Feature들과 모델의 예측 결과와의 상관관계를 시각화하여 보여줄 수 있습니다.

향후 발전 방향

현재 모델에서 더 발전된 모델을 만들기 위해서는, 앞서 이야기 했듯, 실제 의료진들의 의사결정 과정과 유사한 형태의 해석 가능한 인공지능 모델이 개발되어야합니다. 이를 위해 AITRICS에서는 EMR 데이터, 이미지 데이터, 환자 기록지 등 다양한 형태의 데이터를 통합하여 사용할 수 있는 ‘Multimodal 모델’을 연구하고 있습니다. 이를 통해 실제 임상 현장에서 의료진들의 의사결정에 활용되는 데이터들을 가능한 모두 사용할 수 있는 모델 구축을 목표로 하고 있습니다. 따라서 하나의 데이터 안에서 주요한 특징들을 분석할 뿐 아니라 데이터들간의 중요도 및 결과와의 상관성을 함께 분석하여 제공하고자 합니다.

 

 

추가적으로 특정 치료시 환자의 예후 변화를 예측할 수 있는 모델 역시 필요합니다. 예측을 기반으로 환자가 최적의 효과를 볼 수 있는 치료 가이드를 의료진에게 추천해줄 수 있다면, 치료의 정확도와 병원의 신뢰도를 향상시킬 수 있을 것 입니다. 

 

이러한 모델로 발전 되었을 때, 해당 의료인공지능 모델은 임상 현장에서 무엇보다 의미있는 보조도구로 자리잡아 의료진들의 업무 효율을 높여주고 환자들의 예후 향상에 기여할 수 있을것으로 예상됩니다. 

 

AITRICS는 이러한 의료인공지능 모델을 개발하기 위해 계속해서 노력하겠습니다!