설명 가능한 머신러닝, 그리고 AI 머신러닝 채택이 증가함에 따라 설명 가능한 모델은 뜨거운 주제가 되고 있습니다. 기존 신경망과 딥러닝 네트워크를 기반으로 한 예측모델은 특정 결과에 어떻게 도달했는지에 설명할 수 없는 반면, 설명 가능한 모델은 주요 변수를 보여주며 어떻게 결과에 도달했는지를 설명해 줄 수 있습니다. 설명 가능한 모델의 전통적인 예로는 의사 결정 트리(decision tree)를 들 수 있습니다. 그리고 그 의사 결정 트리는 특수한 그래프의 형태를 가지고 있습니다. 마찬가지로 그래프 알고리즘이나 그래프 기능을 AI 모델의 일부로 사용하면 "고객 --(구매) --> 제품"과 같이 그래프 관계로 자연스러운 의미를 쉽게 해석할 수 있습니다. 설명 가능한 AI 모델에는 많은 장점이 있습니다. ..