Machine Learning (4) 썸네일형 리스트형 Tensorflow CNN from tensorflow.keras.layers import Input, Conv2D, MaxPooling2D from tensorflow.keras.models import Model from tensorflow.keras.optimizers import Adam from tensorflow.keras.losses import Categorical Crossentropy from tensorflow.keras.metrics import Accuracy input_tensor = Input(shape(28,28,1)) c1 = Conv2D(filters=32, kernel_size = 3, strides = 1, padding = 'same', activation='relu')(input_tensor.. [ML] Deep SHAP (DeepLIFT를 중심으로) Deep SHAP (DeepLIFT + Shapley Value) : Lundberg와 Lee (2016)가 제안한 SHAP에서 신경망 구조를 가진 모델을 설명하는 방법 필자가 이해한 바를 한마디로 정리하자면 "DeepLIFT를 Shapley value계산하는 방식으로 적용했다" 이다. DeepLIFT와 Shapley Value를 어떻게 결합했는지 DeepLIFT를 중점으로 이해한 내용을 설명한다. DeepLIFT(Deep Learning Important FeaTures) Author : Shrikumar, Avanti, Peyton Greenside, and Anshul Kundaje 배경 : Gradients * Input을 통해 특징의 중요도를 책정하는 방법인 Gradients 기반의 방법을 '참.. [ML] Data shuffling Effects 머신러닝 적용 중 겪은 현상 [Model Convergence & Performance] Scikit-learn MLPRegressor vs Pytorch 사이킷런에서 제공하는 MLPRegressor로 모델을 돌렸을때와, torch로 같은 hyperparameter로 세운 모델의 수렴속도 차이가 엄청나게 났다. MLPRegressor로 돌릴땐 최대 학습반복 수를 2000번으로 설정해뒀는데 167번정도 돌다가 멈췄고, torch로 세운 모델은 200번 돌아갈동안 MLPRegressor의 loss의 반의 반도 못따라갔다. 같은 iteration동안 모델 수렴속도가 엄청나게 차이가 났다. 첫 loss크기 차이부터 2배가 났고, MLPRegressor가 3번 학습하는동안 loss가 149까지 내려갈때, torc.. [ML] XAI, Model Interpretability XAI ? 기계학습 모델은 대부분이 Black-Box이기 때문에 성능이 아무리 좋아도 비즈니스 환경(혹은 군사, 의료영역과 같이 Critical한 영역)에서 모델이 내린 의사결정에 대해 설명할 수 없어 확장, 보급이 어려웠다. 하지만 최근 몇년전부터 미국DARPA 기관에 의해 XAI라는 프로젝트를 통해 XAI가 알려지기 시작하면서 짧은 기간내에 수많은 연구가 이루어지고 있다. XAI의 목적은 예측에 영향을 미친 변수를 확인하고 모델이 내린 의사결정을 파악하여 신뢰성을 제고시키고 모델에 설명력을 부여한다. 해석 접근 방법 - Global & Local - Model Specific & Model Agnostic [Global interpretability] - 모델의 로직 바탕으로 모든 예측과 결과 설명 .. 이전 1 다음