본문 바로가기
반응형
[CV] Grad-CAM++ [출처]: Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks논문 요약: Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks개요Grad-CAM++는 기존 Grad-CAM 기법을 확장하여 CNN 모델의 예측에 대한 시각적 설명을 제공하는 방법입니다. 이 논문은 Grad-CAM++가 객체의 위치를 더 잘 파악하고 하나의 이미지에 여러 객체 인스턴스가 있을 때 더 나은 설명을 제공한다고 주장합니다.주요 기여픽셀 단위 가중치: Grad-CAM++는 CNN의 마지막 합성곱 층의 피쳐 맵에서 각 픽셀의 중요성을 평가하여 시각적 설명을 생성합니다. 이를 위해 고.. 2024. 6. 7.
[CV] Grad-CAM [출처]: Grad-CAM: Visual Explanation from Deep Networks via Gradient-based Localization 논문 요약: Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization저자Ramprasaath R. SelvarajuMichael CogswellAbhishek DasRamakrishna VedantamDevi ParikhDhruv Batra논문 개요이 논문은 Grad-CAM (Gradient-weighted Class Activation Mapping)이라는 기법을 제안하여, CNN 기반 모델의 결정을 시각적으로 설명할 수 있도록 하는 기술을 소개합니다. Grad-C.. 2024. 6. 7.
[CV] CAM [출처]: Learning Deep Features for Discriminative Localization 논문 "학습된 깊은 특징들을 통한 판별적 지역화"는 Bolei Zhou, Aditya Khosla, Agata Lapedriza, Aude Oliva, Antonio Torralba가 작성한 것으로, 이미지 수준의 레이블로 학습된 CNN(Convolutional Neural Network)이 전역 평균 풀링(GAP, Global Average Pooling)을 사용하여 놀라운 지역화 능력을 가지도록 하는 방법을 탐구합니다. 다음은 논문의 요약입니다:초록저자들은 전역 평균 풀링(GAP) 레이어를 재검토하고, 이것이 이미지 수준의 레이블로 학습되었음에도 불구하고 CNN이 놀라운 지역화 능력을 가지도록.. 2024. 6. 7.
[PyTorch] 12주차: 모델 해석 및 Explainable AI (XAI) 강의 목표모델 해석의 중요성 및 필요성 이해Explainable AI (XAI) 기법 학습PyTorch 모델을 해석하기 위한 다양한 도구와 기법 적용강의 내용1. 모델 해석의 중요성모델 해석이란?모델이 예측을 어떻게 수행했는지 이해하는 과정블랙박스 모델의 투명성 향상모델 해석의 필요성신뢰성 및 투명성 증대규제 준수모델 성능 향상에 도움2. Explainable AI (XAI) 개념XAI란?AI 시스템의 예측 결과를 이해하고 설명할 수 있도록 하는 기법다양한 이해관계자 (개발자, 사용자, 규제 기관 등)에게 모델의 작동 원리를 설명XAI 주요 기법Feature ImportancePartial Dependence Plot (PDP)SHAP (SHapley Additive exPlanations)LIME (L.. 2024. 5. 30.
반응형