본문 바로가기
반응형
[PyTorch] 12주차: 모델 해석 및 Explainable AI (XAI) 강의 목표모델 해석의 중요성 및 필요성 이해Explainable AI (XAI) 기법 학습PyTorch 모델을 해석하기 위한 다양한 도구와 기법 적용강의 내용1. 모델 해석의 중요성모델 해석이란?모델이 예측을 어떻게 수행했는지 이해하는 과정블랙박스 모델의 투명성 향상모델 해석의 필요성신뢰성 및 투명성 증대규제 준수모델 성능 향상에 도움2. Explainable AI (XAI) 개념XAI란?AI 시스템의 예측 결과를 이해하고 설명할 수 있도록 하는 기법다양한 이해관계자 (개발자, 사용자, 규제 기관 등)에게 모델의 작동 원리를 설명XAI 주요 기법Feature ImportancePartial Dependence Plot (PDP)SHAP (SHapley Additive exPlanations)LIME (L.. 2024. 5. 30.
[PyTorch] 11주차: 모델의 성능 향상 기법 강의 목표모델의 성능을 향상시키기 위한 다양한 기법 이해하이퍼파라미터 튜닝과 모델 앙상블 방법 학습모델의 성능을 향상시키기 위한 실습 및 프로젝트 수행강의 내용1. 모델 성능 향상 개요모델 성능 향상의 필요성모델의 예측 성능을 최대화하고, 과적합 및 과소적합 문제 해결실전 프로젝트에서의 성능 향상의 중요성2. 하이퍼파라미터 튜닝하이퍼파라미터 튜닝 개념모델 학습에 영향을 미치는 하이퍼파라미터의 중요성하이퍼파라미터 최적화의 필요성튜닝 방법그리드 서치(Grid Search)랜덤 서치(Random Search)베이즈 최적화(Bayesian Optimization) from sklearn.model_selection import GridSearchCVfrom sklearn.ensemble import Random.. 2024. 5. 30.
[PyTorch] 10주차: 모델 배포 및 최종 프로젝트 발표 강의 목표모델 배포의 중요성 및 방법 이해PyTorch 모델을 배포하기 위한 다양한 기술 학습최종 프로젝트 발표 및 코드 리뷰를 통한 실전 감각 향상강의 내용1. 모델 배포의 중요성모델 배포의 개념학습된 모델을 실제 환경에 적용하여 예측 서비스 제공배포된 모델은 웹 애플리케이션, 모바일 앱, IoT 디바이스 등에서 사용할 수 있음배포의 주요 고려 사항성능 최적화: 예측 속도, 메모리 사용량 등안정성 및 확장성: 다양한 요청 처리 능력보안: 데이터 보호 및 접근 제어2. 모델 배포 방법PyTorch 모델 저장 및 로드모델 가중치 저장 및 로드전체 모델 저장 및 로드 # 모델 가중치 저장torch.save(model.state_dict(), 'model_weights.pth')# 모델 가중치 로드model .. 2024. 5. 30.
[PyTorch] 9주차: 모델 최적화 및 고급 주제 강의 목표모델 최적화 기법 이해 및 적용고급 PyTorch 기능 학습실제 프로젝트를 통해 모델 최적화 경험강의 내용1. 모델 최적화 개념모델 최적화의 중요성모델 성능 향상 및 학습 시간 단축주요 최적화 기법학습률 조정(Learning Rate Scheduling)조기 종료(Early Stopping)배치 정규화(Batch Normalization)드롭아웃(Dropout)2. 학습률 조정학습률 조정의 필요성초기 학습률 설정의 어려움학습 진행에 따라 학습률을 조정하여 효율적인 학습PyTorch에서의 학습률 스케줄러 사용torch.optim.lr_scheduler 모듈 활용import torchimport torch.optim as optimfrom torch.optim.lr_scheduler import S.. 2024. 5. 30.
[PyTorch] 8주차: 고급 주제 및 프로젝트 강의 목표Transfer Learning과 Fine-Tuning의 개념 및 활용법 이해실제 프로젝트를 통해 PyTorch를 활용한 모델 설계, 훈련, 평가 경험프로젝트 발표 및 코드 리뷰를 통한 실전 감각 향상강의 내용1. Transfer LearningTransfer Learning 개념사전 학습된 모델을 새로운 문제에 적용적은 데이터로도 높은 성능을 얻을 수 있는 방법사전 학습된 모델 사용torchvision.models 모듈에서 사전 학습된 모델 로드특정 레이어의 가중치 고정 import torchimport torchvision.models as models# Pretrained ResNet 모델 로드resnet = models.resnet18(pretrained=True)# 마지막 레이어 변경 .. 2024. 5. 30.
[PyTorch] 7주차: CNN (Convolutional Neural Network) 강의 목표CNN의 기본 개념과 구조 이해CNN 레이어 및 동작 원리 학습PyTorch에서 CNN을 사용한 모델 구현 및 학습 방법 습득강의 내용1. CNN 개념CNN이란 무엇인가?CNN(Convolutional Neural Network)은 이미지 처리와 같은 시각적 데이터를 다루기 위해 설계된 신경망 구조입니다.전통적인 신경망보다 적은 파라미터로 이미지의 공간적 정보를 효과적으로 처리합니다.CNN의 기본 원리Convolution 연산: 이미지의 국소 특징을 추출Pooling 연산: 특징 맵의 크기를 줄이고, 계산 비용을 감소시키며, 중요한 특징을 강조CNN 레이어 설명Convolutional Layer: 필터(커널)를 사용하여 특징 맵 생성Pooling Layer: 다운샘플링을 통해 특징 맵 크기 축소.. 2024. 5. 30.
[PyTorch] 6주차: 모델 훈련 및 평가 강의 목표PyTorch에서 모델 훈련 및 평가 방법 이해손실 함수와 옵티마이저 설정 및 사용법 습득훈련 루프 작성 및 모델 평가 지표 이해강의 내용1. 모델 훈련 기본 개념모델 훈련 과정순전파(forward pass): 입력 데이터를 모델에 통과시켜 예측값 계산손실 계산: 예측값과 실제값의 차이 계산역전파(backward pass): 기울기 계산가중치 업데이트: 옵티마이저를 통해 가중치 조정손실 함수(Loss Function)손실 함수는 모델의 예측값과 실제값의 차이를 측정하는 함수예시: nn.MSELoss(), nn.CrossEntropyLoss() import torchimport torch.nn as nn# MSELoss 예시criterion = nn.MSELoss() 옵티마이저(Optimizer).. 2024. 5. 30.
[PyTorch] 5주차: 데이터셋 및 DataLoader 강의 목표PyTorch에서 데이터셋을 다루는 방법 이해torch.utils.data.Dataset 및 torch.utils.data.DataLoader 클래스 사용법 습득데이터 전처리 및 배치 처리를 통한 효율적인 데이터 관리 방법 이해강의 내용1. 데이터셋 다루기PyTorch Dataset 클래스Dataset 클래스는 데이터셋을 추상화하여 데이터 로드 및 전처리를 쉽게 할 수 있도록 합니다.커스텀 데이터셋을 작성하여 다양한 데이터 형식 지원 import torchfrom torch.utils.data import Datasetclass CustomDataset(Dataset): def __init__(self, data, labels): self.data = data se.. 2024. 5. 30.
[PyTorch] 4주차: 신경망 기본 구조 강의 목표신경망의 기본 개념 이해PyTorch에서 신경망 모델을 구현하는 방법 습득기본 신경망 구성 요소와 활성화 함수 이해강의 내용1. 신경망 기본 개념신경망이란 무엇인가?신경망(Neural Network)은 인간의 뇌 구조를 모방한 기계 학습 모델입니다.여러 개의 레이어로 구성되며, 각 레이어는 여러 뉴런(Neuron)으로 이루어져 있습니다.신경망의 구성 요소레이어(Layer)뉴런(Neuron)가중치(Weights)와 바이어스(Biases)활성화 함수(Activation Function)활성화 함수는 뉴런의 출력 값을 결정하는 함수입니다.비선형 활성화 함수의 중요성2. PyTorch에서의 신경망 구현torch.nn 모듈 소개신경망 모델을 쉽게 구축할 수 있도록 다양한 레이어와 함수 제공nn.Modul.. 2024. 5. 30.
[PyTorch] 3주차: 자동 미분과 Autograd 강의 목표PyTorch의 자동 미분 기능인 Autograd의 기본 개념 이해Autograd를 사용한 기울기 계산 및 활용법 습득실제 문제에 Autograd를 적용하여 모델 학습 이해강의 내용1. 자동 미분 개념Autograd란 무엇인가?자동 미분(Automatic Differentiation)은 기계 학습 모델의 학습 과정에서 기울기(Gradient)를 자동으로 계산하는 기능입니다.PyTorch의 Autograd는 후방 전달(Backpropagation) 알고리즘을 사용하여 연산 그래프를 통해 기울기를 계산합니다.자동 미분의 원리연산 그래프(Computation Graph)기울기 계산을 위한 그래프의 역전파2. 기본 개념 실습Tensor의 requires_grad 속성requires_grad=True로 .. 2024. 5. 30.
반응형