본문 바로가기
반응형
[Python] Week 4: 반복문 Day 1: for 루프 I강의 내용:for 루프의 개념기본 구조와 사용법반복 가능한 객체 (리스트, 튜플, 문자열 등)실습:for 루프를 사용한 기본 반복문 작성# for 루프 기본 구조for i in range(5): print(i) Day 2: for 루프 II강의 내용:range 함수range 함수의 사용법 (start, stop, step)range 함수와 for 루프의 결합실습:range 함수를 이용한 반복 작업# range 함수 사용 예제for i in range(1, 10, 2): print(i) # 1, 3, 5, 7, 9 Day 3: for 루프 III - 중첩 루프강의 내용:중첩 for 루프중첩 루프의 개념과 사용법2차원 리스트 순회실습:중첩 for 루프를 사용한 2차원 .. 2024. 6. 1.
[Python] Week 2: 파이썬 기본 문법 Day 1: 변수와 자료형 I강의 내용:변수와 자료형 소개변수 선언 및 초기화변수 이름 규칙기본 자료형 (정수, 부동 소수점, 문자열 등)실습:다양한 자료형의 변수 선언 및 출력자료형 변환 (정수 ↔ 부동 소수점, 문자열 ↔ 숫자)# 변수 선언 및 초기화x = 10y = 3.14name = "Python"# 변수 출력print(x) # 10print(y) # 3.14print(name) # Python# 자료형 변환a = float(x) # 정수를 부동 소수점으로 변환b = int(y) # 부동 소수점을 정수로 변환c = str(x) # 정수를 문자열로 변환d = int("42") # 문자열을 정수로 변환print(a) # 10.0print(b) .. 2024. 6. 1.
[Python] Week 1: 파이썬 소개 Day 1: 파이썬의 역사와 특징강의 내용:파이썬의 역사1980년대 말: Guido van Rossum이 네덜란드 CWI 연구소에서 파이썬 개발 시작1991년: 파이썬 최초 버전 (0.9.0) 공개2000년: Python 2.0 출시 (주요 기능: 리스트 컴프리헨션, 가비지 컬렉션)2008년: Python 3.0 출시 (주요 기능: 완전한 유니코드 지원, print 함수)파이썬의 특징간결하고 읽기 쉬운 문법동적 타이핑다양한 표준 라이브러리크로스 플랫폼 지원풍부한 커뮤니티와 생태계실습:파이썬 커뮤니티 및 리소스 탐색파이썬 공식 사이트: https://www.python.org/파이썬 공식 문서: https://docs.python.org/3/Stack Overflow의 파이썬 태그: https://stac.. 2024. 6. 1.
[PyTorch] 19주차: 딥러닝 모델의 윤리 및 책임감 있는 AI 개발 강의 목표AI와 딥러닝 모델의 윤리적 문제 이해책임감 있는 AI 개발 원칙 학습윤리적 AI 개발을 위한 실천 방법 논의 및 실습강의 내용1. AI와 딥러닝 모델의 윤리적 문제AI 윤리 개요AI와 딥러닝 모델의 사회적 영향력윤리적 문제와 책임감 있는 AI 개발의 필요성주요 윤리적 문제편향성(Bias)프라이버시(Privacy)투명성(Transparency)공정성(Fairness)신뢰성(Reliability)2. 책임감 있는 AI 개발 원칙공정성(Fairness)데이터 편향성 인식 및 제거다양한 인구통계학적 그룹에 대한 공정한 모델 개발투명성(Transparency)모델의 의사결정 과정 설명 가능성AI 시스템의 투명성 확보 방법프라이버시(Privacy)데이터 수집 및 처리 과정에서의 프라이버시 보호데이터 익명.. 2024. 5. 31.
[PyTorch] 14주차: 모델 배포 및 운영 강의 목표모델 배포의 중요성 및 방법 이해PyTorch 모델을 배포하기 위한 다양한 기술 학습실전 프로젝트를 통해 모델 배포 및 운영 경험강의 내용1. 모델 배포의 중요성배포의 필요성학습된 모델을 실제 환경에 적용하여 예측 서비스 제공배포된 모델은 웹 애플리케이션, 모바일 앱, IoT 디바이스 등에서 사용할 수 있음배포의 주요 고려 사항성능 최적화: 예측 속도, 메모리 사용량 등안정성 및 확장성: 다양한 요청 처리 능력보안: 데이터 보호 및 접근 제어2. PyTorch 모델 저장 및 로드모델 가중치 저장 및 로드모델 가중치만 저장하여 나중에 불러오기전체 모델 저장 및 로드 # 모델 가중치 저장torch.save(model.state_dict(), 'model_weights.pth')# 모델 가중치 로드m.. 2024. 5. 30.
[PyTorch] 9주차: 모델 최적화 및 고급 주제 강의 목표모델 최적화 기법 이해 및 적용고급 PyTorch 기능 학습실제 프로젝트를 통해 모델 최적화 경험강의 내용1. 모델 최적화 개념모델 최적화의 중요성모델 성능 향상 및 학습 시간 단축주요 최적화 기법학습률 조정(Learning Rate Scheduling)조기 종료(Early Stopping)배치 정규화(Batch Normalization)드롭아웃(Dropout)2. 학습률 조정학습률 조정의 필요성초기 학습률 설정의 어려움학습 진행에 따라 학습률을 조정하여 효율적인 학습PyTorch에서의 학습률 스케줄러 사용torch.optim.lr_scheduler 모듈 활용import torchimport torch.optim as optimfrom torch.optim.lr_scheduler import S.. 2024. 5. 30.
[PyTorch] 6주차: 모델 훈련 및 평가 강의 목표PyTorch에서 모델 훈련 및 평가 방법 이해손실 함수와 옵티마이저 설정 및 사용법 습득훈련 루프 작성 및 모델 평가 지표 이해강의 내용1. 모델 훈련 기본 개념모델 훈련 과정순전파(forward pass): 입력 데이터를 모델에 통과시켜 예측값 계산손실 계산: 예측값과 실제값의 차이 계산역전파(backward pass): 기울기 계산가중치 업데이트: 옵티마이저를 통해 가중치 조정손실 함수(Loss Function)손실 함수는 모델의 예측값과 실제값의 차이를 측정하는 함수예시: nn.MSELoss(), nn.CrossEntropyLoss() import torchimport torch.nn as nn# MSELoss 예시criterion = nn.MSELoss() 옵티마이저(Optimizer).. 2024. 5. 30.
[PyTorch] 5주차: 데이터셋 및 DataLoader 강의 목표PyTorch에서 데이터셋을 다루는 방법 이해torch.utils.data.Dataset 및 torch.utils.data.DataLoader 클래스 사용법 습득데이터 전처리 및 배치 처리를 통한 효율적인 데이터 관리 방법 이해강의 내용1. 데이터셋 다루기PyTorch Dataset 클래스Dataset 클래스는 데이터셋을 추상화하여 데이터 로드 및 전처리를 쉽게 할 수 있도록 합니다.커스텀 데이터셋을 작성하여 다양한 데이터 형식 지원 import torchfrom torch.utils.data import Datasetclass CustomDataset(Dataset): def __init__(self, data, labels): self.data = data se.. 2024. 5. 30.
[PyTorch] 4주차: 신경망 기본 구조 강의 목표신경망의 기본 개념 이해PyTorch에서 신경망 모델을 구현하는 방법 습득기본 신경망 구성 요소와 활성화 함수 이해강의 내용1. 신경망 기본 개념신경망이란 무엇인가?신경망(Neural Network)은 인간의 뇌 구조를 모방한 기계 학습 모델입니다.여러 개의 레이어로 구성되며, 각 레이어는 여러 뉴런(Neuron)으로 이루어져 있습니다.신경망의 구성 요소레이어(Layer)뉴런(Neuron)가중치(Weights)와 바이어스(Biases)활성화 함수(Activation Function)활성화 함수는 뉴런의 출력 값을 결정하는 함수입니다.비선형 활성화 함수의 중요성2. PyTorch에서의 신경망 구현torch.nn 모듈 소개신경망 모델을 쉽게 구축할 수 있도록 다양한 레이어와 함수 제공nn.Modul.. 2024. 5. 30.
[PyTorch] 3주차: 자동 미분과 Autograd 강의 목표PyTorch의 자동 미분 기능인 Autograd의 기본 개념 이해Autograd를 사용한 기울기 계산 및 활용법 습득실제 문제에 Autograd를 적용하여 모델 학습 이해강의 내용1. 자동 미분 개념Autograd란 무엇인가?자동 미분(Automatic Differentiation)은 기계 학습 모델의 학습 과정에서 기울기(Gradient)를 자동으로 계산하는 기능입니다.PyTorch의 Autograd는 후방 전달(Backpropagation) 알고리즘을 사용하여 연산 그래프를 통해 기울기를 계산합니다.자동 미분의 원리연산 그래프(Computation Graph)기울기 계산을 위한 그래프의 역전파2. 기본 개념 실습Tensor의 requires_grad 속성requires_grad=True로 .. 2024. 5. 30.
반응형