일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Dit
- 딥러닝
- front-end
- IOT
- NVIDIA DLI워크숍
- Developer
- DEEPLEARNINGINSTITUTE
- AI프로그래밍
- DEEP LEARNING INSTITUTE
- 컴퓨터운영체제
- 컴퓨터네트워크
- Python
- DLI워크숍
- Network
- ICT이노베이션스퀘어 인공지능 교육
- 네트워크
- it
- nvidia
- 파이썬
- DeepLearning
- 컴퓨터수업
- Stem
- 대학수업
- Back-End
- ICT
- pc
- Ai
- NVIDIADLI워크숍
- 컴퓨터
- 운영체제
Archives
- Today
- Total
코딩 이야기
[2022] NVIDIA DEEP LEARNING INSTITUTE 2부 본문
[ 2부 : 뉴럴 네트워크의 트레이닝 방식 ]
1) 손실 곡선 (THE LOSS CURVE)
- 그래디언트 (Gradient) : 어떤 방향으로 손실이 가장 많이 감소하는가
- 학습률 (Learning rate) : 이동 거리
- 에포크 (Epoch) : 전체 데이터세트로 모델 업데이트
- 배치 (Batch) : 전체 데이터세트 중 특정 샘플
- 단계 (Step) : 가중치 매개변수에 대한 업데이트
2) 옵티마이저 (OPTIMIZERS)
- Adam
- Adagrad
- RMSprop
- SGD
※ 손실 - 모멘텀 옵티마이저 (Loss - Momentum Optimizer)
3) 네트워크 구축
- 더 많은 변수로의 확장
- 뉴런들간의 연결
- 모든 회귀가 선형이면 출력 결과도 선형 회귀
4) 활성화 함수 (ACTIVATION FUNCTIONS)
- Linear (선형)
- ReLU
- Sigmoid (시그모이드)
5) 트레이닝 데이터와 검증 데이터 비교
- 트레이닝 데이터 (Training data) : 학습해야 하는 모델의 핵심 데이터세트
- 검증 데이터 (Validation data) : 정말로 이해하는지(일반화 가능한지)를 확인하기 위한 모델의 새 데이터
- 과적합 (Overfitting) : 모델이 트레이닝 데이터에 대한 좋은 성능을 보이지만 검증 데이터는 그렇지 못함 (암기의 증거)
정확도 및 손실이 두 데이터세트 간에 유사해야 이상적임
'Coding > NVIDIA' 카테고리의 다른 글
[2022] NVIDIA DEEP LEARNING INSTITUTE 6부 (0) | 2022.12.02 |
---|---|
[2022] NVIDIA DEEP LEARNING INSTITUTE 5부 (0) | 2022.12.02 |
[2022] NVIDIA DEEP LEARNING INSTITUTE 4부 (0) | 2022.12.02 |
[2022] NVIDIA DEEP LEARNING INSTITUTE 3부 (0) | 2022.12.02 |
[2022] NVIDIA DEEP LEARNING INSTITUTE 1부 (0) | 2022.12.02 |
Comments