일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- ICT
- NVIDIADLI워크숍
- ICT이노베이션스퀘어 인공지능 교육
- DLI워크숍
- Ai
- pc
- 파이썬
- 운영체제
- 컴퓨터수업
- front-end
- AI프로그래밍
- Stem
- 네트워크
- 컴퓨터운영체제
- DeepLearning
- 대학수업
- Back-End
- DEEP LEARNING INSTITUTE
- 컴퓨터네트워크
- NVIDIA DLI워크숍
- nvidia
- Developer
- DEEPLEARNINGINSTITUTE
- it
- Python
- 컴퓨터
- IOT
- 딥러닝
- Network
- Dit
- Today
- Total
목록Stem (6)
코딩 이야기
1) AI 분야 - 컴퓨터 비전 : 검안법(Optometry) - 자연어 처리 : 언어학 - 강화학습 : 게임 이론, 심리학 - 이상 탐지 : 보안, 의학 2) RNN (Recurrent Neural Network) - 모델 아키텍처 - 순환 신경망 - 입력과 출력을 시퀀스 단위로 처리하는 시퀀스(Sequence) 모델 3) 기타 아키텍쳐 ① 오토인코더 (Auto Encoder) - 입력을 주게 되면 출력시 라벨이 없고 네트워크 모델을 거친 다음에 동일한 입력 값을 표시 ② GAN (Generative Adversarial Networks) - “적대적 생성 신경망”이라고 번역되는 AI기술 중 하나 - 구글 브레인에서 머신러닝을 연구했던 Ian Goodfellow에 의해 2014년 처음으로 신경정보처리시..
[ 5부 : 사전 트레이닝된 모델 ] 1) 사전 트레이닝된 모델 (PRE-TRAINED MODELS) - TensorFlow Hub - Keras - NVIDIA NGC ※ 회원가입만 하면 무료로 사용 가능 2) 전이 학습 (TRANSFER LEARNING) - 입력 → 합성곱 → Max Pooling → 합성곱 → 드롭아웃 → Max Pooling → 합성곱 → Max Pooling → 밀집 → 밀집 → 출력 더 일반적 더 전문적 3) 전이학습 (TRANSFER LEARNING)의 개념 - 이미 학습이 되어 있는 사진들을 베이스라인으로 놓고 추가적으로 작업하는 것 4) 기타 (Other) - 트레이닝된 ImageNet 모델은 Keras 라이브러리 내에서 바로 다운로드할 수 있다. - Keras 모델은 ..
[ 4부 : 데이터 증강 및 배포 ] 1) HANDS-ON 요약 - 분석 : CNN으로 검증 정확도를 높임 / 여전히 트레이닝 정확도가 검증 정확도보다 높음 - 솔루션 : 정제 데이터가 더 나은 예시를 제공 / 데이터세트의 다양성이 모델의 일반화에 도움이 됨 2) 모델 배포 (MODEL DEPLOYMENT) - 트레이닝 배치 입력 : 합성곱, Max Pooling(최대 풀링), ... - 크기 조정 → 회색조 → '배치' 3) 데이터 증강 (Data Augmentation) - 데이터세트에서 크기와 편차를 프로그래밍 방식으로 늘리는 것 - 다수의 딥러닝 애플리케이션을 위한 유용한 기술 4) 기타 (Other) - hands-on는 24개의 알파벳을 분류하는 multi-class이다보니 sigmoid를 적..
[ 3부 : CNN(Convolutional Neural Network ] 1) 패딩 (Padding) - 제로 패딩 (Zero Padding)과 동일 패딩 (Mirror Padding)으로 나누어진다. 2) 엣지(EDGE) - 수직 엣지와 수평 엣지로 나누어진다. 3) 뉴럴 네트워크 인식 (NEURAL NETWORK PERCEPTION) - 입력 → 합성곱 → 합성곱 → 합성곱 → 합성곱 → 밀집 → 밀집 → 출력 4) 맥스풀링 (MAXPOOLING) - 풀링 : 윈도우의 모든 값을 살펴보고 단순한 통계 연산을 수행하는 방법 - MAXPOOLING : 윈도의 모든 값에서 가장 큰 값만 고르는 방법 5) 드롭아웃 (DROPOUT) - 어떤 면에서 앙상블 학습을 반영하는 또 다른 흥미로운 도구 6) 합성곱..
[ 2부 : 뉴럴 네트워크의 트레이닝 방식 ] 1) 손실 곡선 (THE LOSS CURVE) - 그래디언트 (Gradient) : 어떤 방향으로 손실이 가장 많이 감소하는가 - 학습률 (Learning rate) : 이동 거리 - 에포크 (Epoch) : 전체 데이터세트로 모델 업데이트 - 배치 (Batch) : 전체 데이터세트 중 특정 샘플 - 단계 (Step) : 가중치 매개변수에 대한 업데이트 2) 옵티마이저 (OPTIMIZERS) - Adam - Adagrad - RMSprop - SGD ※ 손실 - 모멘텀 옵티마이저 (Loss - Momentum Optimizer) 3) 네트워크 구축 - 더 많은 변수로의 확장 - 뉴런들간의 연결 - 모든 회귀가 선형이면 출력 결과도 선형 회귀 4) 활성화 함수..
[ 1부 : 딥러닝 소개 ] 1) 인공지능의 시작 - 컴퓨터는 인간이 원하는 특정 작업을 완료하도록 만들어짐 - 초기에는 일반화된 인텔리전스가 가능해 보였음. - 결과적으로 예상보다 어려웠음. 2) 초기의 뉴럴 네트워크 - 생물학에서 착안됨 - 1950년대에 구축됨 - 폰 노이만 아키텍처에 의해 추월당함 3) 딥러닝 (Deep Learning) - 프로그래밍 방식의 패러다임 전환 4) 기존 프로그래밍_분류기 구축 - 분류를 위한 규칙 세트 정의 - 이러한 규칙을 컴퓨터에 프로그래밍 - 예시가 주어지면 프로그램이 규칙을 통한 분류 수행 5) 머신 러닝_분류기 구축 - 분류 방법에 대한 답과 예시를 모델에 제공 - 모델이 추측을 수행하고 인간이 모델에 옳고 그름을 알려줌 - 모델이 올바르게 분류하는 법을 스..