12-29 22:14
Notice
Recent Posts
Recent Comments
관리 메뉴

Scientific Computing & Data Science

[Artificial Intelligence / TensorFlow] 홍콩과기대 김성훈 교수님 강의 본문

Artificial Intelligence/TensorFlow

[Artificial Intelligence / TensorFlow] 홍콩과기대 김성훈 교수님 강의

cinema4dr12 2017. 1. 22. 17:06

 

[Lec 00]수업의 개요와 일정

[Lec 01]기본적인 Machine Learning의 용어와 개념 설명

[Lab 01]TensorFlow의 설치 및 기본적인 Operations

[Lec 02]Linear Regression의 Hypothesis와 Cost

[Lab 02]TensorFlow로 간단한 Linear Regression 구현

[Lec 03]Linear Regression의 Cost 최소화 알고리즘

[Lab 03]Linear Regression의 Cost 최소화의 TensorFlow 구현

[Lec 04]Multi-variable Linear Regression

[Lab 04]Multi-variable Linear Regression을 TensorFlow에서 구현하기

[Lec 5-1]Logistic Classification의 가설 함수 정의

[Lec 5-2]Logistic Regression의 Cost 함수

[Lab 05]TensorFlow로 Logistic Classification 구현

[Lec 6-1]Softmax Regression: 기본 개념

[Lec 6-2]Softmax Classifier의 Cost 함수

[Lab 06]TensorFlow로 Softmax Classification 구현

[Lec 7-1]학습 Rate, Overfitting 그리고 Regularization

[Lec 7-2]Training/Testing Dataset

[Lab 7]학습 Rate, Training/Test 셋으로 성능평가

[Lec 8-1]딥러닝의 기본 개념: 시작과 XOR 문제

[Lec 8-2]딥러닝의 기본 개념2: Backpropagation과 2006/2007 '딥'의 출현

[Lec 9-1]XOR 문제 딥러닝으로 풀기

[lec 9-2]딥네트웍 학습시키기(Backpropagation)

[Lec 9-x]특별편: 10분안에 미분 정리하기

 

[Lab 9-1]XOR을 위한 TensorFlow 딥네트워크

[Lab 9-2]TensorBoard로 딥네트워크 들여다보기

[Lec 10-1]Sigmoid 보다 ReLU가 더 좋아

[Lec 10-2]Weight 초기화 잘해보자

[Lec 10-3]Dropout과 Ensembles

[Lec 10-4]레고처럼 네트워크 모듈을 마음껏 쌓아보자

[Lab 10]딥러닝으로 MNIST 98%이상 해보기

[Lec 11-1]ConvNet의 Conv 레이어 만들기

[Lec 11-2]ConvNet Max Pooling과 Full Network

[Lab 11]ConvNet을 TensorFlow로 구현하자(MNIST 99%)

[Lec 12]NN의 꽃 RNN 이야기

[Lab 13]TensorFlow를 AWS에서 GPU와 함께 돌려보자

Comments