- 1-1) 머신러닝 문제들의 분류
- 1-2) Regression Problems
- 1-3) Clustering Problems
- 1-4) Dimensionality Reduction Problems
- 1-1) 머신러닝 문제들의 분류
Supervised Learning : input(X)와 ouput(Y)이 정해진 상태로 학습을 진행하는 것
Unsupervised Learning : ouput(Y)없이 input(X)에서 특징들에 따라 학습을 진행하는 것
Classification : input(X)와 ouput(Y)이 정해진 상태로 분류
Clustering : ouput(Y)없이 input(X)에서 특징들에 따라 군집화
Reinforcement Learning: 현재 state에서 action에 따른 reward를 주어서 system을 최적화시키는 것
Semi-Supervised Learning : 일부의 input(X)에 대해서만 output(Y)이 정해진 상태로 학습을 진행하는 것
(ex. 10000개의 dataset에서 500개 정도만 label을 지정한 상태로 학습 - For 최소의 labeling을 통해 최대 효율)
- 1-2) Regression Problems
Linear regression : input(X)와 output(Y)의 관계를 ax+b형태인 선형함수로 나타낼 수 있다.
Nonlinear regression : input(X)와 output(Y)의 관계를 선형함수로 나타낼 수 없다.
- 1-3) Clustering Problems
* 머신러닝을 사용하여 Clustering을 한다면 feature를 직접 지정한 후 instance간의 similarity를 비교해야한다.
(ex. 음악의 장르를 비교할때 신호의 파장, 주기 등.. 으로 직접 feature를 지정하고 함수를 구현하여 similarity를 계산)
-> K-means Clustering, EM Clustering ...
-> 따라서 딥러닝을 이용한다. (특정 feature만을 통해 Clustering되는 것이 아닌 수십개의 regression식을 통해 계산)
- 1-4) Dimensionality Reduction Problems
Data의 차원이 높아갈수록 불필요한 차원에 의해 similarity계산에 noise가 많아지게 된다.
따라서 이런 불필요한 차원을 낮추는 방법을 사용한다.
->PCA : Data의 분산이 큰 방향을 기준으로 차원을 줄인다.
Dimensionality Reduction은 위와같이 불필요한 차원이 대다수인 28x28 data 차원을 줄이기 위해 사용된다.
강의출처 : https://github.com/heartcored98/Standalone-DeepLearning/blob/master/Lec1/Lec1-B.pdf
'인공지능 AI > 딥러닝' 카테고리의 다른 글
Linear Regression vs Logistic Regression (0) | 2020.01.09 |
---|---|
Objective Function, Loss Function, Cost Function의 차이 (0) | 2020.01.09 |
딥러닝 기본 용어 및 개념정리 (0) | 2020.01.04 |
딥러닝 공부순서 추천 (2) | 2020.01.04 |
Optimizer 종류 및 정리 (0) | 2020.01.04 |