본문 바로가기

인공지능 AI/딥러닝

머신러닝 기초 (1. ML Basic)

  • 1-1) 머신러닝 문제들의 분류
  • 1-2) Regression Problems
  • 1-3) Clustering Problems
  • 1-4) Dimensionality Reduction Problems

 

  • 1-1) 머신러닝 문제들의 분류

Categories of ML Problems

Supervised Learning : input(X)와 ouput(Y)이 정해진 상태로 학습을 진행하는 것

Unsupervised Learning : ouput(Y)없이 input(X)에서 특징들에 따라 학습을 진행하는 것

Classification vs Clustering

Classification : input(X)와 ouput(Y)이 정해진 상태로 분류

Clustering : ouput(Y)없이 input(X)에서 특징들에 따라 군집화

 

Reinforcement Learning: 현재 state에서 action에 따른 reward를 주어서 system을 최적화시키는 것

Semi-Supervised Learning : 일부의 input(X)에 대해서만 output(Y)이 정해진 상태로 학습을 진행하는 것

(ex. 10000개의 dataset에서 500개 정도만 label을 지정한 상태로 학습 - For 최소의 labeling을 통해 최대 효율)

 

 

 


 

  • 1-2) Regression Problems

 

Linear regression : input(X)와 output(Y)의 관계를 ax+b형태인 선형함수로 나타낼 수 있다.

Nonlinear regression : input(X)와 output(Y)의 관계를 선형함수로 나타낼 수 없다.

 

 

 


 

  • 1-3) Clustering Problems

* 머신러닝을 사용하여 Clustering을 한다면 feature를 직접 지정한 후 instance간의 similarity를 비교해야한다.

(ex. 음악의 장르를 비교할때 신호의 파장, 주기 등.. 으로 직접 feature를 지정하고 함수를 구현하여 similarity를 계산)

-> K-means Clustering, EM Clustering ...

-> 따라서 딥러닝을 이용한다. (특정 feature만을 통해 Clustering되는 것이 아닌 수십개의 regression식을 통해 계산)

 

 

 


 

  • 1-4) Dimensionality Reduction Problems

Data의 차원이 높아갈수록 불필요한 차원에 의해 similarity계산에 noise가 많아지게 된다.

따라서 이런 불필요한 차원을 낮추는 방법을 사용한다.

->PCA : Data의 분산이 큰 방향을 기준으로 차원을 줄인다.

 

Example 1

Dimensionality Reduction은 위와같이 불필요한 차원이 대다수인 28x28 data 차원을 줄이기 위해 사용된다.

 

 

 


강의출처 : https://github.com/heartcored98/Standalone-DeepLearning/blob/master/Lec1/Lec1-B.pdf