ML & DL/[강의] 모두를 위한 딥러닝 강좌 시즌 1

[정리/모두를 위한 딥러닝] ML Lec 02 - Linear Regression의 Hypothesis와 cost 설명

uni2237 2022. 9. 13.
728x90
728x90

https://youtu.be/Hax03rCn3UI

 

 

📌 ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명

 

 

Linear Regression 의 개념 (선형회귀)


Regression(회귀) : supervised learning 중에서도 레이블(=클래스)이 아닌 연속적인 값을 예측하는 문제

키(x)와 몸무게(y) 데이터

위의 데이터를 예시로 들면, 사람의 키(x)가 160cm일때 몸무게(y)는 몇 kg일지 그 값을 예측하는 것이다.

 

여기서 x를 독립변수(input), y를 종속변수(output)라고 하는데 

🤷‍♀️ x 변수들과 y 변수와의 관계를 선형으로 나타낼 수 있다면? 

=> Linear regression이라고 한다.

 

 


 

Linear Regression의 Hypothesis 


🙋 우리가 regression 모델을 학습한다는 것은 ?

-> 하나의 가설을 세울 필요가 있다는 뜻.

=> 'Linear한 regression 모델이 우리가 가진 데이터에 맞을 것이다' 라는 가설을 세움.

  • 생각보다 세상에 있는 많은 데이터들이 linear로 설명할 수 있는 경우가 많다.

 

 

Hypothesis 

🙋 Linear 하게 가설을 세운다는 것은?

-> 어떤 데이터가 있다면, 거기에 가장 잘 맞는 Linear한 선을 찾는것, 그 선을 찾는것이 바로 학습을 하는 것.

각각 x,y 의 상관관계를 선형(=선) 으로 나타냄

 

  • 🤷‍♀️ 어떤 선이 우리가 가진 데이터에 가장 잘 맞는 선 (H(x)=Wx+b) 일까?
    -> 가장 좋은 W,b 값 찾기

 


 

Linear Regression의 Cost


  • Cost function ( = Loss function)
    🤷‍♀️ 우리가 세운 가설(H(x))과 실제 데이터(y)가 얼마나 다른가?

  • 가설 - 실제 데이터 = H(x) - y
  • 실제 차잇값은 'H(x) - y' 인데 보통은 부호 때문에 (H(x)-y)^2 사용.
    -> 제곱하는 이유 : 부호에 영향 받지 않고,  차이 크기 비교 가능

 

cost = '실제 값과 예측값의 오차의 제곱들의 합'의 평균

 

  • 학습 목표(goal) : minimize cost
    -> cost를 가장 최소화하는 w,b를 구하는 것이 학습 목표

 

 

 

 
728x90
728x90

댓글