728x90 선형회귀2 [정리/모두를 위한 딥러닝] ML lec 04 - multi-variable linear regression (*new) https://youtu.be/kPxpJY6fRkY Sung Kim 교수님의 '모두를 위한 딥러닝 강좌 시즌 1'을 공부한 내용입니다. 📌 ML lec 04 - multi-variable linear regression (*new) 우선 지난 강의에서 다룬 것 처럼 Linear regression을 설계하기 위해선 위의 3가지가 필요하다. 1. Hypothesis를 정한다. -> 주어진 x variable에 대한 W(=weight), b(=bias)를 학습한다. 2. W와 b를 학습하는데 있어서, cost(loss)를 어떻게 계산할 것인지를 정한다. -> (예측값 - 정답)^2의 합의 평균 3. cost를 최적화하는 알고리즘으로 gradient descent algorithm을 사용한다. -> cost를.. ML & DL/[강의] 모두를 위한 딥러닝 강좌 시즌 1 2022. 9. 15. [정리/모두를 위한 딥러닝] ML Lec 02 - Linear Regression의 Hypothesis와 cost 설명 https://youtu.be/Hax03rCn3UI Sung Kim 교수님의 '모두를 위한 딥러닝 강좌 시즌 1'을 공부한 내용입니다. 📌 ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명 Linear Regression 의 개념 (선형회귀) Regression(회귀) : supervised learning 중에서도 레이블(=클래스)이 아닌 연속적인 값을 예측하는 문제 위의 데이터를 예시로 들면, 사람의 키(x)가 160cm일때 몸무게(y)는 몇 kg일지 그 값을 예측하는 것이다. 여기서 x를 독립변수(input), y를 종속변수(output)라고 하는데 🤷♀️ x 변수들과 y 변수와의 관계를 선형으로 나타낼 수 있다면? => Linear regression이.. ML & DL/[강의] 모두를 위한 딥러닝 강좌 시즌 1 2022. 9. 13. 이전 1 다음 728x90