728x90 ML & DL8 [정리/모두를 위한 딥러닝] ML lec 04 - multi-variable linear regression (*new) https://youtu.be/kPxpJY6fRkY Sung Kim 교수님의 '모두를 위한 딥러닝 강좌 시즌 1'을 공부한 내용입니다. 📌 ML lec 04 - multi-variable linear regression (*new) 우선 지난 강의에서 다룬 것 처럼 Linear regression을 설계하기 위해선 위의 3가지가 필요하다. 1. Hypothesis를 정한다. -> 주어진 x variable에 대한 W(=weight), b(=bias)를 학습한다. 2. W와 b를 학습하는데 있어서, cost(loss)를 어떻게 계산할 것인지를 정한다. -> (예측값 - 정답)^2의 합의 평균 3. cost를 최적화하는 알고리즘으로 gradient descent algorithm을 사용한다. -> cost를.. ML & DL/[강의] 모두를 위한 딥러닝 강좌 시즌 1 2022. 9. 15. [정리/모두를 위한 딥러닝] ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 https://youtu.be/TxIVr-nk1so Sung Kim 교수님의 '모두를 위한 딥러닝 강좌 시즌 1'을 공부한 내용입니다. 📌 ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 우선 지난 강의에서 다룬 것 처럼 우리의 hypothesis가, 대략 우리의 모델이 위와 같이 wx+b 형태로 주어지고, 이를 기반으로 cost function, 즉 우리가 가지고 있는 모델이 실제 데이터와 얼마나 다른지,같은 지를 위와 같이 정했다. -> linear regression의 목표는 cost를 최소화시키는 w와 b를 데이터를 통해 구하는 것이다. Simplified hypothesis 앞으로의 설명을 쉽게 하기 위하여, hypothesis에서 b 를 없앴다. h.. ML & DL/[강의] 모두를 위한 딥러닝 강좌 시즌 1 2022. 9. 14. [정리/모두를 위한 딥러닝] ML Lec 02 - Linear Regression의 Hypothesis와 cost 설명 https://youtu.be/Hax03rCn3UI Sung Kim 교수님의 '모두를 위한 딥러닝 강좌 시즌 1'을 공부한 내용입니다. 📌 ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명 Linear Regression 의 개념 (선형회귀) Regression(회귀) : supervised learning 중에서도 레이블(=클래스)이 아닌 연속적인 값을 예측하는 문제 위의 데이터를 예시로 들면, 사람의 키(x)가 160cm일때 몸무게(y)는 몇 kg일지 그 값을 예측하는 것이다. 여기서 x를 독립변수(input), y를 종속변수(output)라고 하는데 🤷♀️ x 변수들과 y 변수와의 관계를 선형으로 나타낼 수 있다면? => Linear regression이.. ML & DL/[강의] 모두를 위한 딥러닝 강좌 시즌 1 2022. 9. 13. [pandas] Dataframe 행 위,아래로 옮기기 : shift() pandas.DataFrame.shift() DataFrame.shift(periods=1, freq=None, axis=0, fill_value=NoDefault.no_default) Parameters) periods : int (음수 or 양수) 움직일 기간 freq : DateOffset, tseries.offsets, timedelta, or str, optional 데이터를 재정렬하지 않고(=원본 데이터 보존) 인덱스 값을 이동하는 데 사용되는 선택적 매개 변수 axis : {0 or ‘index’, 1 or ‘columns’, None}, default None shift 할 방향 (행/열) fill_value : object, optional 결측값이 생기는 경우 대체할 값. pandas의.. ML & DL/데이터 분석 2022. 6. 2. [python] Pandas 기초 pandas 구조화된 데이터 효과적으로 처리 numpy의 array가 보강된 형태 , data 와 index 가짐 Series 1차원 다룸, Series 는 값(values)을 ndarray형태로 가짐. import pandas as pd data = pd.Series([1,2,3,4]) print(data) ''' 0 1 1 2 2 3 3 4 ''' print(type(data)) # print(data.values) # [1 2 3 4] print(type(data.values)) # dtype인자로 데이터 타입 지정가능 data = pd.Series([1,2,3,4],dtype="float") print(data.dtype) #float64 인덱스를 지정가능 , 인덱스로 접근 가능 data = pd.. ML & DL/데이터 분석 2021. 10. 3. [python] Numpy 기초 Numpy 👉 Python에서 대규모 다차원 배열 다룰 수 있게 도와주는 라이브러리 장점 - 반복문 없이 배열 처리 가능 - list 보다 빠른 연산 , 메모리 효율적 사용 list vs numpy 배열 생성 - list arr=list(range(3)) print(arr) # [0,1,2] -> 콤마(,)로 구분됨 print(type(arr)) # - numpy import numpy as np arr=np.array(range(3)) # np.arange(3)도 같은 결과 print(arr) # [0 1 2] -> 공백으로 구분 print(type(arr)) # 배열의 '데이터의 타입' dtype (list와 달리 같은 데이터 타입만 저장 가능) arr=np.array([0,1,2], dtype=fl.. ML & DL/데이터 분석 2021. 9. 28. [python] 웹페이지 크롤링 기초 urllib : Python에서는 쉽게 웹페이지의 정보를 가져올 수 있는 패키지 urllib.request.urlopen 함수 : 해당 url의 html 파일을 가져옴 from urllib.request import urlopen webpage=urlopen('https://www.naver.com/').read().decode('utf-8') print(webpage) - 실행결과 (일부) ML & DL/데이터 분석 2021. 9. 28. scikit learn pipeline 1.13.6. Feature selection as part of a pipeline Feature selection is usually used as a pre-processing step before doing the actual learning. The recommended way to do this in scikit-learn is to use a Pipeline: clf = Pipeline([ ('feature_selection', SelectFromModel(LinearSVC(penalty="l1"))), ('classification', RandomForestClassifier()) ]) clf.fit(X, y) clf = Pipeline([ ('feature_selection', Selec.. ML & DL/Machine Learning 2021. 2. 2. 이전 1 다음 728x90