AI/lectures 5

[메타코드] 머신러닝 기초를 위한 무료강의 (5) - 로지스틱 회귀 분류모델, 베이즈 정리, MLE, MAP

선형 회귀를 통한 분류모델 예를들어 [개=1, 고양이=2, 사자=3, 얼룩말=4]와 같은 방식으로 라벨링(A)을 했을 때와 [개=1, 고양이=2,,,,,,,,, 사자=99, 얼룩말=100]이라는 라벨링(B)을 했을 때를 비교해보자 A방식으로 모델을 학습시키고, 나온 결과에 대해 손실함수(ex. MSE)를 계산했을 때는 그 값이 매우 작을 수 있다. 하지만 B처럼 똑같은 클래스에 다른 라벨링을 해주면 손실값이 매우 커질 수 있다. 따라서 다른 손실함수나 선형회귀가 아닌 다른 모델이 필요하다. * 시그모이드 함수 (Sigmoid Function) - x가 0이하일 땐 y값이 0.5이하, 0이상일 땐 0.5이상이 되게 하는 활성화 함수 로지스틱 회귀를 통한 분류모델 오즈(odds) : 가능성 (성공할 확률 /..

AI/lectures 2022.11.17

[메타코드] 머신러닝 기초를 위한 무료강의 (4) : 오버피팅(Overfitting), 언더피팅(Underfitting) 해결방법

https://youtu.be/oyzIT1g1Z3U 1. 검증 데이터셋을 활용한 머신러닝 모델 학습 - 기존의 학습, 평가 데이터셋으로만 진행하던 것에서 검증데이터셋을 추가하여 학습의 정확도를 높히는 방법 - 학습된 모델을 중간점검하는 느낌 # LOOCV (Leave One Out Cross Validation) 방법론 - 모든 학습 데이터 샘플 1개마다 검증하는 방법 - (오직 한개의 데이터 샘플로만 검증하는 것은 편향된 결과를 주기 때문) - 모든 데이터로 검증하기 때문에 계산량이 매우 높아짐 # K-fold cross validation(교차검증) 방법론 - 계산량이 많은 LOOCV의 단점을 보완하기 위한 목적 - (사람이 입력) 학습데이터를 K개로 쪼개서 순서대로 검증하는 방식 - K값이 커질수록..

AI/lectures 2022.09.20

[메타코드] 머신러닝 기초를 위한 무료강의 (3) : 편차와 분산 (오차/에러), 오버피팅(Overfitting), 언더피팅(Underfitting)

https://youtu.be/oyzIT1g1Z3U * 간단한 모델은 파라미터 수가 낮고, 복잡한 모델은 파라미터 수가 많다. * 예측값에 대한 MSE는 예측값에 대한 분산(Variance)과 편차(Bias)의 합이다. - 편향과 분산은 모델을 평가할 때 아주 중요한 요소이다. # 편차/편향(Bias) : [실제값]과 [예측값(들의 평균값)]의 차이 # 분산(Variance) : 예측값들간의 차이 ([예측값1]과 또 다른 [예측값2,,,,n]의 차이들) # Trade-off : 분산과 편향이 모두 낮은 지점 - 이 순간의 파라미터값을 찾는 것이 머신러닝의 목표 * 오버피팅 (Overfitting) - 데이터수는 부족하고 모델은 복잡할 때에 발생할 수 있는 과적합 현상 - 여러 예측값들 사이의 차이 = 분..

AI/lectures 2022.09.18

[메타코드] 머신러닝 기초를 위한 무료강의 (2) : 머신러닝 기초수학개념, Optimmization 최적화

https://youtu.be/oyzIT1g1Z3U * 편미분 : 원하는 변수에 대해서만 미분하는 것 (원하는 변수 이외에는 상수 취급) * 연쇄 법칙 (chain rule) : 상쇄되는 현상을 이용해 새로운 u를 대입하여 미분값을 구하는 방법 * 손실함수(Loss Function) - 머신러닝 모델을 평가하기 위함 - ex. MSE (Mean Square Error) : 회귀모델의 대표 손실함수 # 최소 제곱법 (Least Square Method) - MSE 방법을 활용하여 풀이할 수 있음 - 최적의 파라미터를 구하기 위한 방법 중 하나 - 데이터에 대한 오차를 최소화하도록 함 - 단순한 선형회귀의 경우, (오차가 존재하지만) 최적의 해를 구할 수 있지만, 복잡한 모델의 경우, 최소 제곱법으로 해결하..

AI/lectures 2022.09.18

[메타코드] 머신러닝 기초를 위한 무료강의 (1) : 머신러닝 필수기본개념, 지도학습(Supervised Learning)

https://youtu.be/oyzIT1g1Z3U * 인공지능(AI) > 머신러닝(ML) > 딥러닝(DL) * 머신러닝 - 통계적 기법 활용하여 모델이 가볍다 - 딥러닝이 머신러닝에 속하는 개념이기 때문에 딥러닝을 하기 위해서는 머신러닝도 기초적으로 알아야 한다. * 머신러닝의 종류 - 비지도 학습 : 차원축소(PCA, SVD, LDA, t-SNE, UMAP 등), 군집화(K-Means, Mean Shift, Gaussian Mixture Model, DBSCAN) - 지도 학습 : 회귀, 분류, 앙상블 방법이 있음 - 강화 학습 # 지도학습 - 회귀(Regression) - 연속형 데이터 - 단순 선형 회귀, 다중 선형 회귀, 다항 회귀 - 최적화 방법(loss function) : MSE(Mean ..

AI/lectures 2022.09.14