수학 3

Norm이란? L1 Norm, L2 Norm 설명

Norm (노름) : 벡터의 절대적인 크기. 또는 두 벡터 간의 거리. 기호로는 || X || 라고 표시한다. (X는 벡터) Norm의 차수 : Lp-norm, p-norm이라고 표현하고, 이때 p가 norm의 차수이다. * 위키백과 L1 norm p = 1 맨해튼 거리 각 요소(의 차이)에 대한 절대값을 취해 모두 더한 값 (절대적인 값) 절대값을 취하기 때문에, 이상치(outliers)에도 덜 민감하다. 예시 : 격자 모양의 도로망에서 최단 거리를 구하는 방식 딥러닝에서의 활용예시 : L1 loss = 실제값과 예측값의 차이에 대한 절대값의 합. L1 loss의 평균 = MAE (Mean Absolute Error) L2 norm p = 2 유클리디안 거리 각 요소(의 차이)에 대해 제곱을 취해 모두..

[칸아카데미] 모두를 위한 선형대수학 - (8) 벡터의 내적(Dot product)과 벡터의 길이(Length), 내적의 성질 (분배법칙, 교환법칙, 결합법칙)

벡터의 내적 - 각 벡터의 동일 항을 곱해서 모두 더해준 값 벡터의 길이 - 벡터 내 성분들의 제곱값을 모두 더한 후, 루트를 씌워준(제곱근) 값 벡터의 길이는 같은 벡터끼리의 내적에 제곱한 값이다. 벡터의 내적의 성질 3가지 - 교환법칙 (Commutative Property) : 내적 곱의 순서가 상관없는 특징 - 분배법칙 (Distributive Property) : 값을 각각 곱하고 더할 수 있는 특징 - 결합법칙 (Associative Property) : 앞쪽의 연산을 먼저하든 뒷쪽의 연산을 먼저하든 상관없는 특징

[메타코드] 머신러닝 기초를 위한 무료강의 (1) : 머신러닝 필수기본개념, 지도학습(Supervised Learning)

https://youtu.be/oyzIT1g1Z3U * 인공지능(AI) > 머신러닝(ML) > 딥러닝(DL) * 머신러닝 - 통계적 기법 활용하여 모델이 가볍다 - 딥러닝이 머신러닝에 속하는 개념이기 때문에 딥러닝을 하기 위해서는 머신러닝도 기초적으로 알아야 한다. * 머신러닝의 종류 - 비지도 학습 : 차원축소(PCA, SVD, LDA, t-SNE, UMAP 등), 군집화(K-Means, Mean Shift, Gaussian Mixture Model, DBSCAN) - 지도 학습 : 회귀, 분류, 앙상블 방법이 있음 - 강화 학습 # 지도학습 - 회귀(Regression) - 연속형 데이터 - 단순 선형 회귀, 다중 선형 회귀, 다항 회귀 - 최적화 방법(loss function) : MSE(Mean ..

AI/lectures 2022.09.14