목록AI/AI 수학 (10)
꺼내먹는지식 준
초평면을 구하기 위해서는 단순히 법선 벡터와 한 점만 알면 된다. 그리고 w를 법선 벡터라 할 때, $\vec{w} \cdot \vec{x} + b = 0$ 라는 공식이 주어진다. 문제는 위 공식이 어떻게 유도된 것인지 감이 안온다. 인터넷을 찾아봐도 관련 자료가 생각보다 정말 없다. 이에 따라 유도 과정을 정리해본다. $y = (x, y)$ in $R^2$ 직선의 방정식 general form $ax + by + d = 0$ 우리에게 익숙한 형태 $y = -\frac{a}{b}x - \frac{d}{b}$ $x = t , -\infty < t < \infty$ $\textrm{since, } y = \vec{p} = \vec{a} + t\vec{u}$ $y = (x,y) = (x_1, y_1) + t(..

점 $A(x_1, y_1)$를 지나고 법선벡터가 $\vec{n} = (n_1, n_2)$인 직선의 방정식은 $n_1(x- x_1) + n_2(y-y_1) = 0$ 법선 벡터는 내적하면 0 이라는 특성을 이용한 공식이다. 점 - 점 = 벡터 성질을 활용하여 (점 - 점) $\cdot$ 법선 벡터 = 0 로 구했다. ※ 2개의 점을 알아도 직선을 구할 수 있다. $a_1 x_1 + a_2 x_2 = b$ $Ax = b$ $Ax - b = 0$

초평면 초평면 $1 + 2X_1 + 3X_2 = 0$. $1 + 2X_1 = 3X_2 > 0$은 파란 점이 모인 파란 공간이고 $1+2X_1+3X_2 3 인 경우에는 초평면을 시각화하기 어렵지만 p-1 차원인 평평한 부분 공간인 것은 여전히 유효하다. 2차원에서 초평면의 수학적인 정의는 다음의 방정식으로 정의한다. $$\beta_0 + \beta_1 X_1 + \beta_2 X_2 = 0$$ 2..

벡터의 외적 평행하지 않은 두 벡터가 있다고 가정하자. 두 벡터에게 동시에 수직인 벡터를 구하고 싶으면 어떻게 해야할까? $\vec{a}, \vec{b}$ 두 벡터가 만드는 평면이 있을텐데, 그 평면 위에서는 두 벡터에 동시에 수직인 벡터를 찾을 수 없다. 이에 따라 벡터의 외적은 기본적으로 3차원 공간에서 생각해야 한다. $\vec{a}, \vec{b}$ 에 동시에 수직인 벡터 $\vec{P}$ 가 있다고 하자. 해당 $\vec{P}$ 를 쉽게 찾을 수 있는 방법을 찾아보자. 각 벡터를 성분으로 표현하고, 수직인 두 벡터를 내적하면 0이라는 성질을 사용해보자. $$a_1x + a_2y + a_3z = 0$$ $$b_1x + b_2y + b_3z = 0$$ 이 두 식을 동시에 만족시키는 $(x,y,z)$..

들어가며 벡터는 위치를 가지지 않는다. 위치와 상관 없이 동일한 크기와 방향을 가지는 벡터는 같다. 즉, 기하학에서 벡터는 '방향'과 '변화' 두가지 의미로 사용될 수 있다. 벡터의 덧셈 뺄셈 화살표의 방향을 유의해서 보자 벡터의 덧셈의 대수학적 법칙은 실수의 덧셈과 유사하다. 이는 위치를 갖지 않는다는 특성으로 인한다. 1. v + w = w + v (교환법칙) 2. u + (v+w) = (u+v) +w (결합법칙) 3. v + 0 = v (덧셈의 항등원) 4. 모든 v에 대해 v+(-v) = 0 을 만족하는 벡터 -v 가 존재한다. (덧셈의 역원) 뺄셈의 결과 벡터는 두번째 벡터의 머리에서 첫번째 벡터의 머리로 이어진다. ※ 아핀 공간: 한 6년전 그래픽스 논문을 읽다가 도대체 아핀 공간이 무엇인가!..

정규분포의 확률밀도함수 유도정도는 이해하고 있어야 추후 여러 수학 공식 이해가 쉬울 것으로 보인다. https://www.youtube.com/watch?v=sFMjrnI93b4 아래와 같은 과녁 중심을 향해 화살을 쏜다고 가정하자. 목표가 과녁 중심이기에 아래가 성립한다. 1. 과녁의 중심에서 멀어지면 확률이 낮다. 2. 중심에서 거리가 같은 곳에 맞출 확률은 같다. 3. x좌표와 y좌표는 독립적이다. x, y 좌표에 의해 확률이 정해지므로 $f(x,y)$ : (빨간 점에 맞을 확률) (x, y는 서로 독립이므로) $f(x,y) = f(x \cap y) = f(x)f(y)$ 과녁을 중심으로 같은거리의 점들은 모두 맞을 확률이 같으므로, 반지름 r 만으로 확률이 정해진다. 빨간점에 맞을 확률: $g..
필자에게 자신을 돌아볼 충격적인 일이 있었다. ln(x - 1)을 미분하는데, 두가지 방법에 따라 결과값이 다르게 나온 것이다. 1) 합성 함수의 미분 $$\ln(x-1)' = g'(f(x))f'(x) $$ $$\ln(x-1)' = \ln'(x-1)(x-1)' $$ $$\ln(x-1)' = \frac{1}{x-1} (-1)$$ $$-\frac{1}{x-1}$$ 2) 미분 계수 정의 이용 $$\lim_{h \to 0} \frac{\ln(x-1+h) - \ln(x-1)}{h}$$ $$\lim_{h \to 0} \frac{1}{h} \ln{(\frac{(1-x)+h}{1-x})}$$ $$\lim_{h \to 0} \frac{1}{h} \ln{(1 + \frac{h}{1-x})}$$ $$\lim_{h \to 0..

\[ P(A\cap B) = P(B)P(A|B) \] \[ P(B|A) = \frac{P(A \cap B)}{P(A)} = P(B)\frac{P(A|B)}{P(A)} \] ex) Covid 발병률이 10%로 알려져 있다. Covid에 실제 걸렸을 때 검진 될 확률 99%, 실제로 걸리지 않았을 때 오진 될 확률 1%라 할 때, 어떤 사람이 걸렸다는 검진결과를 받고 실제 걸렸을 확률은? \[P(D) = \underset{\theta}{\sum}P(D|\theta)P(\theta)\ \\ = 0.99 \times 0.1 + 0.01 \times 0.9 = 0.108 \] \[ P(\theta|D) = 0.1 \times \frac{0.99}{0.108} \approx 0.916 \] 오검진률이 10 퍼로 오..

모수 통계적 모델링은 적절한 가정 위에서 확률 분포를 추정하는 것이 목표, 기계 학습과 통계학이 모두 공통적으로 추구하는 목표 그러나 유한한 데이터로 모집단 분포를 정확하게 알아낼 수 없기에 근사적으로 확률 분포를 추정한다. (불확실성을 고려하여 위험을 최소화) 데이터가 특정 확률 분포를 따른다고 선언한 후, 그 "분포를 결정하는 모수"를 추정하는 방법을 parameteric 방법론이라 한다. 특정 확률 분포를 가정하지 않고, 데이터에 따라 모델의 구조 및 모수의 개수가 유연히 바뀌면 nonparameteric 방법론(모수가 없는게 아님)이라 부른다. ex) 정규분포라 가정하면 평균, 분산이 모수이다. 이 두가지를 추정하는 방법을 통해 데이터를 학습하는 방법을 paramtetric 방법론의 예시. 대부분..

학률론은 딥러닝의 기계 학습 이론의 바탕이다. 손실함수(loss function)들의 작동 원리는 데이터 공간에서 통계적으로 해석해서 유도한다. 회귀 분석의 손실함수 L2 norm은 예측 오차의 분산을 가장 최소화 하는 방향으로 학습하도록 유도된다. 분류 문제에서 사용되는 cross entropy는 모델 예측의 불확실성을 최소화 하는 방향으로 학습하도록 유도된다. 데이터 공간을 $X \times Y$ 라 표기하고 $D$ 는 데이터 공간에서 데이터를 추출하는 분포이다. 실제로 데이터만 가지고 데이터의 분포$D$를 알아내는 것은 불가능하기 때문에 기계학습 모형을 가지고 분포 $D$를 추론한다. 데이터는 확률변수로 $(x,y) \sim D $ 라 표기한다. 확률변수는 데이터 공간에서 임의로 관측되는 함수라고 ..