인공지능을 위한 수학
카테고리: Math
Chapter 01 기초 수학
01-1 변수와 상수
y = ax + b
에서 x는 다양한 값으로 변할 수 있는 변수에 해당하고, a와 b는 변하지 않고 일정한 값을 가지는 상수에 해당한다- 컴퓨터가 가중지(ω)를 학습할 때는 가중치가 변수 역할을 하는데 학습이 끝나고 해당 가중치를 학습 모델에 활용할 때는 상수의 역할을 한다 이처럼 변수와 상수는 문제 상황을 바라보는 관점에 따라 달라진다
01-2 1차식과 2차식
- 항이란 숫자나 문자, 또는 그 둘의 곱으로 표현되는 식을 말한다
- 각각의 항에 변수가 곱해진 횟수를 차수라고 한다
- 각 항에서 변수에 해당하는 문자를 제외한 부분을 계수라고 한다
- 두개 이상의 변수가 곱해진 항의 차수는 각 변수의 지수를 모두 더하면 된다
- 가장 차수가 높은 항의 차수를 그 다항식의 차수로 부른다
- 1차식은 수식의 항 중에서 최고 차항의 차수가 1인 식을 말한다
- 2차식
ax^2 + bx + c ( 단 a는 0이 아니다 )
에서 a가 0이 아니라는 조건이 필요한 이유는 a가 0이 되면 수식이 1차식이 되기 때문이다
01-3 함수의 개념
- 함수는 어떤 입력에 대해 단 하나의 결과를 출력한다
- 어떤 입력값 x에 따라 하나의 출력값 y가 결정된다면 y는 x의 함수 라고 말할 수 있으며 이 관계를
y=f(x)
와 같이 표기할 수 있다 - 대수함수는 초월함수와 대비되는 개념으로 덧셈, 뺄셈,곱셈,나눗셈,거듭제곱 등을 사용하여 다항식으로 표현할 수 있는 함수를 의미한다
01-4 제곱근
- 어떤 수 a에 대해
a = b^2
을 만족하는 b가 있다면 이러한 b를 a의 제곱근 이라고 한다
01-5 거듭제곱과 거듭제곱근
- p제곱을 하면 a가 되는 수, 또는 p승을 하면 a가 되는 수를 a의 p제곱근이라고 부르고 p루트a와 같이 표기한다
01-6 지수함수와 로그함수
- 어떤 x가 a^y이라고 표현될 때의 지수 y를 a를 밑으로 하는 x의 로그라고 하며, 기호 log를 사용하여
y = logax
여기서 x를 진수라고 한다
01-7 자연로그
- 자연로그의 밑, 네이피어 상수 e
- e를 밑으로 하는 로그를 자연로그라 한다
- loge 대신 ln이라고 쓰기도 한다
- e를 밑으로 하는 지수함수 e^x를 exp x나 exp(x)와 같이 표현한다
01-8 시그모이드 함수
- a(게인)이 1일때의 시그모이드 함수를 표준 시그모이드 함수라고 부른다
- 시그모이드 함수는 활성화 함수로 자주 사용된다
- 활성화 함수란 인공지능 모델의 표현력을 높이기 위해 사용하는 함수로서 복잡한 데이터 관계를 눈에 더 잘 띄게 만들 수 있다
- 다양한 활성화 함수중 딥러닝 알고리즘 DNN, CNN은 ReLU 라는 것을 사용하며 RNN의 하나인 LSTM은 tanh 함수와 시그모이드 함수 같은 것을 사용한다
01-9 삼각함수
- 각의 크기가 변수인 함수
- 원이 한 바퀴 도는 데 필요한 각을 360°로 표현한 방법이 도수법이다
- 호도법은 호의 길이를 이용해서 각도를 표시하는 방법이며 호의 길이가 반지름과 같게 되는 만큼의 각을 1 라디안이라고 정의한다
- 반지름 길이가 1인 원을 단위원 이라고 부르며 이 단위원을 한 바퀴 도는데 필요한 호의 길이는 2π 이다 따라서 호도법에서는 원의 중심각인 360°를 2π로 표현한다
- 1/2π(90°) 와 3/2π(270°)일 때의 tanΘ값은 존재하지 않는다, 이러한 각에서는 직선의 기울기가 수직이 되어버리기 때문이다
- 함수값을 가질 수 있는 값의 범위를 치역 이라고 한다
y = cosΘ
의 그래프를 보면 f(-x) = f(x)의 관계라는 것을 알 수 있는데 이와 같이 y축을 중심으로 좌우가 대칭이 되는 함수를 우함수 라고 한다y = sinΘ
의 그래프를 보면 f(-x) = f(-x)의 관계라는 것을 알 수 있는데 이와 같이 원점을 중심으로 점대칭이 되는 함수를 기함수 라고 한다
01-10 절댓값과 유클리드 거리
- 절댓값은 기호로
|
를 쓰고 유클리드 거리는 기호로||
를 쓴다 - 유클리드 거리는 마치 한 점과 한점의 사이를 자로 잰 것과 같은 거리를 의미한다
- 점 A와 원점 사이의 유클리드 거리는 기호로
||
를 사용해서||A||
로 표현하고 점 A와 점 B의 두 점 사이의 거리는||A-B||
와 같이 표현할 수 있다 - 인공지능 분야에서는 과거의 데이터를 분석하여 최적의 모델을 만드는 학습 단계와 그렇게 만들어진 모델을 사용해서 새로운 데이터에 대한 카테고리나 수치를 예측하는 추론 단계가 있다
- 유클리드 거리는 인공지능 분야의 다양한 알고리즘에서 사용되는데, 그중 하나가 k-NN 이라는 분류 방법이다
- 머신러닝에는 크게 지도 학습과 비지도 학습이 있으며, 지도 학습에 해당하는 것이 회귀와 분류이고, 비지도 학습에 해당하는 것이 군집화 이다
01-11 수열
- 수열의 첫번째 항을 초항 이라고 부르며 마지막 항을 말항 이라고 부른다
- 등차수열의 일반항의 형태는 아래와 같다
- 등차수열의 합을 구하는 식은 아래와 같다
- 인접하는 항의 비율이 일정한 수열을 등비수열 이라고 한다
- 등비수열의 일반항의 형태는 아래와 같다
- 등비수열의 합 공식 및 유도과정은 아래와 같다
- 등비수열의 합공식을 이용할때 r==1일때와 r!=1일때를 구분하는 이유는 r==1이 되면 분모가 0이기 때문에 계산 자체가 불가능하기 때문이다
- 중요한 수열의 합 공식들은 아래와 같다
- Σ의 성질은 아래와 같다
- 수열의 곱 Π은 Σ가 곱셈으로 바뀐 것 뿐이라 대부분의 내용이 비슷하다
01-12 집합과 원소
- 집합은 크게 두가지 방법으로 표현할 수 있다 우선 모든 원소를 중괄호에 안에 나열하는 방법은
{2, 4, 6, 8, 10}
과 같은 형태이며 설명을 적는 방법은{x|x에 대한 조건}
과 같은 형태이다
Chapter 02 미분
02-1 극한
- x의 값을 어떤 a에 최대한 가깝게 만들 때, 함수 f(x)의 값도 어떤 값 α에 최대한 가까워지는 모양을 일컬어 수렴한다 라고 표현한다
- 위 수식의 α는 함수 f(x)에서 x->a일 때의 극한값 이라고 한다
02-2 미분의 기초
02-3 상미분과 편미분
- 변수가 x 하나만 있는 함수의 미분을 상미분 이라고 한다
- 편미분 기호 ∂는 del 이라고 읽거나 round d 라고 읽는다 또한 표기법에는 라이프니츠 표기법과 라그랑주 표기법이 있다
02-4 그래프 그리기
02-5 함수의 최대값과 최소값
- 1계 미분한
f'(x)
의 값이 0이 되는 극점에서 극값이 나온다는 것을 기억하자
02-6 초등함수와 합성함수의 미분, 그리고 곱의 법칙
- 합성함수의 기본원리는 위의 수식과 같이 겉미분, 속미분 으로 이루어져 있다
- 초등함수의 미분 공식은 위와 같은 것들이 있다
- 합성함수를 미분하기위한 공식은 위와 같은 것들이 있다
02-7 특수 함수의 미분
- 위의 수식은 시그모이드 함수의 미분 과정이다
Chapter 03 선형대수
03-1 벡터
- 선형대수를 많이 활용하는 이유는 방대한 양의 데이터나 복잡한 시스템을 비교적 간단하게 표현할 수 있을 뿐만 아니라 컴퓨터로 계산하기도 쉽기 때문이다
- 수학에서는 데이터 여러 개를 한 줄에 담아낼 수 있게 만든 것을 벡터 라고 부른다
- 문자로 벡터를 표현하는 방법중 하나는 소문자를 굵게 표시하는 것이다
ex) a,b,c
03-2 덧셈과 뺄셈, 그리고 스칼라배
- 벡터의 모든 성분에 같은 수를 곱하는 것을 스칼라배라고 한다
- 벡터 성분의 수를 차원 이라고 부른다
03-3 유향 성분
- 스탈라배는 화살표의 방향을 바꾸지 않고 길이만 바꾸는 계산이라고 할 수 있다
- 화살표를 사용하여 가시화하는 것은 벡터의 개념을 이해하는데 큰 도움이 된다
03-4 내적
- 내적의 계산은 벡터에서 서로 대응하는 성분끼리 곱한 다음 그것들을 모두 더한 값이다 기호로는
<a,b>
가 사용된다 - 벡터와 벡터를 내적한 결과는 벡터가 아니라 스칼라가 된다
03-5 직교 조건
- 벡터 a,b가 서로 직교할 때 다음 식이 성립한다
<a,b>=0
03-6 법선벡터
- 구는 3차원 곡면이기 때문에 무수히 많은 접선이 있다 이러한 접선들은 모두 같은 평면 위에 존재한다는 공통점이 있는데 이때 이 평면을 접평면이라 하고 접평면과 접하는 구의 점을 접점 이라고 한다
- 접선들과 직교하는 벡터를 통해 무한한 접선들(접평면)을 다룰 수 있는 개념이 필요한데 이러한 벡터를 법선벡터 라고 한다
03-7 벡터의 노름
- L1 노름은 벡터 성분의 절댓값을 모두 더하면 구할 수 있다
- L2 노름은 벡터의 유클리드 거리로 구할 수 있다
03-8 코사인 유사도
- 내적의 정의식을 cosθ를 중심으로 전개하면 위와 같다
- 위의 식은 코사인 유사도의 정의이다
- 코사인 유사도가 높다는 말은 벡터가 더 비슷하다는 의미이다
- 벡터로 만들어진 단어나 문장들은 서로의 관계성을 파악할 때 코사인 유사도를 사용한다
03-9 행렬의 덧셈과 뺄셈
- 행렬은 벡터의 개념이 확장된 것으로 인지하면 된다
- 벡터는 여러개의 데이터를 한 줄에 담아낼 수 있게 만든것 이며 행렬은 여러개의 데이터를 여러 줄에 담아낼 수 있게 사각형으로 만든 것
- 행렬을 표기할 때는 대문자로 A, B, C 와 같이 쓰는 것이 관례이다
03-10 행렬의 곱셈
- 행렬의 곱셈은 곧 벡터의 내적을 확장한 것
- 행렬의 곱셈에서는 AB=BA와 같은 교환 법칙이 성립하지 않는다
- 보통 곱셈을 했을 때 a * b = 0과 같은 결과가 나오면 a나 b 중 적어도 하나는 0이라고 생각하기 마련이다 하지만 행렬에서는 반드시 그렇다고는 단정할 수 없다
- 위와 같이 영행렬을 곱하지 않더라도 결과로 영행렬이 나오는 경우가 있는데, 어떤 행렬에 행렬식이 0이 되는 행렬을 곱하면 그 결과가 영행렬이 나오는 경우가 있다
- 어떤 행렬이나 벡터에 단위행렬을 곱하면 그 결과가 달라지지 않고, 원래의 행렬이나 벡터가 그대로 나온다
- 수의 곱셈에서 1을 곱해도 값이 변화하지 않는 것처럼 어떤 조작을 하더라도 그 값이 변하지 않는 조작을 항등사상 이라고 한다
- 단위행렬은 기호로 I를 쓰기도 한다
03-11 역행렬
- 행렬에는 나눗셈이 없다 대신 나눗셈과 비슷한 역할을 하는 역행렬이 있다
- A와 A^-1를 곱하면 단위행렬 E가 나오도록 역행렬을 정의한다
- 정방행렬은 행의 개수와 열의 개수가 같은 행렬이다
- 행렬식이 0인 경우에는 역행렬이 존재하지 않는다 이때 행렬식은
detA
나|A|
로 표기한다 - 행렬식은 다음과 같이 계산한다
|A| = detA = ad - bc
- 역행렬을 구하는 공식은 위와같다
- 2 * 2 행렬보다 큰 정방행렬의 역행렬은 이 공식으로는 구할 수 없고, 가우스 소거법이나 여인자 전개와 같은 방법을 써야 한다
03-12 선형변환
- 선형 변환은 수학적으로 벡터에 행렬을 곱해 또 다른 벡터를 만드는 함수를 말한다
- 어떤 벡터의 왼쪽에다 행렬 A를 곱한다는 것은 그 벡터를 다른 벡터 공간으로 변환하고자 회전하거나 확대, 또는 축소하는 것과 같다
03-13 고윳값과 고유벡터
- 선형 변환을 해도 원래의 벡터에서 방향이 변하지 않는(역방향이 되는) 벡터가 있다 이 특별한 벡터를 고유벡터라 하고 이 고유벡터의 변환 전과 후의 비율을 고윳값 이라고 한다
- 고유벡터와 고윳값은 반드시 두 개씩 존재한다
Chapter 04 확률과 통계
04-1 확률
- 경우의 수를 하나하나 세는 것이 사실상 불가능하기 때문에 위와 같이 조합 공식을 활용하자
- 사건 A가 발생할 확률이 P일때, 사건 A의 여사건 바A가 발생할 확률은 위와 같다
- 사건 A와 사건 B가 동시에 발생하는 사건은 위와 같다
- 사건 A와 사건 B 중에서 어느 한쪽이 발생할 사건은 위와 같다
댓글남기기