함수와 그래프 - 머신러닝, 딥러닝은 모두 모형 모델링이 필요 - 기초는 함수
나중의 결과 - x를 넣었을 때 좋은 y가 나오기
* 합성함수
* 일대일함수 - 선형equation 을 할때 중요함 / 역함수가 존재함(역함수는 정의역과 치역이 swap)
예를 들어 y^2 = x인경우는 one to one이 아님
다항함수 - polynomial(smoothy 하게 만들 때 사용)
선형함수 - linear func / 절편과 기울기를 찾는 과정 -> 좋은 예측모형을 찾는 과정
멱함수 - power func / x^y
로그함수와 지수함수 - 모델링에 고려할 수 있어야 함
*참고 : 두개의 벡터의 유사성- 코사인 유사도 계산함
*참고2 : 인공지능의 activate funct을 볼 때 -> y의 상하한선을 정해주는 함수 tan를 사용하게 되고
이는 sigmoid라고도 함
ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
벡터 - 자연어든 streaming 데이터든 컴퓨터가 알아볼 수 있는 값으로 변화할 때 사용
벡터w를 여러 벡터(v1, v2.... )가 w = c1v2 + c2v2 ..... 로 표현될 때
linear combination이라 하고 여러벡터의 scalar(c1, c2...)를 coeffcient라고 한다.
벡터의 내적과 직교
벡터는 -> length / norm / magnitude로 구성됨(같은 표현임)
*norm 은 벡터의 크기라고 정의하고 ||v||라고 함
모든 벡터는 standard unit vector의 linear combination으로 표현 가능함(해당 성분의 벡터만 포함해서 n배하면됨)
metric 과 norm의 차이 -> 여러 거리를 측정하는 방법(distance)
norm이라는 것이 실상 모든 현실의 거리를 측정하는 방법은 아니다.
거리라는 개념은 절대적이지 않고, 다양하게 측정될 수 있는데
이게 L1, L2 Lp Norm이라고 한다. -> 나중에 랏소 릿지 등을 정의하기 위해(차원을 줄이기 위해)
벡터의 내적은 -> dot product or innner product : 각각의 element를 곱하고 더함
벡터 자신의 내적은 놈의 제곱이 된다.
벡터 내적의 기하학적 의미는 -> 한 벡터를 반대벡터에 정사영 시켜(projection) 곱함 / 놈의 값과 관계를 가진다
우리가 결국 해야하는 것 -> x를 집어넣어서 y를 설명하고 싶어한다.
x는 주어지는 값(데이터) -> x데이터 벡터와 가중치 w벡터의 내적으로 표현할 수 있다.
두 벡터의 cos세타는 = v1·v2 / ||v1||||v2||
cosine similarity -> 두 벡터 사이의 유사성을 특정하는 척도
Se(u,v) = u ·v / ||u||||v|| -> cosine과 같음
*둔각인 경우는 ?
*추천알고리즘 -> 대표적으로 cos유사도 -> 분류모델에 활용 가능
* 벡터의 내적의 결과가 0 이면 직교한다(orthogonal)
-> nonempty 집합의 벡터가 모두 직교하면 orthogonal set이라고 한다.
-> 차원이 커지면 어떻게 othogonal함을 설명할까 = 내적의 결과가 0
othogonal한 벡터들이 모두 unit vector(norm이 1)이면 othonormal 이라고 한다.
standard unit vector들을 모아놓으면 -> othonormal set이 된다.
ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
직선과 평면의 방정식
*직선 방정식(vector and parametric equations of lines)
매개변수방정식(연립방정식) 은 벡터로도 표현이 가능하다.
*평면의 방정식(general equation of planes / vector equations of the planes)
풀어보기
직선을 표시하기 위해선 벡터가 1개필요, 평면을 표현하기 위해선 벡터 2개가 필요
ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
linear algebra 의 시작 - 선형 연립방정식(linear equation)
선형연립방정식의 해가 하나라도 존재하면 consistent 아니면 inconsistent
해가 딱 하나다 unique consistence
선형이다보니 선형연립방정식은 해가 없거나(parallel) , 해가 한개거나(unique), 해가 무수히 많다.
augmented matrix -> 계수(coefficent)와 상수(constant)의 조합인 행렬
augmented matrix(첨가행렬)를 활용해서 연립방정식을 계산하는 방식을 기본행 연산(ERO)라고 한다.
* augmented matrix를 활용해 연립방정식을 풀려면 -> 단위행렬을 만들면 된다.
* lower triangle / upper triangle -> reduced row echelon form
x - y =3
2x + y = 0
-> [1 -1 | 3]
[2 1| 0 ]
연립방정식의 해가 무수히 많을 때 -> 그 해를 매개변수를 이용해서 집합을 구할 수 잇고 그 집합을 general solution
https://m.blog.naver.com/martinok1103/221486726376
제 3강 : 기약 행사다리꼴(Reduced Row Echelon Form, RREF)
제 2강 마지막 부분에서 첨가행렬을 기본 행연산을 이용하여 아래와 같은 행렬로 변환하였습니다. 위와 같...
blog.naver.com
wolframalpha : https://www.wolframalpha.com/
Wolfram|Alpha: Making the world’s knowledge computable
Wolfram|Alpha brings expert-level knowledge and capabilities to the broadest possible range of people—spanning all professions and education levels.
www.wolframalpha.com
* 선형 연립방정식을 이루는 모든 방정식들이 모두 동차면 그 연립방정식을 동차라고 한다
모든 동차 선형 연립방정식은 consistent 하다
'데이터사이언스 > 대학원 공부' 카테고리의 다른 글
데이터사이언스 수학과 통계 - 행렬과 행렬연산 (0) | 2024.03.21 |
---|---|
머신러닝 기초, Probability (0) | 2024.03.13 |
머신러닝과 딥러닝 기초 - Linear Algebra (0) | 2024.03.13 |
게으른 자의 무기력증 탈출기 - 데이터사이언스 대학원 오리엔테이션부터 주차등록까지 (1) | 2024.01.17 |
게으른 자의 무기력증 탈출기 - 대학원 진학 (1) | 2024.01.04 |