본문 바로가기

인공지능을 위한 선형대수4

9 Least Squares Problem 소개(Least Squares/ 내적/벡터의 길이/단위 벡터/ 직교벡터) AI 기술 자연어 처리 전문가 양성 과정 3기 비슷한 강의 : 인공지능을 위한 선형대수 를 바탕으로 공부한 내용을 정리한 포스팅입니다. Least Squares Problem에 대한 소개와 함께 앞으로 Least Squares를 배우는데 필요한 개념들을 배우기 벡터와 관련된 이 개념들은 선형대수에 있어 중요한 개념이니 잘 알아 두기 키워드 내적(Inner Product, Dot Product) 벡터의 길이(Vector Norm) 단위 벡터(Unit Vector) 직교 벡터(Orthogonal Vectors) Over determinded Linear Systems 방정식의 개수 가 미지수의 개수보다 많은 선형 방정식을 Over determinded Linear Systems라고 합니다. 결정해야 하는 변.. 2022. 1. 21.
8 전사함수와 일대일함수 (Onto, One-to-one) AI 기술 자연어 처리 전문가 양성 과정 3기 강의 인공지능을 위한 선형대수 를 공부하고 요약한 포스팅입니다. Surjective) 일대일 함수(One-to-one, Injective) Neural networks에서 전사 함수와 일대일 함수 응용 정의역(Domain) : 함수의 입력 변수의 집합 , x가 가능한 전체 집합 공역(Co-domain) : 함수의 출력으로 가능한 집합, y가 가능한 전체 집합 상(image) : 어떤 함수에 대한 정의역의 원소(들) 에 대응하는 공역의 원소(들) 치역(range) : 모든 출력값의 집합, 모든 상의 집합 {3,5,7,9} , 선형 변환에서 나오는 두 가지 개념 ONTO (전사 함수) 전사 함수란 공역과 치역이 같은 경우를 의미합니다. 공역은 치역의 부분 집합인.. 2022. 1. 20.
7 선형 변환 with Neural Network(Linear Transformation with Neural Network) Goorm : AI 기술 자연어 처리 전문가 양성 과정 3기 강의 인공지능을 위한 선형대수 를 바탕으로 공부한 내용을 요약한 포스팅입니다. 선형 변환이 실제 딥 러닝(Deep Learning)이 기반을 두는 신경망(Neural Networks)에서는 어떻게 작용하는지 알아보기 선형 변환은 Neural Networks에서 fully connected layers(linear layer)의 기본적인 형태 왼쪽 그림은 Neural Networks의 한 레이어가 있을 때 시각화한 것 (2차원에서 2차원으로 선형 변환되는 레이어가 있고 bias는 없을 때) 이 레이어를 통과하면 T [1,0] = [2,3]과 T [0, 1] = [1,4]라는 변환 = Ax 선형 변환 (A는 계수 집합 행렬) standard bas.. 2022. 1. 19.
5 부분 공간의 기저와 차원 Goorm : AI 기술 자연어 처리 전문가 양성 과정 3기 강의 ( 비슷한 강의 :인공지능을 위한 선형대수 ) 를 바탕으로 공부한 내용을 요약한 포스팅입니다. 부분공간(Subspace) 기저(Basis)와 차원(Dimension) 계수(Rank) 부분공간(Subspace) Span과 유사한 개념 subset(부분집합)의 곱셈이 닫혀있다 = 유한의 집합이 있을 때 두 개의 요소를 뽑아 곱한 결과가 항상 집합에 있는 경우를 곱셈이 닫혀있다고 표현 subspace : 3차원 공간의 전체집합 R3이 있을 때 이 전체 집합의 부분집합이며 선형 조합이 닫혀있음 subspace의 조건 벡터들의 부분집합이 있을 때 이 집합이 선형 결합이 닫혀있다 (두 개의 벡터를 뽑아서 선형 결합을 만들었을 때 집합에 들어가 있는 .. 2022. 1. 18.
728x90
반응형