1. 성분별 곱(element-wise product) or 아다마르 곱(Hadamard product)
-> 행렬들과의 성분끼리 곱하는 연산 (A ⊙ B 로 표현)
2. 내적(dot product)
-> 차원이 같은 두 벡트 x와 y의 내적은 아래와 같은 행렬곱이다
그리고 행렬곱 C =AB에서 아래의 각 성분은
A의 i 행과 B의 j 열의 내적에 해당된다.
(중고등학교 때 배웠던 행렬 연산과 동일)
3. 행렬 전치
4. 대칭 행렬
-> 전치행렬이 자기 자신의 행렬이 될 때
예시
5. 단위 벡터
-> 길이가 1인 벡터
6. 직교 벡터 (Orthogonal Vector)
-> 벡터 x와 y가 아래의 식을 만족할 때, 그러한 두 벡터를 가리켜 서로 직교(orthogonal)라고 말한다.
7. 정규 직교 벡터 (Orthonormal Vector)
-> 직교 벡터이면서 단위 벡터인 벡터를 뜻함
-> 두 벡터가 90도의 각도를 이루고, 각 벡터의 길이는 1인 벡터
8. 직교 행렬 (Orthonormal Matrix)
-> 행들이 서로 정규직교이고 열들도 서로 정규직교인 정방행렬
-> 이는 다음을 의미
'딥러닝관련 > 기초 이론' 카테고리의 다른 글
신경망 정리 8 (오차역전파법) (0) | 2021.05.29 |
---|---|
신경망 정리 7 (학습 알고리즘 구현) (0) | 2021.05.29 |
신경망 정리 6 (경사법, 경사 하강법) (0) | 2021.05.24 |
신경망 정리 5 (수치 미분, 편미분) (0) | 2021.05.23 |
신경망 정리 4 (손실 함수 설정) (0) | 2021.05.23 |