본문 바로가기

딥러닝관련94

신경망 정리 3 (신경망 학습, MSE, Cross entropy loss ....) 학습 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것 신경망이 학습할 수 있도록 해주는 지표 : 손실 함수 이 손실 함수의 결괏값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습의 목표 데이터에서 학습한다 신경망의 특징 : 데이터를 보고 학습을 할 수 있다는 점 학습 → 가중치 매개변수의 값을 데이터를 보고 자동을 결정한다. 학습이 필요한 이유.. 퍼셉트론을 생각해보자. 사람이 수작업으로 매개변수의 값을 설정했어야 했다. 만약 이 매개변수가 많아 진다면.... 사람이 일일히 수작업으로 할 수 없다. 데이터 주도 학습 기계학습은 데이터가 생명. 기계학습에서는 사람의 개입을 최소화하고 수집한 데이터로부터 패턴을 찾으려 시도. 만약 숫자 5를 인식하는 프로그램을 구현한다고 가정 막상 구.. 2021. 5. 12.
배치(batch) 처리의 이점 배치 처리는 컴퓨터로 계산할 때 큰 이점이 있다. - 이미지 1장당 처리 시간을대폭 줄여준다. 왜? 1. 수치 계산 라이브러리의 대부분이 큰 배열을 효율적으로 처리할 수 있도록 최적화되어 있기 때문에 2. 커다란 신경망에서는 데이터 전송이 병목이 되는 경우가 자주 있다. -> 배치 처리를 함으로써 버스에 주는 부하를 줄임 (느린 I/O를 통해 데이터를 읽는 횟수에 비해, 빠른 CPU나 GPU로 순수 계산을 수행하는 비율이 높아진다) 즉, 배치 처리를 수행함으로써 큰 배열이 이뤄진 계산을 하게 되는데, 컴퓨터에서는 큰 배열을 한꺼번에 계산하는 것이 분할된 작은 배열을 여러 번 계산하는 것보다 빠르다. 내용 참고 book.naver.com/bookdb/book_detail.nhn?bid=11492334 밑바.. 2021. 5. 12.
MNIST 인식(밑바닥부터 시작하는 딥러닝) MNIST 데이터셋 MNIST : 손글씨 숫자 이미지 집합 (엠엔아이에스티 or 엠니스트 라고 많이 이야기 하는 듯) - 0~9까지의 숫자 이미지 - 학습 이미지 : 60,000장 - 테스트 이미지 : 10,000장 github.com/WegraLee/deep-learning-from-scratch WegraLee/deep-learning-from-scratch 『밑바닥부터 시작하는 딥러닝』(한빛미디어, 2017). Contribute to WegraLee/deep-learning-from-scratch development by creating an account on GitHub. github.com 위 깃헙에서 코드를 다운받아 활용한다. MNIST 데이터 살펴보기 from dataset.mnist .. 2021. 5. 4.
신경망 정리 2 (선형 함수, 비선형 함수, ReLU, Softmax, 행렬 계산...) better-tomorrow.tistory.com/entry/%EC%8B%A0%EA%B2%BD%EB%A7%9D 신경망 정리 1 better-tomorrow.tistory.com/entry/Perceptron-%ED%8D%BC%EC%85%89%ED%8A%B8%EB%A1%A0 Perceptron (퍼셉트론) 퍼셉트론 정의 퍼셉트론은 다수의 신호를 입력으로 받아 하나의 신호를 출력 퍼셉트론의 신호는 흐른.. better-tomorrow.tistory.com 위 내용에 이어서... 비선형 함수 계단 함수와 시그모이드 함수의 공통점은 모두 비선형 함수라는 것 그렇다면 비선형 함수란? '선형이 아닌 함수' : 직선 1개로는 그릴 수 없는 함수 신경망에서는 활성화 함수로 비선형 함수를 사용해야 한다. 선형 함수를 이.. 2021. 5. 2.