keras
[keras] categorical_crossentropy vs sparse_categorical_crossentropy
출처: https://crazyj.tistory.com/153 [크레이지J의 탐구생활]
[keras] categorical_crossentropy vs sparse_categorical_crossentropy
keras 손실함수 중에 아래 두 개가 비슷하지만 사용할 때는 완전히 다르다. 주의가 필요하다. + categorical_crossentropy ; 다중 분류 손실함수. one-hot encoding 클래스 출력값이 one-hot encoding 된 결과로..
crazyj.tistory.com
30. Sigmoid 보다 ReLU가 더 좋아 (lec 10-1)
출처: https://pythonkim.tistory.com/40 [파이쿵]
30. Sigmoid 보다 ReLU가 더 좋아 (lec 10-1)
신앙처럼 여겨왔던 sigmoid를 능가하는 존재가 나타났다. 여기서는 Deep Learning의 성능을 향상시키는 다양한 방법들에 대해 알려준다. sigmoid는 logistic classification에서 어디에 속하는지 분류를 하기 �
pythonkim.tistory.com
logit, sigmoid, softmax의 관계
https://opentutorials.org/module/3653/22995
logit, sigmoid, softmax의 관계 - 한 페이지 머신러닝
[logit, sigmoid, softmax의 관계] 이번에는 logit, sigmoid, softmax의 관계에 대해서 알아보겠습니다. 이것들이 서로 다 다른 개념같지만 서로 매우 밀접하게 관련이 있는데요. 그림의 가운데 부분에서 세
opentutorials.org