달력

52024  이전 다음

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
반응형

https://www.tensorflow.org/

 

TensorFlow

모두를 위한 엔드 투 엔드 오픈소스 머신러닝 플랫폼입니다. 도구, 라이브러리, 커뮤니티 리소스로 구성된 TensorFlow의 유연한 환경입니다.

www.tensorflow.org

https://teachablemachine.withgoogle.com/

 

Teachable Machine

Train a computer to recognize your own images, sounds, & poses. A fast, easy way to create machine learning models for your sites, apps, and more – no expertise or coding required.

teachablemachine.withgoogle.com

 

반응형
Posted by 친절한 웬디양~ㅎㅎ
|
반응형

[keras] categorical_crossentropy vs sparse_categorical_crossentropy

출처: https://crazyj.tistory.com/153 [크레이지J의 탐구생활]

 

[keras] categorical_crossentropy vs sparse_categorical_crossentropy

keras 손실함수 중에 아래 두 개가 비슷하지만 사용할 때는 완전히 다르다. 주의가 필요하다. + categorical_crossentropy ; 다중 분류 손실함수. one-hot encoding 클래스 출력값이 one-hot encoding 된 결과로..

crazyj.tistory.com

30. Sigmoid 보다 ReLU가 더 좋아 (lec 10-1)

출처: https://pythonkim.tistory.com/40 [파이쿵]

 

30. Sigmoid 보다 ReLU가 더 좋아 (lec 10-1)

신앙처럼 여겨왔던 sigmoid를 능가하는 존재가 나타났다. 여기서는 Deep Learning의 성능을 향상시키는 다양한 방법들에 대해 알려준다. sigmoid는 logistic classification에서 어디에 속하는지 분류를 하기 �

pythonkim.tistory.com

logit, sigmoid, softmax의 관계

https://opentutorials.org/module/3653/22995

 

logit, sigmoid, softmax의 관계 - 한 페이지 머신러닝

[logit, sigmoid, softmax의 관계] 이번에는 logit, sigmoid, softmax의 관계에 대해서 알아보겠습니다. 이것들이 서로 다 다른 개념같지만 서로 매우 밀접하게 관련이 있는데요. 그림의 가운데 부분에서 세

opentutorials.org

 

반응형
Posted by 친절한 웬디양~ㅎㅎ
|
반응형

참고 블로그

수학포기자를 위한 딥러닝-#2 머신러닝 개념 이해

https://bcho.tistory.com/1139

반응형
Posted by 친절한 웬디양~ㅎㅎ
|