Linear Regression 에서 Cost Function 은 부드러운 2차원 곡선을 그리기에 Cost Function 최소값을 손쉽게 구할수 있는 반면 Logistic Regression 에서 Cost Function 은 울퉁불퉁한 형태를 띈다. 그래서 이런 울퉁불퉁한 곡선을 부드럽게 잡아줄 수 있는 log 를 적용한 후에 GradientDescentOptimizer를 적용하여야 Cost Function 의 최소값을 용이하게 구현할 수 있다.
아래는 Logistic Regression 에서의 Hypothesis Function 과 Cost Function 이다.
위의 예제를 코딩을하고 그 결과값은 아래와 같다.
데이터 값이 적지만, 정확성은 1을 나타내고 있다.
-Reference-
https://github.com/hunkim/DeepLearningZeroToAll/
'Programming > TensorFlow' 카테고리의 다른 글
텐서플로우에서 데이터 읽기 | Read data from files on TensorFlow (0) | 2017.04.19 |
---|---|
Multi Variables Linear Regression을 Tensor Flow 에서 구현하기 (0) | 2017.04.09 |
TensorFlow Linear Regression with place holder (0) | 2017.04.08 |
Linear Regression Ex1 (0) | 2017.03.28 |
아나콘다(Anaconda)에 TensorFlow 설치하기 on Mac | Installing TensorFlow at Anaconda on MAC OS X (0) | 2017.03.26 |