본문 바로가기

Hypothesis

Logistic Classification on TensorFlow Linear Regression 에서 Cost Function 은 부드러운 2차원 곡선을 그리기에 Cost Function 최소값을 손쉽게 구할수 있는 반면 Logistic Regression 에서 Cost Function 은 울퉁불퉁한 형태를 띈다. 그래서 이런 울퉁불퉁한 곡선을 부드럽게 잡아줄 수 있는 log 를 적용한 후에 GradientDescentOptimizer를 적용하여야 Cost Function 의 최소값을 용이하게 구현할 수 있다. 아래는 Logistic Regression 에서의 Hypothesis Function 과 Cost Function 이다. 위의 예제를 코딩을하고 그 결과값은 아래와 같다. 데이터 값이 적지만, 정확성은 1을 나타내고 있다. -Reference- https://.. 더보기
Multi Variables Linear Regression을 Tensor Flow 에서 구현하기 Multi Variables 을 이용한 Linear Regression 을 학습하고자 한다.이전에 알아본 Single Variable Linear Regression 에서 여러개의 변수가 추가되었을 때 보다 실용적인 결과값을 구현할 수 있을 것이다.x1, x2, x3 이렇게 3개의 instances의 값을 가지고 보다 더 cost function 값을 줄인 결과값을 얻고자 할 때의 코딩이다. 위의 코드를 실행하면 아래와 같은 결과 값을 얻을 수 있다. 처음 부분과 마지막 부분만을 캡쳐하여 올려둔다. 그러나, 여기서 문제점은, 위와 같은 형태에서는 instance와 data 값이 늘어나면 코드가 지저분해 진다는 데 있다. 이를 수학적(?)으로 보다 깔끔하게 하기 위해서는 아래와 같은 Matrix(행렬 or.. 더보기
Linear Regression Ex1 H(x) = wx + b 의 Linear Regression example code import tensorflow as tf # X and Y data x_train = [1,2,3] y_train = [1,2,3] W = tf.Variable(tf.random_normal([1]), name = 'weight') b = tf.Variable(tf.random_normal([1]), name = 'bias') # Our hypothesis XW + b hypothesis = x_train * W + b # cost/Loss function cost = tf.reduce_mean(tf.square(hypothesis - y_train)) # Minimize optimizer = tf.train.Gradi.. 더보기