본문 바로가기

CODE4

Gradient descent(경사하강법, 경사하강알고리즘) - 텐서플로우(tensorflow) 경사 하강 알고리즘, 경사 하강법 Cost(W,b)의 값을 최소화 하는 W,b값을 구함. import tensorflow as tf x_data = [?, ?, ?, ?, ?] y_data = [?, ?, ?, ?, ?] with tf.GradientTape() as tape: hypo = W * x_data + b cost = tf.reduce_mean(tf.square(hypo - y_data)) W_grad, b_grad = tape.gradient(cost, [W,b]) with tf.GradientTape() as tape: Gradient(기울기) Tape(기록) 이후 tape에 gradient메서드를 실행하여 cost에 대한 W와b의 편미분 값을 tuple로 전달. learning rate .. 2020. 5. 20.
배우기 앞서서 에러부분 ^ Syntax Errors : 에러내용 앞으로 파이썬을 사용해 프로그래밍을 하면서 문법오류를 상당히 자주 목격할수 있습니다. 저 또한 처음 배울때 상당히 많이 조우했으며 괜찮은 코드 처럼 보이는데도, 다시 수정해도 다시금 오류가 뜰수 있습니다. 문법오류가 뜨는것이 부족한 프로그래머라는 것을 의미하진 않습니다. 단지 무엇을 하려는건지 파이썬이 이해하지 못했을 뿐입니다. 짜증날수도 있지만 문법오류에 익숙해지셔야 합니다. 5번째 줄의 else의미를 모르겠어..!! 들여쓰기가 안돼서인가 햇갈려 ㅠㅠ 무슨 말이 하고싶은거야 ㅠㅠㅠ 라고 말하는거죠 우리가 파이썬 언어를 배우고 이해하는것이 파이썬이 우리 언어를 배우고 이해하는것보다 훨씬 쉽습니다. 파이썬의 코드는 문장으로 구성되어있습니다.. x = 2 x.. 2020. 5. 19.
Linear Regression(선형회귀) 구현 및 Cost의 최소화 - 텐서플로우(tensorflow) import tensorflow as tf x_data = [1, 2, 3, 4, 5] y_data = [1, 2, 3, 4, 5] W = tf.Variable(3.5) b = tf.Variable(1.0) # hypothesis = W * x + b hypo = W * x_data + b H(x) = 가설함수 hypotthesis라고 하며 파이썬(tensorflow)에서 구현할수 있도록 변경 # cost = (hypo - y_data) ** 2 cost = tf.reduce_mean(tf.square(hypo - y_data)) 코스트함수. 가설에 의한 출력 - 실제출력 한 값의 제곱값들의 평균 tf.reduce_mean() v = [1., 2., 3., 4.] tf.reduce_mean(v) # 2... 2020. 5. 19.
Regression(회귀) - 텐서플로우(tensorflow) 사전적 의미 회귀, 후퇴, 되돌아간다 사용되는 의미 "Regression toward the mean" -Sir Francis Galton- 어떤 데이터가 상당히 크거나 작은 값을 가지고 있더라도 이는 전체적인 평균에 회귀하려는 특징이 있다. Linear Regression (선형회귀) 직선의 방정식 y = ax + b (a : 직선의 기울기, b : 직선의 y절편) Linear Regression == a와 b를 구하는것 Cost 예측데이터에서 실제데이터 값을 뺀 값. 작으면 작을수록 데이터를 잘 대변한다 == 예측에 성공했다. Cost == loss == error 동일한 뜻으로 사용된다. Linear Regression에서 가장 중요한것은 Cost값을 최소화 하는것. Cost Function 가설함.. 2020. 5. 19.