Gradient descent(경사하강법, 경사하강알고리즘) - 텐서플로우(tensorflow)
경사 하강 알고리즘, 경사 하강법 Cost(W,b)의 값을 최소화 하는 W,b값을 구함. import tensorflow as tf x_data = [?, ?, ?, ?, ?] y_data = [?, ?, ?, ?, ?] with tf.GradientTape() as tape: hypo = W * x_data + b cost = tf.reduce_mean(tf.square(hypo - y_data)) W_grad, b_grad = tape.gradient(cost, [W,b]) with tf.GradientTape() as tape: Gradient(기울기) Tape(기록) 이후 tape에 gradient메서드를 실행하여 cost에 대한 W와b의 편미분 값을 tuple로 전달. learning rate ..
2020. 5. 20.