Gradient descent(경사하강법, 경사하강알고리즘) - 텐서플로우(tensorflow)
경사 하강 알고리즘, 경사 하강법Cost(W,b)의 값을 최소화 하는 W,b값을 구함.import tensorflow as tfx_data = [?, ?, ?, ?, ?]y_data = [?, ?, ?, ?, ?]with tf.GradientTape() as tape: hypo = W * x_data + b cost = tf.reduce_mean(tf.square(hypo - y_data))W_grad, b_grad = tape.gradient(cost, [W,b])with tf.GradientTape() as tape:Gradient(기울기) Tape(기록)이후 tape에 gradient메서드를 실행하여 cost에 대한 W와b의 편미분 값을 tuple로 전달.learning rate기울기 값..
2020. 5. 20.