본문 바로가기

텐서플로우4

Gradient descent(경사하강법, 경사하강알고리즘) - 텐서플로우(tensorflow) 경사 하강 알고리즘, 경사 하강법 Cost(W,b)의 값을 최소화 하는 W,b값을 구함. import tensorflow as tf x_data = [?, ?, ?, ?, ?] y_data = [?, ?, ?, ?, ?] with tf.GradientTape() as tape: hypo = W * x_data + b cost = tf.reduce_mean(tf.square(hypo - y_data)) W_grad, b_grad = tape.gradient(cost, [W,b]) with tf.GradientTape() as tape: Gradient(기울기) Tape(기록) 이후 tape에 gradient메서드를 실행하여 cost에 대한 W와b의 편미분 값을 tuple로 전달. learning rate .. 2020. 5. 20.
Linear Regression(선형회귀) 구현 및 Cost의 최소화 - 텐서플로우(tensorflow) import tensorflow as tf x_data = [1, 2, 3, 4, 5] y_data = [1, 2, 3, 4, 5] W = tf.Variable(3.5) b = tf.Variable(1.0) # hypothesis = W * x + b hypo = W * x_data + b H(x) = 가설함수 hypotthesis라고 하며 파이썬(tensorflow)에서 구현할수 있도록 변경 # cost = (hypo - y_data) ** 2 cost = tf.reduce_mean(tf.square(hypo - y_data)) 코스트함수. 가설에 의한 출력 - 실제출력 한 값의 제곱값들의 평균 tf.reduce_mean() v = [1., 2., 3., 4.] tf.reduce_mean(v) # 2... 2020. 5. 19.
Regression(회귀) - 텐서플로우(tensorflow) 사전적 의미 회귀, 후퇴, 되돌아간다 사용되는 의미 "Regression toward the mean" -Sir Francis Galton- 어떤 데이터가 상당히 크거나 작은 값을 가지고 있더라도 이는 전체적인 평균에 회귀하려는 특징이 있다. Linear Regression (선형회귀) 직선의 방정식 y = ax + b (a : 직선의 기울기, b : 직선의 y절편) Linear Regression == a와 b를 구하는것 Cost 예측데이터에서 실제데이터 값을 뺀 값. 작으면 작을수록 데이터를 잘 대변한다 == 예측에 성공했다. Cost == loss == error 동일한 뜻으로 사용된다. Linear Regression에서 가장 중요한것은 Cost값을 최소화 하는것. Cost Function 가설함.. 2020. 5. 19.
머신러닝 용어 및 개념 - 텐서플로우(tensorflow) 머신러닝이란? 직역 - 기계학습. 즉 기계 스스로 학습하는것. 알고리즘과 머신러닝의 차이 입력값이 순서대로 2, 3, 4일때. 알고리즘 3x+2와 같이 알고리즘이 정해져있음. [출력] 8, 11, 14 이때에 5를 입력시 17을 출력 머신러닝 Wx + b로 가설함수 수립. 입력값에 대한 출력값(데이터 표본)을 통한 학습 W = 3, b = 2와같이 학습이 완료됨 5입력시 17출력. Supervised learning 레이블을 사전에 정의해 줄수 있고 추후에 입력되는 데이터가 어떠한 레이블에 속하는지 예) 고양이, 개, 토끼 등이 학습된 상태에서 사진 입력시 어떤 동물인지 출력. Unsupervised learning 레이블을 사전에 정의해 줄수 없고 그때그때 판단해야 하는것 예) 연관된 뉴스 (비슷한 뉴.. 2020. 5. 18.