본문 바로가기

deep learning3

Gradient descent(경사하강법, 경사하강알고리즘) - 텐서플로우(tensorflow) 경사 하강 알고리즘, 경사 하강법 Cost(W,b)의 값을 최소화 하는 W,b값을 구함. import tensorflow as tf x_data = [?, ?, ?, ?, ?] y_data = [?, ?, ?, ?, ?] with tf.GradientTape() as tape: hypo = W * x_data + b cost = tf.reduce_mean(tf.square(hypo - y_data)) W_grad, b_grad = tape.gradient(cost, [W,b]) with tf.GradientTape() as tape: Gradient(기울기) Tape(기록) 이후 tape에 gradient메서드를 실행하여 cost에 대한 W와b의 편미분 값을 tuple로 전달. learning rate .. 2020. 5. 20.
Linear Regression(선형회귀) 구현 및 Cost의 최소화 - 텐서플로우(tensorflow) import tensorflow as tf x_data = [1, 2, 3, 4, 5] y_data = [1, 2, 3, 4, 5] W = tf.Variable(3.5) b = tf.Variable(1.0) # hypothesis = W * x + b hypo = W * x_data + b H(x) = 가설함수 hypotthesis라고 하며 파이썬(tensorflow)에서 구현할수 있도록 변경 # cost = (hypo - y_data) ** 2 cost = tf.reduce_mean(tf.square(hypo - y_data)) 코스트함수. 가설에 의한 출력 - 실제출력 한 값의 제곱값들의 평균 tf.reduce_mean() v = [1., 2., 3., 4.] tf.reduce_mean(v) # 2... 2020. 5. 19.
머신러닝 용어 및 개념 - 텐서플로우(tensorflow) 머신러닝이란? 직역 - 기계학습. 즉 기계 스스로 학습하는것. 알고리즘과 머신러닝의 차이 입력값이 순서대로 2, 3, 4일때. 알고리즘 3x+2와 같이 알고리즘이 정해져있음. [출력] 8, 11, 14 이때에 5를 입력시 17을 출력 머신러닝 Wx + b로 가설함수 수립. 입력값에 대한 출력값(데이터 표본)을 통한 학습 W = 3, b = 2와같이 학습이 완료됨 5입력시 17출력. Supervised learning 레이블을 사전에 정의해 줄수 있고 추후에 입력되는 데이터가 어떠한 레이블에 속하는지 예) 고양이, 개, 토끼 등이 학습된 상태에서 사진 입력시 어떤 동물인지 출력. Unsupervised learning 레이블을 사전에 정의해 줄수 없고 그때그때 판단해야 하는것 예) 연관된 뉴스 (비슷한 뉴.. 2020. 5. 18.