Machine learning, Deep learning
-
머신러닝에 대한 기본적인 질문들Machine learning, Deep learning 2020. 7. 5. 20:59
1. 머신러닝을 어떻게 정의내릴까? -> 머신러닝은 어떤 데이터를 학습하는 데 필요한 하나의 시스템을 설계하는 것과 같다. 여기서 '학습'이란 어떤 데이터 작업에서 목표로 했던 성과 및 성능 지표가 업그레이드되게 하는 것을 말한다. 2. 머신러닝의 도움을 받을 수 있는 4가지의 유형은? -> 첫째, 뚜렷한 해결책이 보이지 않는 문제, 둘째, 수작업으로 만든 긴 규칙 리스트를 대체하는 경우 셋째, 변화하는 환경에 적응하는 시스템을 만드는 경우 넷째, 사람에게 통찰을 제공해야 하는 경우 3. 레이블링된 훈련 세트는 무엇인가? -> 각 데이터가 원하는 답이나 특징이 있는데, 로우 데이터에 이러한 특성을 부여하고, 이러한 특성을 부여받은 데이터 셋을 '레이블링된 훈련 세트'라고 한다. 4. 가장 널리 사용되는 ..
-
Multi-variable Linear RegressionMachine learning, Deep learning 2020. 7. 3. 21:08
여러개 변수를 사용하는 다변수 선형 회귀 하나의 변수에서 하나의 결과값을 가지는건, '단순선형회귀' 여러가지 변수를 고려 -> 다변수 선형 회귀 변수가 하나일 떄, Hypothesis를 구하는 법 변수가 여러 개일 떄, Hypothesis를 구하는 법 만약, 변수들이 너무 많다? 그러면 다음과 같은걸 고려해볼 수 있다. Matrix를 고려한다. x매트릭스를 w매트릭스로 뭔가를 구해주는 방식으로 변한다. Tensorflow로 구현 # data and label x1 = [73., 93., 89., 96., 73.] x2 = [80., 88., 91., 98., 66.] x3 = [75., 93., 90., 100., 70.] Y = [152., 185., 180., 196., 142.] # weights ..
-
Linear Regression and How to minimize costMachine learning, Deep learning 2020. 7. 3. 02:15
예측값(가설) - 실제값 의 제곱을 평균낸 값 -> Cost 이를 파이썬으로 구현 import numpy as np X = np.array([1,2,3]) Y = np.array([1,2,3]) def cost_func(W,X,Y): c = 0 for i in range(len(X)): c += (W * X[i] - Y[i]) **2 return c/len(X) for feed_W in np.linspace(-3, 5, num = 15): curr_cost = cost_func(feed_W, X, Y) print("{:6.3f} | {:10.5f}".format(feed_W, curr_cost)) 결과: 이를 Tensorflow로 구현을 해보면? import tensorflow as tf X = np.a..
-
Lecture4_Backpropagation and Neural NetworksMachine learning, Deep learning 2020. 7. 2. 20:03
자 이제, 본격적으로 Neural Network내용으로 들어가기 전에 기본적인 BACKPROPAGATION 등에 대해서 배웠다. 참고는 스탠포드의 CS231n 강의를 참고했다. 하... 이제 진도나가고 공부하다보면 겁내 빡시겠지??? 나 경영대생이었는데.... 이거 보고 있어... 재밌다:) 이쪽 세계 발 들인 이상 빠져나가지는 못할거 같아 참고로 데이터라는 분야가 듣기 좋고, 주변에서 하는 분이 있는데 멋져보여서 하려는 분들은 잠시 생각할 시간을 갖길 바랍니다. 공부할 양이 진짜 진짜 많고, 책도 많이 읽어야 하는 등 투자를 많이 해야하는 분야인거 같습니다!!! 자기 적성과 맞는지 여부를 판단함에 있어서, 단순히 밝은 미래? 멋져보이는 직무? 등등 외관적인 면을 보기 전에, 직접 혼자서 공부를 하며 자..
-
Simple Linear Regression(단순선형회귀)Machine learning, Deep learning 2020. 6. 29. 21:53
Build a hypothesis and cost x_data = [1,2,3,4,5] y_data = [1,2,3,4,5] W = tf.variable(2.9) b = tf.variable(0.5) # hypothesis = W * x + b hypothesis = W * x_data + b cost = tf.reduce_mean(tf.square(hypothesis - y_data)) # 제곱의 평균 # tf.reduce_mean -> 차원이 줄어들면서 평균을 구한다 # tf.square -> 제곱 cost를 최소화하는 W,b를 찾는 minimizaiton 알고리즘들 중 gradient(경사, 기울기) descent(하강)가 유명하다. "경사 내려가면서 cost가 작은 지점 찾자잉" # Learnin..
-
-
CS231n_Lecture3_Loss Function and OptimizationMachine learning, Deep learning 2020. 6. 28. 21:33
회사에서 머신러닝/딥러닝 스터디에 합류를 자청했다. 뭔가 데이터를 공부한다고 해서 이쪽 분야에 대한 공부의 필요성을 느꼈기 때문이다. 앞으로 매주 들은 강의와 수업 내용을 간략하게 정리해서 업데이트 해보려 한다. 다만, 나중에 내가 복습을 할 때, 정말 짧고 간략하게 쓰면서 쉽고 빠르게 내용을 복기하는데 도움이 되는 방향으로 글을 적으려 한다. 다른 기본 코딩은 깃허브를 활용하려 한다. 데이터 파이프라인 설계와 같은 쪽도 공부를 고려 중인데, 너무 급할 일은 아니기 때문에 텐서플로우 자격증 취득과 클라우드 자격증 취득 후 시작하지 않을까 싶다. 2강 복습 컴퓨터가 이미지 인식에는 카메라가 어떤 각도에 있냐, 조면, 변형, 은폐/은닉, 배경과의 구별 모호, 클래스 내의 variation의 장애물이 있다. ..