AI11 머신러닝 스터디 -03 Softmax Classification SoftMax 를 이해하기 위해서는 Logistic 의 기본 개념을 이해 해야 한다. Logistic 함수는 Linear Regression 에서 파생된 개념 응용이라고 볼 수 있는데, 그 이유는 Logistic Regression을 통해 일정 사이의 수 ( 0 ~ 1 ) 의 값으로 Linear Regression 의 아웃풋값을 변형시켜 준 다음, 특정 기준을 통해 True 0 / False 1 로 변환 시켜 주는 것이기 때문이다. 그 식을 sigmoid 함수라고 하는데, 다음과 같다. 그리고 e 상단의 z 에 H(x) 값 ( WX + B ) 의 값을 대입한다. 즉 이해해 보면 간단한 대입식이다. 하지만 더욱 깊게 다루고자 하는 것은 softmax classification 이다. 이는 특정 객체를 여러.. 2020. 3. 15. 머신러닝 스터디 -02 Multi-Variable linear regression 단일 요소가 아닌 다중 오소가 결합되어 Linear Regression 을 도출해야 하는 경우 multi -variable linear regression 을 사용한다. linear Regression 과 큰 차이는 없다. 단지 matrix 개념이 들어간 것 뿐이다. 이러한 식을 갖고 있는 multi- variable linear regression 은 메트릭스로 계산을 할때 가장 효율적인 계산 / 코드 식을 낮는다. 코드로 나타내면 다음과 같다 X 는 6열을 가지고 있지만 행에는 한계가 없는 메트릭스 Y 는 결과값 W 는 1열 6행을 가지고 있는 기울기값 이다. 이를 메트릭스로 곱해주는 tf(tensorflow).matmul(X,W) 메소드를 사용한다면 상당히 간단하고 효율적이게 코딩이 가능하다. 코딩.. 2020. 3. 14. 머신러닝 스터디 -01 Linear Regression Linear Regression 정리 여러 데이터셋을 통한 Linear Regression 방정식이 가장 기본적인 머신러닝이다. Linear 로부터 Logistic 등으로 발전 되는 만큼 기초를 탄탄히 해 볼 필요가 있다. 근본적인 알고리즘으로는 Gradient Decent Algorithm 이 존재하는데, 이러한 알고리즘은 cost 값을 줄여나가는 알고리즘이다. 그렇다면 어떻게, 이 알고리즘은 cost값을 줄여나갈까? cost 값을 그래프로 나타낸다면 아래와 같은 표가 나오는데 , 이 그래프 속에서 조금씩 값을 변환시켜 cost 값이 수렴되는 값, 즉 linear 에 맞는 W 값을 찾는 것이다. 그리하여 gradient ( 경사 ) 를 내려가듯이 ( Decent ) 값을 찾는다 이렇게 이름을 빌려 gr.. 2020. 3. 14. 이전 1 2 3 다음