#Softmax Regression2 34. Python - 4장 연습문제 이 책의 좋은 점 또 하나는 연습문제입니다.뭔가 생각하게 해보고 복습할 수 밖에 없게 만드는 연습문제들을 보면서 정말 이런 서적들 중에 가성비 갑이라고 생각합니다.이렇게 세심한 설명과 구성들을 보면 앞으로 이 책을 다 본다면 다른 책도 사볼 수 밖에 없을 것 같아요.취준생으로서 저는 그렇게 느낍니다..ㅎㅎ;; 4장의 연습문제는 다음과 같습니다. [연습문제] 1. 수백만 개의 특성을 가진 훈련 세트에서는 어떤 선형 회귀 알고리즘을 사용할 수 있을까요? 수백만 개의 특성이 있는 훈련세트를 가지고 있다면, 확률적 경사 하강법(SGD)이나 미니배치 경사 하강법을 사용할 수 있습니다.훈련 세트가 메모리 크기에 맞으면 배치 경사 하강법도 가능합니다.하지만 정규방정식은 계산 복잡도가 특성 개수에 따라 매우 빠르게 증.. 2019. 1. 30. 33. Python - 소프트맥스 회귀(다항 로지스틱 회귀) 어제 보았던 로지스틱 회귀 모델은 여러 개의 이진 분류기를 훈련시켜 연결하지 않고, 직접 다중 클래스를 지원하도록 일반화할 수 있습니다. 이를, 소프트맥스 회귀(Softmax Regression) 또는 다항 로지스틱 회귀(Multinomial Logistic Regression)라고 합니다. 개념은 샘플 x가 주어지면, 소프트맥스 회귀 모델이 각 클래스 k에 대한 점수 를 계산하고, 그 점수에 소프트맥스 함수(softmax function, 또는 정규화된 지수 함수(normalized exponential)라 부름) 를 적용하여 각 클래스의 확률을 추정합니다. 를 계산하는 식은 선형 회귀 예측을 위한 식과 매우 비슷합니다. [클래스 k에 대한 소프트맥스 점수]각 클래스는 자신만의 파라미터 벡터 가 있습니.. 2019. 1. 29. 이전 1 다음