pd.unique(fish[’Species’])와 kn.classes 내의 원소 순서는 동일하다.
로지스틱 회귀는 회귀 모델이다.
3개 이상의 클래스를 분류하는 다중분류에서 z값을 -1~1까지의 값으로 바꾸기 위해 소프트 맥스 함수를 사용한다.
소프트 맥스 함수를 사용해 각 클래스의 z값을 0~1 사이의 값으로 변환한 뒤 다 더하면 1이 된다.
O
$$ \frac{e^{z1}+e^{z2}+e^{z3}}{e\_sum} = 1 $$
1 epoch는 전체 train_input 데이터에서 1개의 샘플을 뽑아 그 데이터에 대해서 훈련한 것을 의미한다.
K-최근접 이웃 회귀 모델의 훈련결과가 과대적합일 경우 K 값을 줄여 모델을 더 단순하게 만들어야 한다.
시그모이드 함수(sigmoid function)는 0~1까지의 연속적인 형태로 변경하기 위한 함수로 이진분류인 경우 출력이 0.5를 기준으로 높을 경우 양수, 낮을 경우 음수 클래스로 판단한다.
로지스틱회귀의 규제를 강화하려면 매개변수 C를 음수로 만들어야한다.
로지스틱 회귀로 다중분류를 수행하려면 시그모이드 함수보다 소프트맥스 함수를 사용한다.
미니배치를 사용하여 학습하면 배치 경사하강법보다 큰 데이터를 학습시킬때 컴퓨터 자원을 적게 사용한다.
partial_fit()메소드를 사용하는 이유는 SGDClassifier에서 효율적으로 한 번에 처리하기 위해서이다.
max_iter= 즉 Epoch 횟수는 Hyper parameter이므로 사용자가 직접 정할 수 있는 값이다.
round()함수는 기본적으로 소수점 첫째 자리까지 반올림하며, decimals 매개변수로 유지할 소수점 아래 자릿수를 지정할 수 있다.
슬라이싱 연산자는 샘플의 차원에 따라서 결과 차원이 결정된다. ex)1차원을 넣으면 1차원이 나온다
decision_function() 메서드는 predict_proba() 메서드의 결과값 모두 z값을 계산해줄 수 있다.