데이터 준비(인코딩) : 2가지 방법
목적 >> 숫자 리스트들이 가진 길이를 일치시켜야 하기 때문
model 설정
활성화 함수 | 중간층 | relu | |
---|---|---|---|
마지막층 | sigmoid | ||
층 수 | 3 | ||
유닛의 수 | 중간층 | 16 | |
마지막층 | 1 | * 마지막에는 확률 하나를 출력. (0~1 사이의 값: 1에 가까울수록 긍정에 가까울 확률) |
compile 과정
| 손실함수 | binary_crossentropy mean_squared_error | * crossentropy? → 확률을 출력하는 모델을 사용할 때 최선의 선택! → 확률 분포 사이의 차이를 측정. (원본 분포와 예측 분포 간의 차이 측정) | | --- | --- | --- | | 옵티마이저 | rmsprop | * rmsprop? → 거의 모든 문제에 무난무난함. | | 훈련 지표 | “accuracy” | |
데이터 준비(인코딩) : 2가지 방법
model 설정
활성화 함수 | 중간층 | relu | |
---|---|---|---|
마지막층 | softmax | * 각 샘플마다 46개의 토픽에 대한 확률분포를 담은 벡터를 출력. (46칸의 벡터) | |
층 수 | 3 | ||
유닛의 수 | |||
(Dense 층의 크기) | 중간층 | 64 | * 클래스가 46개므로 정보의 병목으로 데이터 손실을 방지하고자 데이터보다 더 큰 크기의 중간층을 사용. |
마지막층 | 46 | 46개의 토픽의 확률을 담은 46차원 벡터 |
compile 과정
| 손실함수 | categorical_crossentropy
sparse_categorical_crossentropy | → 확률 분포 사이의 거리를 측정. (모델이 출력한 확률분포와 진짜 레이블의 분포 사이의 거리) → 정수리스트로 인코딩했어야 함. | | --- | --- | --- | | 옵티마이저 | rmsprop | | | 훈련 지표 | “accuracy” | |
데이터 준비
→ 각 특성별로 정규화 (각 특성의 평균을 빼고 표준편차로 나누기)
model 설정
활성화 함수 | 중간층 | relu | |
---|---|---|---|
마지막층 | 없음 | * 선형층 (출력값의 범위를 제한하지 않음) | |
층 수 | 3 | ||
유닛의 수 | |||
(Dense 층의 크기) | 중간층 | 64 | |
마지막층 | 1 | for 스칼라 회귀 |
compile 과정
| 손실함수 | mse (mean squared error) | → 예측과 타깃 사이의 거리 제곱
문제내기