Untitled

6조 -

1. k-means 알고리즘은 초기 클러스터 중심을 무작위로 선택하여 실행됩니다. 
-> T
2. k-means 군집에서 최적의 k는 inertia가 가장 낮은 지점에서 찾을 수 있다.
-> F / 엘보우 지점(이너시어 값이 꺾이는 지점)에서 최적의 k를 찾을 수 있다
3. pca 차원축소는 벡터의 차원이 아니라 배열의 차원을 이야기 하는 것이다.
-> F / 차원의 의미는 배열과 벡터의 차원을 혼용해서 쓰는 데, pca 차원축소는 배열의 차원이 아니라 벡터의 차원을 이야기 하는 것이다.
4. k-means 군집에서 클러스터가 증가할 경우 inertia는 반드시 감소한다.
-> F / 클러스터의 수를 너무 많이 늘리면 각 클러스터에 할당된 데이터 포인트의 수가 줄어들어 클러스터 간의 분산이 커질 수 있습니다. 이로 인해 inertia가 증가할 수도 있다.
5. k-means 군집은 타원형 데이터에서 잘 작동한다.
-> F / k-means 군집은 유클리드 거리로 측정하기 때문에 원형으로 군집된 데이터에서 더 성능이 좋다.	
6. k-means 알고리즘은 군집 내 분산이 서로 다른 경우에도 성능에 차이가 없다. 
-> F / 군집 내 분산이 다르면 군집 중심을 기준으로 균일한 분산을 갖는 것을 기대하기 어렵기 떄문에 성능이 떨어진다. 
7. PCA 클래스의 explained_variance_ratio_ 의 첫 번째 분산이 가장 크다 
-> T
8. 히스토그램은 구간별 값의 평균을 그래프로 표시한 것이다 
-> F / 구간별 빈도수를 그래프로 표현한 것이다
9. PCA의 method에는 score이 존재하지 않는다. 
-> T
10. PCA 에서 분산이 가장 큰 방향으로 만든 주성분과 분산이 가장 작은 방향으로 만든 주성분의 
차이를 서술하시오. 
답 : 분산이 가장 큰 방향이면 정보손실이 적고, 가장 작은 방향이면 정보손실이 크다.