DPGMM에서 얻은 결과는 내가 기대 한 바가 아닙니다. 예 :sklearn.mixture.DPGMM : 예기치 않은 결과
>>> import sklearn.mixture
>>> sklearn.__version__
'0.12-git'
>>> data = [[1.1],[0.9],[1.0],[1.2],[1.0], [6.0],[6.1],[6.1]]
>>> m = sklearn.mixture.DPGMM(n_components=5, n_iter=1000, alpha=1)
>>> m.fit(data)
DPGMM(alpha=1, covariance_type='diag', init_params='wmc', min_covar=None,
n_components=5, n_iter=1000, params='wmc',
random_state=<mtrand.RandomState object at 0x108a3f168>, thresh=0.01,
verbose=False)
>>> m.converged_
True
>>> m.weights_
array([ 0.2, 0.2, 0.2, 0.2, 0.2])
>>> m.means_
array([[ 0.62019109],
[ 1.16867356],
[ 0.55713292],
[ 0.36860511],
[ 0.17886128]])
결과가 바닐라 GMM과 더 유사 할 것으로 예상됩니다. 즉 두 개의 가우시안 (값 1 및 6 주변), 균일하지 않은 가중치 (예 : [0.625, 0.375])가 있습니다. 나는 "사용하지 않은"가우시안이 0에 가까운 가중치를 가지기를 기대했다.
모델을 잘못 사용하고 있습니까?
나는 행운도없이 알파를 바꿨습니다.
0.12 버전을 사용하는 특별한 이유가 있습니까? – Rohit