는
for feature in zip(feature_labels, rf.feature_importances_):
print(feature)
점수는 위의 각 변수의 중요도 점수이며, 다음과 같이
당신은 기능의 중요성을 인쇄 할 수 있습니다, 당신의 기능 feature_labels라는 목록에 할당하자. 여기서 기억해야 할 점은 모든 중요도 점수가 100 %가되는 것입니다.
중위 확인하고 가장 중요한 기능을 선택
,
# Create a selector object that will use the random forest classifier to identify
# features that have an importance of more than 0.15
sfm = SelectFromModel(rf, threshold=0.15)
# Train the selector
sfm.fit(X_train, y_train)
'''SelectFromModel(estimator=RandomForestClassifier(bootstrap=True, class_weight=None, criterion='gini',
max_depth=None, max_features='auto', max_leaf_nodes=None,
min_impurity_split=1e-07, min_samples_leaf=1,
min_samples_split=2, min_weight_fraction_leaf=0.0,
n_estimators=10000, n_jobs=-1, oob_score=False, random_state=0,
verbose=0, warm_start=False),
prefit=False, threshold=0.15)'''
# Print the names of the most important features
for feature_list_index in sfm.get_support(indices=True):
print(feature_labels[feature_list_index])
이 임계 값 설정에 따라 당신의 가장 중요한 기능 이름을 인쇄합니다.
이 예제는 원하는대로 정확하게 수행합니다. http://scikit-learn.org/stable/auto_examples/ensemble/plot_forest_importances.html –