아래의 xgboots sklearn 인터페이스를 사용하여 xgb model-1을 생성하고 교육합니다. 원본 xgboost와 sklearn XGClassifier의 차이점
clf = xgb.XGBClassifier(n_estimators = 100, objective= 'binary:logistic',)
clf.fit(x_train, y_train, early_stopping_rounds=10, eval_metric="auc",
eval_set=[(x_valid, y_valid)])
그리고 xgboost 모델
은 모델이 다음과 같이 원래의 xgboost에 의해 만들 수 있습니다param = {}
param['objective'] = 'binary:logistic'
param['eval_metric'] = "auc"
num_rounds = 100
xgtrain = xgb.DMatrix(x_train, label=y_train)
xgval = xgb.DMatrix(x_valid, label=y_valid)
watchlist = [(xgtrain, 'train'),(xgval, 'val')]
model = xgb.train(plst, xgtrain, num_rounds, watchlist, early_stopping_rounds=10)
나는 모든 매개 변수가 모델 1과 모델 2와 같은 생각합니다. 그러나 유효성 검사 점수는 다릅니다. 모델 -1과 모델 -2의 차이점은 무엇입니까?
. 몇 시간 동안 모든 문서 및 모든 코드를 살펴보고 모든 매개 변수를 동일하게 설정 한 다음 교육을 받았습니다. 여전히, 나는'xgb.XGBClassifier'가 0.51 auc를주고'xgb.train'이 0.84 auc를 준다는 것을 알았습니다. 나는 이유를 모른다. – josh
'sklearn'인터페이스에는 몇 가지 옵션이 없습니다. 예를 들어'skreearn' 인터페이스에는 순위 지정에 중요한'DMatrix' 클래스의'set_group' 메소드가 있습니다. – xolodec