큰 데이터 세트가 있는데, R의 패키지 xgboost을 사용하여 회귀 분석을 수행하려고합니다. 기능 xgboost 인수 data 내가 그것을 사용하는 파일의 이름이어야 이해하는에서 로컬 데이터 파일을 할 수 있다고 말한다. 그러나 그것에 대해 더 이상의 사양이 없습니다, 그래서 내 질문은 정확히 어떻게이 파일이어야합니다. 나는 random=matrix(rn
큰 데이터 세트를 neo4j로 가져 오려고합니다. .xls 파일을 읽은 후 .cql 파일에 cypher 쿼리를 작성하는 Python 스크립트를 만든 다음 neo4j-shell을 사용하여 실행했습니다. 이는 작은 데이터 세트에서 효과적이었습니다. 그러나 데이터 세트의 크기를 늘리면 시스템이 충돌합니다. 일괄 수입업자를 사용하는 제안은 거의 없었지만 일반적으로
저는 CPU보다 느린 결과를주는 GPU를 사용하는 프로젝트에서 작업하고 있습니다. 이유는 내가 너무 작은 데이터 배열을 입력 (길이 = 1024)로 대기시키고 있기 때문입니다. 더 많은 데이터를 큐에 넣고 싶습니다만 메모리 사용으로 인해 막혔습니다. 커널 483 함수 내에서 계산 중이며, 각 함수는 481 개의 기간에 계산됩니다. 그래서 내 결과를 다시 얻
우리는 큰 MongoDB 데이터베이스 (약 1,4ml 컬렉션), MongoDB 3.0, 엔진 rocksDB, 운영 시스템 우분투 14.04를 보유하고 있습니다. 이 DB는 16 코어 및 108GB RAM (현재 mongoDB는 스왑없이 70GB의 메모리를 사용함)이있는 가상 시스템 (VmWare vCloud)에 있습니다. 생산 설정 옵션 : 전용 파티션에
나는 Sloan Digital Sky Survey (SDSS) 데이터를 사용하여 this 파일의 최종 데이터 제품을 얻었습니다. 첫 번째 열은 wLength (wavlength)이고 두 번째 열은 flux입니다. zero_F 변수 zero_F = find(a==0)에 0을 저장하고, wLength(zero_F)=[]; 및을 사용하여 두 열에서 모두 0을 저
매우 큰 테이블의 특정 열에 대한 정보를 얻을 필요가있는 요구 사항이 있습니다. 열의 값은 고유하지 않으며 두 번 이상 반복됩니다. 따라서 고유 한 정보를 얻으려면 전체 테이블을 탐색하는 데 비용이 많이 드는 작업이됩니다. 시간을 절약하고 데이터베이스 성능을 향상시키는 설계 전략이 있습니까?
PHP 응용 프로그램에서 사용해야하는 API가 있습니다. 한 끝점은 업로드 할 파일을 POST 요청의 본문으로받습니다. 업로드 된 파일은 다소 거대 할 수 있습니다 (최대 25GB). 엔드 포인트는 200 OK 또는 다른 다른 상태 코드가있는 간단한 JSON 컨텐츠를 리턴합니다. 예 요청은 다음과 같이 보일 수 있습니다 : POST /api/upload H
사용자가 페이지를 새로 고칠 때마다 JSON 형식 (2000 개가 넘는 항목)의 많은 양의 데이터를 코어 데이터로로드하고 있습니다. 내가 지금하고있는 일은 잘 작동하지만 시간이 오래 걸린다. 어떤 종류의 페이지 매김을 사용하려고했지만 백엔드 수정이 필요합니다. 프로세스를 최적화하기 위해 누군가가 나를 도울 수 있기를 바랍니다. 또는 iOS에 많은 양의 데이