API를 통해 BigQuery에 로컬 파일을로드하려고하는데 실패했습니다. 파일 크기는 98 MB이고 5 백만 개가 넘는 행입니다. 과거에 문제없이 동일한 수의 행과 약간 큰 파일 크기의 테이블을로드했습니다.BigQuery 테이블에 로컬 파일을로드하는 중 오류가 발생했습니다.
사용하고있는 코드는 다른 여러 테이블을 성공적으로 업로드하는 데 사용한 API 설명서의 코드와 정확히 동일합니다. , CloudStorage (dw_tests/TestCSV/test.csv)에서 잘 같은 파일로드, 문제가 하나 더 적은 열을 가진 약 라인을보고하지 않을 수 있음을
가Errors:
Line:2243530, Too few columns: expected 5 column(s) but got 3 column(s)
Too many errors encountered. Limit is: 0.
Job ID: job_6464fc24a4414ae285d1334de924f12d
Start Time: 9:38am, 7 Aug 2012
End Time: 9:38am, 7 Aug 2012
Destination Table: 387047224813:pos_dw_api.test
Source URI: uploaded file
Schema:
tbId: INTEGER
hdId: INTEGER
vtId: STRING
prId: INTEGER
pff: INTEGER
참고 : 내가 오류는 다음과 CloudStorage에서도 실패 할 것이므로 모든 행의 형식이 올바른지 확인했습니다.
다음 작업은 동일한 문제가 있지만 유일한 차이점은 테이블 이름과 스키마의 필드 이름이 다르다는 것입니다 (그러나 데이터 파일, 필드 및 유형은 동일 함).
Line:4288253, Too few columns: expected 5 column(s) but got 4 column(s)
작업이 다음과 같습니다 :
{'status': '503', 'content-length': '177', 'expires': 'Fri, 01 Jan 1990 00:00:00 GMT', 'server': 'HTTP Upload Server Built on Jul 27 2012 15:58:36 (1343429916)', 'pragma': 'no-cache', 'cache-control': 'no-cache, no-store, must-revalidate', 'date': 'Tue, 07 Aug 2012 08:36:40 GMT', 'content-type': 'application/json'}
{
"error": {
"errors": [
{
"domain": "global",
"reason": "backendError",
"message": "Backend Error"
}
],
"code": 503,
"message": "Backend Error"
}
}
이를 :
job_cbe54015b5304785b874baafd9c7e82e load FAILURE 07 Aug 08:45:23 0:00:34
job_f634cbb0a26f4404b6d7b442b9fca39c load FAILURE 06 Aug 16:35:28 0:00:30
job_346fdf250ae44b618633ad505d793fd1 load FAILURE 06 Aug 16:30:13 0:00:34
파이썬 스크립트를 반환하는 오류는 다음과 같다 그 시도에서는 문제에서 다른 행을 주장 BigQuery에 문제가있는 것 같습니다. 이 문제를 어떻게 해결할 수 있습니까?
안녕하세요 : 작업이 완료되면 503 오류가 발생하고 실패한 처리 작업 ID를 검사 할 때 "행 : 4288253, 열이 너무 적습니다"라는 메시지가 나타납니다. –
안녕하세요, 마이클, 나는 잠시 후 503을 얻었습니다. 나는 처리 할 수없는 파일의 부분에 도달했을 때를 추측합니다. 콘솔의 작업 내역에서 "줄 XXXXX가 너무 적습니다."에 대한 세부 정보를 얻었습니다. 작업이 실패 할 때까지 작업이 콘솔의 내역에 표시되지 않습니다. –