저는 큰 쿼리를 큰 쿼리에로드하는 데 어려움을 겪고 있습니다. Google의 문서에서는 insertAll 메서드가 제대로 작동하는 것으로 보이지만 JSON에서 약 100,000 개 이상의 데이터를 보내려고하면 413 개의 Entity too large 오류가 발생합니다. Per Google's docs, I should be able to send up to 1TB of uncompressed data in JSON. 뭐라 구요? 이전 페이지의 예제에서는 insertAll을 사용하는 대신 직접 수동으로 요청 본문을 작성했습니다.이 경우에는 못 생기고 오류가 발생하기 쉽습니다. 또한 어떤 경우에 데이터가 있어야하는지 잘 모르겠습니다.Python에서 Google Bigquery로 많은 데이터로드
그렇다면 Bigquery에 많은 양의 데이터를로드하는 깨끗하고 올바른 방법은 무엇입니까? 데이터가있는 예가 좋습니다. 가능하다면 직접 요청 본문을 작성하지 않을 것입니다.
원본 데이터의 형식은 무엇입니까? – Rohit
@Rohit 중요하지 않습니다. 그냥 데이터를 bigquery에 삽입하고 있습니다. 어떤 데이터라도 삽입하는 것은 괜찮을 것입니다. – Eli