Azure 테이블 스토리지에서 약 1 억 개의 데이터 행을 다운로드해야하는 임무가 있습니다. 여기서 중요한 것은 속도입니다.Azure 테이블 스토리지에서 1 억 개의 행을 다운로드하는 방법 FAST
우리가 사용중인 프로세스는 Azure 테이블 저장소에서 10,000 개의 행을 다운로드하고 있습니다. Sql Server의 로컬 인스턴스로 처리하십시오. 행을 처리하는 동안 Azure 테이블에서 한 번에 100 개의 행을 삭제합니다. 이 프로세스는 한 번에 10,000 개의 행을 다운로드하는 8 개의 스레드를 갖도록 스레드됩니다.
유일한 문제는 Google 계산에 따른 것입니다. 우리가 저장 한 약 1 억 개의 행을 다운로드하고 처리하는 데 약 40 일이 소요됩니다. 누구든지이 작업을 수행하는 더 빠른 방법을 알고 있습니까?
사이드 질문 : 다운로드 프로세스 중에 Azure는 방금 데이터가없는 xml을 되돌려 보냅니다. 오류를 다시 보내지 않습니다. 하지만 다음을 보냅니다.
<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<feed xml:base="azure-url/" xmlns:d="http://schemas.microsoft.com/ado/2007/08/dataservices" xmlns:m="http://schemas.microsoft.com/ado/2007/08/dataservices/metadata" xmlns="http://www.w3.org/2005/Atom">
<title type="text">CommandLogTable</title>
<id>azure-url/CommandLogTable</id>
<updated>2010-07-12T19:50:55Z</updated>
<link rel="self" title="CommandLogTable" href="CommandLogTable" />
</feed>
0
다른 사람이이 문제를 가지고 있으며 수정 사항이 있습니까?
행당 데이터 양은 어느 정도입니까? 400 바이트, 400kb, meg? –
최대 각 행은 1k입니다. – jWoose
나는 Azure에서 일하지 않았다. 그래서 나는 SQL/네트워크 관점에서 문제를 해결하려고 노력하고있다. 그러나 일부 블로그를 통해 읽고 있는데 ATOM을 사용하면 대용량 데이터 집합에 대해 매우 장황하고 비효율적입니다. 자, 이걸 바꾸는 것이 얼마나 어려운지 모르겠습니다. 속도/데이터 차이의 예가 여기에 있습니다. http://weblogs.asp.net/rgillen/archive/2009/08/20/atompub-json-azure-and-large-datasets-part-2.aspx –