저는 매일 대량의 데이터를 가져 오는 응용 프로그램을 가지고 있으며, 수십만 개의 레코드가 있습니다.
데이터의 출처가 다릅니다. 데이터는 C#을 사용하여 읽은 다음 데이터베이스에 대량 삽입됩니다.
이 데이터는 후 처리 :많은 양의 데이터 - 저장 프로 시저 또는 데이터 집합 또는 기타 관리?
- 다른 테이블
- 새로운 테이블
- 데이터 복잡한 algorithmns를 사용하여 보정된다 생성 연결된
이 처리의 대부분은 저장 프로 시저에서 수행됩니다.
복잡한 처리 중 일부는 C#에서 더 간단 할 수 있지만 데이터 집합을 데이터 집합으로 추출하고 다시 삽입하면 작업이 상당히 느려집니다.
데이터베이스에 데이터를 삽입하기 전에 데이터를 처리하지 않는 이유를 묻지 만 메모리에서 레코드를 100,000 개 조작하는 것이 실용적이지 않다고 생각할 수 있으며 SQL 집합 기반 명령은 많은 레코드를 생성 할 때 도움이됩니다.
이렇게하면 저장 프로 시저 및 장단점을 사용하는 것과 관련된 오래된 질문이 제기 될 것입니다. (예 : 단위 테스트 저장 프로 시저는 어떻게합니까?)
대용량 데이터 사용 경험 및 문제 해결 방법에 대한 답변을 원합니다.