2016-09-07 5 views
5

spark Dataframe의 최대 열 수는 얼마입니까? 나는 그것을 데이터 프레임 문서에서 얻으려고했지만 찾을 수가 없다.Spark Dataframe 최대 열 수

답변

0

아키텍처 관점에서 볼 때 확장 가능하므로 열 수에 제한이 없어야하지만 노드에 균등하지 않은 부하가 발생할 수 있습니다. &은 변환의 전체 성능에 영향을 미칠 수 있습니다.

+0

올바르지 않습니다. 하드 한계 ('Int.MaxValue')를 쉽게 찾을 수 있지만 스파크는 길고 상대적으로가는 데이터 만 잘 조절합니다. 근본적으로 executor/파티션간에 하나의 레코드를 분리 할 수 ​​없습니다. 매우 광범위한 데이터를 비실용적으로 만드는 많은 실질적인 제한 사항 (GC, 디스크 IO)이 있습니다. 알려진 버그는 말할 것도 없습니다. – zero323

+0

그런 점에서 대부분의 (필자가 아는 한) 프로그래밍 모델은 길고가는 데이터를 "잘"확장합니다. (하나의 기본적인 이유 때문에 임계 값 다음에 저장 장치의 다음 관련 "논리 단위"에 기록하기 위해 기록이 깨집니다.) 대부분의 "빅 데이터"프레임 워크는 제한이없는 데이터를 처리하도록 설계되어 있습니다. 기술적 인 한계를 극복하고 성능이 저하됩니다. 그래서 나는 우리가 말한 한계에 도달하기 전에 메모리 오류를 얻을 것이라고 생각합니다. 당신의 생각? – KiranM

관련 문제