2016-12-22 1 views
0

XLA 시험판 문서를 읽었습니다.TensorFlow XLA는 스파 스 텐서를 처리합니까?

https://www.tensorflow.org/versions/master/resources/xla_prerelease#xla_accelerated_linear_algebra

그것은 요소의 데이터 유형에 대해 설명하지만, 텐서 자체의 데이터 조직에 대한 많은 세부 사항에 가지 않습니다. XLA를 사용할 수있게되면 SparseTensor 객체의 연산은 어떻게 처리됩니까?

+0

GitHub 관련 문제 또는 IRC 또는 기타 사항에 더 적합한 댓글을 달았습니다. 어쩌면 거기에 더 많은 행운이있을 것입니까? –

+0

코드 및 기타 설명서는 나중에 2017 년 1 월에 출시 될 예정입니다. –

답변

0

아니요, XLA는 밀도가 높은 텐서에 초점을 맞추고 효율적인 방법으로 스파 스 텐서를 처리하지 않습니다 오늘.

사용자가 layouts (예 : 내부 패딩)을 사용하여 희박성을 표현할 수 있도록 쉽게 확장 할 수 있습니다.

1

레이아웃은 입력 및 출력 텐서의 데이터 구성을 제한하고 희소 레이아웃을 포함하지 않지만 Jingyue는 향후 확장 할 수 있다고 제안합니다. AST에서의 텐서의 내부 표현은 원칙적으로 백엔드가 원하는 모든 것이 될 수 있으며 컴파일러는 다른 백엔드로 구현 된 다른 연산자의 편의를 위해 데이터를 다른 레이아웃으로 재구성 할 수 있습니다.

저는 누군가가 스파 스 텐서 (sparse tensor)에 대해이를 효율적으로 수행하는 방법에 대해 많은 생각을하고 있다는 것을 모릅니다. 원칙적으로 컴파일러 패스로 희소성을 추론하고 전파 할 수 있습니다. 모든 관련 연산자에 대해 희소하게 구현됩니다. 그런 존재는 오늘날 존재하지 않습니다.

0

스파 스 데이터는 몇 가지 과제가 있지만 작업하고 싶습니다. 예 : 현재 XLA는 모든 버퍼의 정확한 크기를 정적으로 알고 있어야합니다. 우리는 확실히 그 문제를 해결할 방법을 찾을 수 있었지만 지금까지는 조밀 한 데이터에 초점을 맞추어 왔습니다.

관련 문제