ram

    -1

    2답변

    나는 꽤 오랫동안 앱을 연구 해왔다.하지만 처음으로 장치에서 시작하는 것 같다. (최초의, 즉) lags-a-lot. 그러나 두 번째로 버터처럼 부드럽습니다. 첫 번째 세션이 끝나면 시스템이 RAM 할당을 조정하기 때문에 이것이 의심 스럽습니다. 내 응용 프로그램에 할당 할 RAM의 양을 결정하는 것은 무엇이든 무시할 수 있을지 궁금합니다. 상당히 실망스럽

    0

    1답변

    얘들 아 태블릿에서 작동하는 애플리케이션이 있습니다. 스마트 하우스 애플리케이션입니다. 태블릿에서 애플리케이션이 아닌 다른 애플리케이션을 사용하는 것을 금지하고 싶기 때문에 태블릿을 루트합니다. 애플리케이션은 다음과 같습니다. 태블릿이 켜져있을 때 항상 화면에 항상 눈에 보이고 작동합니다.하지만 문제가 있습니다. 약 1 일 동안 태블릿이 붕괴되는 경우가 있

    0

    3답변

    VHDL에 2 차원 블록 램을 추측하려고합니다. 그러나 정교한 회로는 레지스터와 MUX의 회로로 밝혀졌습니다. 램에 관한 코드의 주요 파일은 다음과 같습니다 사용하는 정수를 포함한 library ieee; use ieee.std_logic_1164.all; use ieee.numeric_std.all; use work.shared_resources.a

    -3

    1답변

    어제 저는 안드로이드로 3 MB보다 큰 * .txt 파일을 열려고했습니다. 왜 안드로이드는 그것을 열 수 없습니까? 이전에는 동일한 RAM 용량과 프로세서 속도로 Windows에서 해당 파일을 열려고했습니다. 파일을 여는 데 필요한 Android와 PC의 차이점은 무엇입니까?

    6

    1답변

    새 개체 목록을 만들기 위해 여러 프로세스를 시작합니다. htop은 1 ~ 4 개의 프로세스를 보여줍니다 (항상 3 개의 새 오브젝트를 생성합니다). 훨씬 아래로 둔화 def foo(self): with multiprocessing.Pool(processes=3, maxtasksperchild=10) as pool: result = po

    -1

    1답변

    을 VHDL로 작성하십시오. 모든 코드 라인은 컴퓨터이므로 병렬 방식으로 실행됩니다. RAM 블록에서 출력으로 특정 레지스터를 읽는이 RAM을 만들고 '이후'만 동일한 레지스터에 입력을 쓰고 싶습니다. 내 코드는 다음과 같이 진행됩니다이 architecture Behavioral of RAM is type ram_t is array (0 to numOf

    1

    1답변

    큰 데이터 세트의 RAM 문제를 피하기 위해 Python 3.4에서 DASK 패키지를 사용하려고하는데 문제가 있음을 알았습니다. 기본 기능 "read_csv"를 사용하면 150MB 미만의 RAM을 사용하여 dask 데이터 프레임에 큰 데이터 세트를로드합니다. PANDAS DB 연결 (제한 및 오프셋 옵션 사용) 및 dunge fuction "from_pan

    1

    1답변

    내가 파이썬에서이 명령을 실행하려는 를 사용하는 경우 파일을 램을 작성합니다. 입력 및 출력 파일에 RAM을 어떻게 사용합니까? 파일 경로를 제공하는 StringIO과 같은 것이 있습니까? 내가 거기에 파이썬 고스트 스크립트 라이브러리입니다,하지만 당신은 고스트 데모 코드를 사용하여 입력 및 출력 파일에 대한 RAM을 사용할 수 없습니다

    -1

    1답변

    이것은 이전 질문 인 Setting the maximum usbfs memory limit does NOT take effect을 따릅니다. Point Grey 카메라 드라이버를 성공적으로 설치 한 후 카메라 (Pg CM3) 전체 용량을 사용하는 데 큰 어려움을 겪고 있습니다. 카메라가 150Hz에서 스트리밍을 할 수는 있지만 (우분투 (16 또는 14)에

    1

    1답변

    저는 gzipped 된 매우 큰 CSV 파일을 읽기 위해 팬더를 사용합니다. 약 30-50GB의 csv 파일에 압축을 풉니 다. 파일을 청크 처리하고 조작합니다. 마지막으로 내가 뭔가 잘 작동하지만 하루에 하나 개의 파일을 처리해야하고 이 구매 수있는 데이터의 가치가 몇 년 (600TB 압축 CSV)을 갖고 있기 때문에 느린 을 압축 HDF5 파일에 관련