fault-tolerance

    0

    2답변

    Apache Helix가 동적 클러스터 확장/축소 (예 : 물리적 노드의 추가/실패/제거)를 허용한다는 것을 알고 있습니다. 그러나 단일 물리적 노드가 단일 파티션 복제본을 처리 할 수없는 경우 분할 영역을 두 개로 분할해야합니다. 워크로드를 미리 예측해야하므로 충분한 수의 파티션을 미리 설정할 수 있다는 것을 알고 있습니다. 그러나 트래픽이 예상치 않게

    1

    1답변

    실용적인 비잔틴 결함 허용을 사용하여 분산 시스템을 구현하고 있습니다. 이 방법은위원회에게 각 커밋에 대해 투표하도록 위임합니다. 그러나 모두 충돌하거나 DDoS 공격을 받으면 전체 네트워크가 고장납니다. 전체위원회를 바꿀 수있는 방법이 있는지 궁금합니다. 뷰 변경은 잘못된 노드 만 대체하기 때문에 뷰 변경과 동일하지는 않습니다. 모든위원회 멤버가 교체되어

    1

    1답변

    클러스터 관리에서 여러 프레젠테이션 (예 : 1, 2, 3)에서 스케줄러의 목표 중 하나는 적은 수의 컴퓨팅 노드에서 단일 작업의 작업을 분산하여 조정 된 실패를 줄이는 것입니다 함께 실패 할 가능성이있다. 왜 단일 작업 내에서 관련된 작업 실패가 바람직하지 않습니까? 내가 올바르게 이해했다면, 모든 작업은 작업이 완료되기 전에 끝내야합니다. 따라서 언뜻보

    0

    1답변

    Azure 호스트 사이트가 2 개 있다고 가정 해 보겠습니다. 하나는 asia (ap.test.com)이고 하나는 유럽 (eu.test.com)이며 Azure Traffic Manager를 통해로드 밸런싱됩니다. 이 기능은 DNS 수준에서 작동하며 사용자는 저의 대기 시간과 같이 저의 아시아 웹 사이트에 직접 연결됩니다. 이제 사용자가 아시아 웹 사이트에

    0

    1답변

    저는 테스트 모듈과 simple_one_for_one 관리자가 있습니다. 내가 명령 test_sup:start_link()에 의해 쉘에서 감독을 시작 -module(test_sup). -behaviour(supervisor). -export([start_link/0]). -export([init/1]). -export([start_child/1])

    0

    1답변

    시간 X에 스트림이 수신되었다고 가정합니다. 내 일괄 처리 시간이 1 분이라고 가정합니다. 이제 집행자가 첫 번째 배치를 처리하고 있습니다. 그러나이 실행은 X + 3까지 3 분이 걸립니다. 그러나 X + 1과 X + 2에서 우리는 다른 두 개의 배치를받습니다. X + 1에서 첫 번째 배치가 손실된다는 의미입니까? 아니면 내 기억에 저장되어 여전히 처리되고

    1

    1답변

    간단한 산술 계산을 수행하려면 다음 코드가 필요합니다. 나는 모니터링 된 교육 세션을 사용하여 내결함성을 구현하려고합니다. import tensorflow as tf global_step_tensor = tf.Variable(10, trainable=False, name='global_step') cluster = tf.train.ClusterSpe

    3

    1답변

    RabbitMQ의 마스터 - 슬레이브 구성이 있습니다. 두 개의 Docker 컨테이너로서 동적 내부 IP (재시작 할 때마다 변경됨). 클러스터링은 깨끗한 실행에 잘 작동하지만 서버 중 하나가 다시 시작되었다 경우는 클러스터에 다시 연결할 수 : rabbitmqctl join_cluster --ram [email protected] Clustering n

    0

    2답변

    예를 들어 동일한 네트워크에 코드/소프트웨어가 동일한 두 대의 서버가 있습니다. 주 서버가 다운되면 두 번째 서버가 기본 서버가되기를 원합니다. 나는 다음과 같은 접근 방식에 대해 들어 : 이 두 앞에 프록시 서버를 (.의 nginx/haproxy/등)을 실행합니다. 실행 CARP - Common Address Redundancy Protocol. Roun

    0

    1답변

    config=None은 어떤 인수를 취합니까 tf.train.MonitoredTrainingSession? 적절한 문법으로 마스터 노드를 지정하려면 어떻게해야합니까 (예 : localhost:2222). 내가 config = 'grpc://localhost:2222'를 사용할 때 아래는 제가 발생하고있는 오류입니다 : - Traceback (most rec