2012-01-22 2 views
2

저는 Berkeley Algorithm을 읽고 머리를 싸려고했습니다.버클리 알고리즘을 이해하는 데 문제가 있습니다.

버클리 알고리즘은 리더가 때때로 다른 모든 프로세스에게 현재 시간을 요청하고, 모든 시간에 평균값을 계산하고, 각 프로세스에 델타 값, 즉 해당 프로세스의 평균값과의 차이.

예를 들어, A, BC 인 리더가 A 인 3 프로세스 시스템을 고려해보십시오.

자, 만약 내가 정확하다면, B의 드리프트 값이 0.001 일 때 (즉, 1000 초마다 999 번 째만 표시 될 것입니다.) 아무런 프로세스도 없기를 바랍니다. 0.1 초 이상 조정이 안된다면 100 초마다 시계의 동기화를 강제해야한다고 말할 수 있습니다. 즉, 내가 사용 발현이 의미

enter image description here

존재 : 나는 다시 시간을 동기화하기 전에 대기 할 수있어 최대 시간 delta_t

  • ;
  • 델타 최대 클럭 오류; ρ 표류 율;
  • , ρ = 드리프트

내 문제는 내 교수의 노트에, 하나 대신에 다음 식을 찾을 수 있다는 것입니다 : 다른 문학 소스에서 찾을 수 있습니다

enter image description here

. 아무도 나를 설명 할 수 2 번째 식에서 2 우리가 왜? 저는 변수가 실제로 제가 가정하고 있다고 확신 할 수 없습니다.

감사

답변

3

(작은 면책 조항 :..? 내가 많이 분산 컴퓨팅을 수행하지 않은 내가 문제를 오해 가능성이 교수를 요구하지 왜)

를 나는 부서가 있다고 생각 두 단계는 여러 프로세스에서 양수 및 음수 드리프트를 설명하는 것입니다.

당신의 최악의 드리프트가 0.001 경우, +0.001 표류하고있다 B을 고려 C-0.001있다. 처음 수식에 따라 delta-t을 선택하면 BC 사이의 시간차는 동기화하기 전에 델타의 두 배가 될 수 있습니다.

관련 문제