2013-08-09 2 views
0

나는로드 밸런싱을 nginx하는 초보자이지만, 문서와 온라인 샘플을 기반으로 설치를하고있다. 설정의 위치 부분으로왜 Nginx로드 밸런싱로드 대역폭을 조정하지 않습니까?

proxy_pass http://test; 

:

upstream test { 
    server FirstServerIP weight=1 max_fails=3 fail_timeout=15s; 
    server SecondServerIP weight=1 max_fails=3 fail_timeout=15s; 
} 

그럼 난에 입력 : 내가 설정 내 업스트림 설정 방법

는 여기에 있습니다. 백엔드 들어 내가 첫 번째 및 두 번째 서버의 포트 80 프록시 "FirstServerIP"8181 포트를 사용하고 있습니다. 내 FirstServerIP의 대역폭 사용량을 확인하고 들어오는 트래픽이 내 SecondServerIP의 세 배이고 나가는 트래픽이 내 SecondServerIP와 같은 것임을 알 때까지 모든 것이 좋습니다 ...

이유를 말해 줄 수 있습니까? 어떻게 고칠 수 있니? 내 SecondServer에서 내 FirstServer로 데이터를 업로드 한 다음 다시 사용자에게 보냈기 때문입니다.

+0

데이터가 내 SecondServer에서 FirstServer로 업로드되고 사용자에게 다시 전송 된 것 같습니다 ._ FirstServer 및 SecondServerIP 구성을 확인해야합니다. 위의 config 스 니펫은 그렇게 할 수 없습니다. – VBart

+0

@VBart 첫 번째 및 두 번째 서버에 요청을 똑같이 프록시하기 위해 세 번째 서버가 필요합니까? 세 번째 서버 대역폭이 첫 번째 및 두 번째 서버가 결합됩니까? – Echiomega

답변

1

구성과 정확히 같은 일을하는 것처럼 들립니다. 첫 번째 서버 IP에서 프록시를 구성 했습니까? 따라서 데이터는 사용자에서 프록시로 이동 한 다음 서버로 이동 한 다음 서버에서 프록시로, 그리고 사용자에게 다시 응답해야합니다.

두 번째 서버가 프록시 (프록시에 대한 출력)를 보는 동안 첫 번째 서버에서 세 가지 흐름 (프록시에서 두 서버의 출력과 두 번째 서버의 입력에서 프록시로)을 보게되므로 3 중입니다. 트래픽이 완벽하게 균등하게 균형을 잡으면 서 첫 번째 서버는 세 개의 흐름을보고 두 번째 서버는 한 번만 보게됩니다.

당신이 그것을 고치는 방법에 관해서는, 당신이 우리에게 말하지 않은, 무엇이 잘못 되었는가, 그리고 무엇을 성취하려고하는지에 달려 있습니다.

+0

다음은 대역폭의 이미지입니다. [link] (http://s18.postimg.org/ikn4ubq6h/image.png) 두 번째 서버 [link] (http://s18.postimg.org/hweabdrgp/image. png) 첫 번째 서버 nginx는 기본적으로 첫 번째 또는 두 번째 서버에 사용자를 보내고 두 번째 서버의 그래프 에서처럼 일반적으로 해당 서버에서 다운로드를 시작한다고 생각했습니다. 또는 부하 균형에 대한 나의 이해가 잘못 되었습니까? 나가는 트래픽이 어떻게 그렇게 높은지 이해할 수 없기 때문에 ... – Echiomega

관련 문제