2013-04-08 3 views
0

많은 최적화 알고리즘에서 나는 목적 함수를 스케일링하기 위해 스케일링 인자를 사용하는 것을 보았습니다. 나는 그 이유가 무엇인지 이해하지 못한다. 왜 최적화 알고리즘에서 목적 함수의 스케일링이 필요한가? 크기 조정없이 작동합니까? 논리적으로는 작동해야하지만 지금은 혼란 스럽습니다. 더 나은 답변을 훨씬 더 (로그 스케일링) 또는 B) 사이의 차이를 보이게) A :최적화 문제에서 목적 함수의 스케일링

나는

+0

당신은 당신이 의미하는 것을 가지고 있습니까? –

답변

0

스케일링은 종종 하나에 최적화 문제에 사용되는 당신이 내 질문에 대답 할 수 있기를 바랍니다 실제로 감사합니다 OK 응답과 약간 더 나은 대답이 더 가깝다 (Quashing functions).

대부분의 알고리즘은 크기 조정되지 않은 목적 함수에서 작동해야하지만 확장 버전에서는 더 잘 작동합니다.

효과를 보려면 두 버전에서 메타 휴리스틱을 실행하는 것이 좋습니다.

+0

Glowwswarm 최적화 알고리즘에는 업데이트 규칙이 있습니다. l (t + 1) = (1-rho) l (t) + ghamma * J (x (t)); 감마는 스케일링 요소입니다. 여기 왜 우리가 스케일링 – Panarit

+0

을 사용해야하는지 이해하지 못합니다. 어떻게하면 더 나은 답변을 훨씬 더 잘 보이게 할 수 있습니까? 이 문제를 명확한 방법으로 설명하는 예제는 찾을 수 없습니다. – Panarit

+0

Addon - 글로우 웜 루시 페린 업데이트 프로세스에서 감마 스케일링은 값을 알고리즘의 허용 범위 내에 유지하는 것입니다. 그렇지 않으면 최대 값을 초과 할 수 있습니다. 예전의 PSO에서는 속도에 대한 최대 레벨이 있습니다. –