markov

    0

    2답변

    I는 마르코프 식의 관점에서의 정보 엔트로피에 대해 생각해했습니다 H = -sum (p (I) LG (P (I)), LG는베이스이고 2 로그 모든 선택의 확률은 같다고 가정합니다. 그러나 주어진 선택 집합의 확률이 다른 경우 예를 들어 StackExchange에 20 개의 사이트가 있으며 사용자가 방문 할 확률 StackOverflow를 제외한 모든 Sta

    0

    1답변

    저는 1 단계 Transition 행렬을 사용하여 DNA 서열을 생성하고 있습니다. 이제 천이 행렬을 1000 단계마다 변경할 확률을 부여해야합니다. 예를 들어 1000 단계마다 전환 행렬이 변경 될 확률은 40 %입니다. 변경 후 모든 행이 1로 증가해야합니다. 이제 파이썬에서 중첩 된 사전 데이터의 값에 액세스하는 방법과 40 % 확률 변경을 구현하는

    3

    1답변

    정책 반복 및 값 반복을 사용하여 할당에 대한 MDP 에이전트를 제안하고 성능을 상태의 유틸리티 값과 비교해야합니다. MDP 에이전트는 전환 가능성 및 보상을 알고 있으므로 이동 작업을 어떻게 알 수 있습니까? 제 생각에 MDP 에이전트는 정책 반복을 수행하고 정책에 따라 종료 상태에 도달하는 동안 얻은 보상을 계산합니다. 이 정책은 값 반복 알고리즘에서

    -2

    1답변

    마코프 체인의 한계를 계산하는 프로그램을 프로그래밍 중입니다. 마르코프 행렬이 발산하는 경우이를 A0과 E가 모두 n * n 행렬이고 D의 모든 원소가 1/n 인 형태로 변환해야합니다. 그러나 입력이 수렴 할 때 그 변환을 적용하면 잘못된 값이 나옵니다. 마르코프 매트릭스가 수렴되는지 쉽게 확인할 수 있습니까?

    -1

    1답변

    주어진 다음의 파라미터 : λ = (A, B, π). {(| 상태 Q [J] t에서 + 1 상태 Q [I] t에서) P} A는 상태 천이 행렬 A = {A [I] [J]} =에게 = B = 관측 행렬 및 π = 초기 분포. 다음 문장이 올 바르니? (λ와 A 사이의 관계를 명시 적으로 만든다) : a [i] [j] = P (t + 1에서의 상태 q [i])

    0

    1답변

    여기서 동등한 의미는 두 경우 모두 분포 (전체 테이블)를 동일하게 만들겠습니까 ???

    0

    1답변

    재미 있기 때문에, 저는 약 75 자 정도의 암호문이있는 오래된 대학 과제와 메시지가 3 자로 된 침대 (이니셜 내가 무슨 짓을했는지 선생님) : 그들에 참여해야하는 사람 또는 침대의 모든 결과를 감친. 그런 다음 (1)의 결과 중 더 작은 하위 집합에 대해 문자 빈도 분석을 시작했습니다. 이제이 작업은 언어 인식 소프트웨어를 작성하는 것으로 귀결되지만,

    1

    1답변

    나는 랜덤 쓰기 프로그램 (텍스트 파일의 형태로 입력을받는)의 구조를 개념적으로 이해하고 Markov 알고리즘을 사용하여 다소 현명한 출력을 생성합니다. 따라서 데이터 구조는 0-10 범위의 사례를 사용합니다. Where at case 0: 숫자를 세면 글자/기호 또는 숫자가 나타나고 입력을 시뮬레이트하기 위해이 새 글의 기초가됩니다. 필자는 이미 입력 텍

    2

    1답변

    Markov 모델을 사용하여 의사 랜덤 텍스트 생성기를 만들고 있습니다. 기본적으로, 나는 해시 테이블을 사용하여 차수 k (마르코프 모델의 순서)의 부분 문자열 목록을 저장 한 다음 각 부분 문자열에 대해 부분 문자열 전체에 해당하는 빈도가있는 접미사의 TreeMap을 갖습니다. 난 임의 접미사를 생성하는 데 어려움을 겪고 있습니다. 각 부분 문자열에 대

    0

    1답변

    마운트 베이커 국립 산림에서 여름 동안의 화재 위험은 세 가지 위험 수준 중 하나로 분류됩니다. 이들은 1 = 낮음, 2 = 중간, 3 = 높음입니다. 이 상태들 사이의 일일 천이 확률은 다음의 흐름도에 의해 주어진다 : (a) 화재 위험 확률을 다음 날까지 투영하기 위해 매트릭스 형태로 모델을 작성한다. 이미지 : http://i.stack.imgur.c