마르코프 체인

Markov chain
두 상태 마르코프 프로세스를 나타내는 다이어그램으로, 주가 E 및 A로 표시되어 있다.각 숫자는 마르코프 프로세스가 한 상태에서 다른 상태로 변경될 확률을 나타내며 화살표로 방향을 표시한다.예를 들어 마르코프 프로세스가 상태 A에 있는 경우 상태 E로 변경될 확률은 0.4인 반면 상태 A에 남아 있을 확률은 0.6이다.

마르코프 체인 또는 마르코프 프로세스는 각 사건의 확률이 이전 사건에서 획득한 상태에만 의존하는 가능한 사건의 순서를 설명하는 확률적 모델이다.[1][2][3]체인이 개별 시간 단계에서 상태를 이동하는 카운트할 수 있는 무한 시퀀스는 이산 시간 마코프 체인(DTMC)을 제공한다.연속 시간 프로세스는 연속 시간 마코프 체인(CTMC)이라고 불린다.러시아의 수학자 안드레이 마르코프의 이름을 따서 지은 것이다.

마르코프 체인은 자동차크루즈 컨트롤 시스템 연구, 공항에 도착하는 대기열 또는 줄의 고객 연구,[1][4][5][6] 환율 및 동물 인구 역학 등 실제 프로세스의 통계적 모델로서 많은 응용 프로그램을 가지고 있다.[7]

마르코프 공정은 복잡한 확률분포에서 추출한 표본을 시뮬레이션하는 데 사용되는 마르코프 체인 몬테카를로라고 알려진 일반적인 확률적 시뮬레이션 방법의 기초로서 베이시안 통계, 열역학, 통계역학, 물리학, 화학, 경제, 금융, 신호처리, 정보에서 응용을 찾아냈다.어리언어 [7][8][9]처리

형용사 마르코비안과 마르코프는 마르코프 과정과 관련된 것을 묘사할 때 사용된다.[1][10][11]

소개

러시아의 수학자 안드레이 마르코프

정의

마르코프 과정은 마르코프 속성[1](때로는 "메모리 없는 상태"로 특징지어짐)을 만족시키는 확률적인 과정이다.간단히 말해서, 그것은 단지 현재 상태에 기초하여 미래 결과에 대해 예측이 이루어질 수 있는 과정이며, 가장 중요한 것은 그러한 예측이 프로세스의 전체 이력을 알면서 이루어질 수 있는 예측과 같다.[12]즉, 제도의 현재 상태, 그것의 미래, 과거의 상태를 조건으로 하여 독립적이다.

마르코프 체인은 마르코프 프로세스의 일종으로, 분리된 상태 공간이나 이산 인덱스 세트(흔히 시간을 나타냄)[13]를 가지고 있지만, 마르코프 체인의 정확한 정의는 다양하다.예를 들어 그것은 가산 명사의 상태 공간(따라서 관계 없이 시간의 본질에)[14][15][16][17]을 별개 또는 연속적인 시간에 마르코프 과정은 마르코프 연쇄를 정의하라 또는 연속 계수 상태 공간(따라서 관계 없이 상태 공간의)에 분산적인 시간을 보내고는 마르코프 연쇄를 정의하는 것은 흔한 일 흔하다.[13]

마르코프 체인의 종류

시스템의 상태 공간 및 시간 매개변수 지수를 지정해야 한다.다음 표에는 다양한 수준의 상태 공간 일반성과 이산 시간 v. 연속 시간에 대한 마르코프 프로세스의 여러 인스턴스(instance)에 대한 개요가 나와 있다.

카운트 가능한 상태 공간 연속 또는 일반 상태 공간
이산 시간 (구체-시간) 카운트 가능 또는 유한 상태 공간의 마르코프 체인 측정 가능한 상태 공간의 마르코프 체인(예: 해리스 체인)
연속시간 연속 시간 Markov 프로세스 또는 Markov 점프 프로세스 마르코프 속성을 가진 모든 연속 확률적 프로세스(예: Wiener 프로세스)

마르코프 프로세스의 특수한 경우를 나타내는 일부 용어의 사용에 대한 문헌에는 명확한 합의가 없다는 점에 유의한다.일반적으로 "마코프 체인"이라는 용어는 이산 시간 마코프 체인(DTMC)이라는 시간을 가진 공정을 위해 예약되어 있지만,[1][18] 소수의 저자는 명시적인 언급 없이 연속 시간 마코프 체인(CTMC)을 지칭하기 위해 "마코프 프로세스"라는 용어를 사용한다.[19][20][21]또한 마르코프 프로세스에는 이와 같이 언급되지만 반드시 이 네 가지 범주 중 어느 하나에 속하지는 않는 다른 확장도 있다(마코프 모델 참조).게다가, 시간 지수를 반드시 실제 가치로 평가할 필요는 없다; 주 공간과 마찬가지로, 다른 수학 구조와 함께 인덱스 세트를 통해 이동하는 상상할 수 있는 과정들이 있다.일반 주 공간 연속 시간 마코프 체인은 지정된 용어가 없을 정도로 일반적이라는 점에 유의하십시오.

시간 매개변수는 보통 이산형이지만, 마르코프 체인의 상태 공간에는 일반적으로 합의된 제한이 없다. 이 용어는 임의의 상태 공간에 대한 과정을 나타낼 수 있다.[22]그러나 마르코프 체인의 많은 애플리케이션은 유한하거나 헤아릴 수 없을 정도로 무한한 상태 공간을 채용하고 있는데, 이것은 통계 분석이 더 간단하다.시간 인덱스 및 상태 공간 매개변수 외에도 많은 다른 변형, 확장 및 일반화가 있다(변형 참조).간단히 말해서, 이 글의 대부분은 별개의 시간, 별개의 주-공간 사례에 초점을 맞추고 있다.

전환

시스템의 상태 변화를 전환이라고 한다.[1]다양한 상태 변화와 관련된 확률을 전환 확률이라고 한다.프로세스는 상태 공간, 특정 전환의 확률을 설명하는 전환 매트릭스 및 상태 공간에 걸친 초기 상태(또는 초기 분포)로 특징지어진다.관례에 따라 가능한 모든 상태와 전환이 프로세스의 정의에 포함되었기 때문에 항상 다음 상태가 존재하며 프로세스가 종료되지 않는다고 가정한다.

이산 시간 무작위 프로세스는 각 단계에서 특정 상태에 있는 시스템을 포함하며, 단계 간에 상태가 무작위로 변경된다.[1]이 단계는 흔히 시간의 순간으로 생각되지만, 물리적 거리나 다른 이산적 측정을 똑같이 잘 나타낼 수 있다.형식적으로 단계는 정수 또는 자연수이며, 무작위 과정은 이들을 상태에 매핑하는 것이다.[23]마르코프 속성은 다음 단계(사실상 모든 미래 단계)에서 시스템에 대한 조건부 확률 분포는 시스템의 현재 상태에 따라서만 달라지며, 이전 단계에서는 시스템 상태에 추가로 의존하지 않는다고 명시하고 있다.

시스템이 무작위로 변화하기 때문에, 일반적으로 미래의 특정 시점에서 마르코프 체인의 상태를 확실하게 예측하는 것은 불가능하다.[23]그러나 시스템 미래의 통계적 특성을 예측할 수 있다.[23]많은 응용 프로그램에서 중요한 것은 이러한 통계적 속성이다.

역사

마르코프는 1906년 이 주제에 대한 첫 논문을 발표하면서 20세기 초 마르코프 과정을 연구했다.[24][25][26][27]연속 시간의 마르코프 과정은 20세기[1]안드레이 마르코프가 작업하기 훨씬 전에 포아송 공정의 형태로 발견되었다.[28][29][30]마르코프는 많은 수의 약한 법칙이 유지되기 위해서는 독립이 필요하다고 주장한 파벨 네크라소프와의 의견 불일치로 인해 독립적인 무작위 시퀀스의 확장을 연구하는데 관심이 있었다.[1][31]마르코프 체인에 그의 첫번째 종이, 1906년에 발표된 논문에서 마르코프가 특정 조건에서 마르코프 연쇄의 평균 결과 값의 고정된 벡터, 그러니까 흔히 이러한 수학적 la.에 대한 요건으로 여겨져 왔던 독립 assumption,[1][25][26][27]없이 큰 수의 약한 법이라고 증명되고 융합하는 것으로 나타났다그를 열 계획입니다.[27]마르코프는 이후 마르코프 체인을 이용해 알렉산더 푸시킨이유진 오네긴의 모음 분포를 연구했고, 그러한 체인에 대한 중심적 한계 정리를 증명했다.[1][25]

1912년 앙리 푸앵카레는 카드 섞기를 연구하기 위한 목적으로 유한한 그룹의 마르코프 체인을 연구했다.마르코프 체인의 다른 초기 사용으로는 1907년 바울타티아나 에렌페스트가 도입한 확산 모델과 마르코프의 작업에 앞서 1873년 프랜시스 갈튼헨리 윌리엄 왓슨이 도입한 분기 과정이 있다.[25][26]갈튼과 왓슨의 작업 후, 그들의 분기 과정이 약 30년 전에 이리네-줄스 비에나이메에 의해 독자적으로 발견되고 연구되었다는 것이 나중에 밝혀졌다.[32]1928년부터 모리스 프레셰트는 마르코프 체인에 관심을 갖게 되었고, 결국 1938년에 마르코프 체인에 대한 상세한 연구를 출판하게 되었다.[25][33]

안드레이 콜모고로프는 1931년 논문에서 연속시간 마르코프 과정의 초기 이론의 상당 부분을 발전시켰다.[34][35]콜모고로프는 1900년 루이스 바첼리에의 주식시장 변동에 관한 연구뿐만 아니라 노르베르트 비에너가 아인슈타인의 브라운 운동 모델에 관한 연구에서도 부분적으로 영감을 받았다.[34][36]그는 확산 과정으로 알려진 마르코프 과정의 특정 집합을 소개하고 연구했는데, 여기서 그는 그 과정을 설명하는 일련의 미분 방정식을 도출했다.[34][37]콜모고로프의 연구와는 별개로, 시드니 채프먼은 1928년 논문에서 브라운 운동을 연구하면서 콜모고로프보다 수학적으로 덜 엄격한 방법으로 현재 채프만-콜모고로프 방정식이라고 불리는 방정식을 도출했다.[38]미분 방정식은 현재 콜모고로프 방정식[39] 또는 콜모고로프-차프만 방정식이라고 불린다.[40]마르코프 과정의 기초에 크게 기여한 다른 수학자들로는 1930년대부터 윌리엄 펠러(William Feller), 1950년대부터는 유진 딘킨(Eugene Dynkin)이 있다.[35]

정수를 바탕으로 한 무작위 산책과 도박꾼의 파멸 문제가 마르코프 과정의 예다.[41][42]이러한 프로세스의 일부 변동은 독립 변수의 맥락에서 수백 년 전에 연구되었다.[43][44][45]마르코프 과정의 두 가지 중요한 예는 브라운 운동 과정이라고도 알려진 위너 과정포아송 과정으로,[28] 확률적 과정 이론에서 가장 중요하고 중심적인 확률적 과정으로 간주된다.[46][47][48]이 두 과정은 연속 시간에 마르코프 과정인 반면, 정수를 무작위로 걷는 것과 도박사의 파멸 문제는 이산 시간에 마르코프 과정의 예다.[41][42]

유명한 마르코프 체인은 소위 "드렁커드의 걸음"으로, 각 단계에서 위치가 동일한 확률로 +1 또는 -1만큼 변할 수 있는 숫자 라인에서의 무작위 걷기이다.어떤 위치에서든 다음 또는 이전 정수로의 두 가지 전환이 가능하다.전환 확률은 현재 위치에 도달한 방식에 따라 달라지지 않는다.예를 들어, 5에서 4까지의 경과 확률과 5에서 6까지의 경과 확률은 모두 0.5이며, 5에서 오는 다른 경과 확률은 모두 0이다.이러한 확률은 시스템이 이전에 4 또는 6에 있었는지와 무관하다.

또 다른 예는 포도, 치즈, 상추만 먹고 식습관이 다음과 같은 규칙에 부합하는 생물의 식습관이다.

Markov-cheese-lettuce-grapes.svg
  • 하루에 딱 한 번 먹는다.
  • 만약 오늘 치즈를 먹었다면 내일은 상추나 포도를 같은 확률로 먹을 것이다.
  • 오늘 포도를 먹었다면 내일은 확률 1/10의 포도, 확률 4/10의 치즈, 확률 5/10의 상추를 먹는다.
  • 오늘 상추를 먹었다면 내일은 포도를 4/10 확률로 먹거나 치즈를 6/10 확률로 먹는다.그것은 내일 상추를 다시 먹지 않을 것이다.

이 생물의 식습관은 마르코프 사슬로 모형화할 수 있다. 왜냐하면 내일의 선택은 어제나 과거에 무엇을 먹었는가가 아니라 오늘 무엇을 먹었느냐에 달려 있기 때문이다.계산될 수 있는 한 가지 통계적 속성은 장기간에 걸쳐 그 생물이 포도를 먹는 날의 예상 백분율이다.

일련의 독립적인 사건(예: 일련의 동전 던지기)은 마르코프 체인의 공식 정의를 충족한다.그러나 이 이론은 보통 다음 단계의 확률 분포가 현 상태에 비독점적으로 의존하는 경우에만 적용된다.

비 마르코프 예제

5/4(각각 25㎝), 5데임(각각 10㎝), 5니켈(각각 5㎝)이 들어 있는 동전 지갑이 있고, 하나둘씩 지갑에서 동전을 무작위로 뽑아 탁자 위에 놓아둔다고 가정해 보자. 이(가) n 후 테이블에 설정된 코인의 총 값을 X = 0 으로 나타낸다면 { : {mathb.

왜 이런지를 알기 위해서, 첫 6무에서 5 니켈과 4분의 1을 모두 그렸다고 가정해보자.Thus . If we know not just , but the earlier values as well, then we can determine which coins have been drawn, and we know that the next coin will not be a nickel; so we can determine that with probab일성 1.그러나 만약 우리가 이전의 값을 알지 못한다면, 6{\}의 값만을 기초로 해서, 우리는 4디임과 2 니켈을 그렸을 것이라고 추측할 수 있을 것이다. 그 경우 다음에 또 다른 니켈을 그리는 것은 분명히 가능할 것이다.따라서, 7{\에 대한 우리의 추측은 X 이전의 값에 대한 지식의 영향을 받는다

그러나 이 시나리오를 마르코프 과정으로 모델링하는 것은 가능하다. 를 정의하여 표에 있는 코인의 총값을 나타내는 대신, 표에 있는 다양한 코인 유형의 카운트를 나타내는 {\X_{을 정의할 수 있었다.예를 들어 = , 5 을(를) 정의하여 6개의 1:1 추첨 후 테이블 위에 1/4, 0데임, 5 니켈이 있는 상태를 나타낼 수 있다.이 새로운 모델은 216개의 가능한 상태(즉, 6x6x6 상태, 각 3개의 동전 유형은 6무승부가 끝날 때까지 테이블 위에 0-5개의 동전을 가질 수 있기 때문에 6x6x6 상태)로 표현될 것이다.처음 추첨을 통해 상태 1= , 이(가) 발생한다고 가정합시다 2{\를 달성할 1{\1}에 달려 있다 예를 들어 X =, 0 {\}은는) 사용할 수 있다.두 번째 추첨 후, 세 번째 추첨은 지금까지 어떤 동전을 추첨했는가에 따라 결정되지만, 더 이상 첫 번째 주를 위해 추첨한 동전에만 국한되지 않는다(확률적으로 중요한 정보가 그 이후 시나리오에 추가되었기 때문이다).이러한 방식으로 = k }=,j,k 상태의 가능성은 X - 1= p el 상태의 결과에 전적으로 의존한다.

형식 정의

이산 시간 마르코프 체인

이산 시간 마코프 체인은 마르코프 속성을 가진 일련의 랜덤 변수 X1, X2, X3, ... 즉, 다음 상태로 이동할 확률은 현재 상태에만 의존하고 이전 상태는 그렇지 않다는 것이다.

if both conditional probabilities are well defined, that is, if

Xi 가능한 값은 체인의 상태 공간이라고 불리는 카운트 가능한 집합 S를 형성한다.

변형

  • 시간균형 마르코프 체인은 다음과 같은 프로세스다.
    …의 전부로서전환 가능성은 n과 무관하다.
  • 고정 마코프 체인은 다음과 같은 과정을 말한다.
    nk에 대해모든 고정 사슬은 베이지스의 통치에 의해 시간 동종이라는 것이 증명될 수 있다.
    시간균형 마르코프 체인이 정지하기 위해 필요하고 충분한 조건은 스타일 의 분포가 마르코프 체인의 정지된 분포라는 것이다.
  • m이 유한한 경우 메모리를 가진 마르코프 체인(또는 순서 m의 마르코프 체인)은 만족스러운 과정이다.
    즉, 미래 상태는 과거 m 상태에 따라 달라진다.It is possible to construct a chain from which has the 'classical' Markov property by taking as state space the ordered m-tuples of X values, i.e., .

연속시간 마르코프 체인

연속 시간 마코프 체인(Xt)t ≥ 0은 유한 또는 계수 가능한 상태 공간 S, 상태 공간에 정의된 상태 공간 및 초기 확률 분포와 동일한 치수를 갖는 전환율 매트릭스 Q에 의해 정의된다.ij의 경우 원소 qij 음이 아니며 상태 i에서 상태 j로 프로세스 전환 속도를 설명한다.요소 qii (구체적인) 마르코프 체인의 확률 전이 행렬의 행 합이 0인 반면, 전환율 매트릭스의 각 행 합계는 0이 되도록 선택된다.

그 과정에는 세 가지 동등한 정의가 있다.[49]

최소 정의

연속 시간 Markov 체인은 상태 i와 j 사이의 전환 확률의 시간에 관한 파생상품인 전환율로 특징지어진다.

를 시간 t의 공정 상태를 설명하는 랜덤 변수로 하고, 공정이 시간 t의 상태 i에 있다고 가정한다.그러면 = i t+ h= 을(를) 아는 것은 이전 값: < ) , 모든 j대해 h → 0으로 독립적이다.

여기서 little-o 표기법을 사용하는 크로네커 델타다. i에서 j로의 전환이 얼마나 빨리 일어나는지를 측정하는 것으로 볼 수 있다.

점프 체인/홀딩 시간 정의

프로세스의 n번째 점프를 설명하기 위한 이산형 시간 Markov 체인 Yn 정의하고, Si 속도 매개변수 -q로YiYi 지수 분포를 따르는 각 주에서의 홀딩 시간을 설명하기 위해 변수1 S, S2, S, S3 정의한다.

전환 확률 정의

n = 0, 1, 2, 3, ... 및 n: t0, t1, t, ...의 까지2 인덱스된 모든 에 대해, 이 시간에 기록된 모든 상태 i0, i2, i1, i3, i, ...는 이 값을 유지한다.

여기서 pij 전방 방정식의 해법이다(1차 미분 방정식)

초기 조건 P(0)는 ID 행렬이다.

유한 상태 공간

상태 공간이 유한한 경우, P의 (i, j)번째 요소가 다음과 같은 값을 갖는 전환 매트릭스라고 하는 행렬로 전환 확률 분포를 나타낼 수 있다.

P의 각 행은 1이고 모든 원소는 음이 아니기 때문에 P오른쪽 확률적 행렬이다.

고유 벡터 및 단순화에 대한 고정 분포 관계

고정 분포 π은 (행) 벡터로서, 입력은 음이 아니고 합이 1인 경우, 그 위에 있는 전환 행렬 P의 작동에 의해 변경되지 않으며, 따라서 다음과 같이 정의된다.

이 정의를 고유 벡터의 정의와 비교함으로써 우리는 두 개념들이 연관되어 있고, 또 그 두 개념들이 연관되어 있음을 알 수 있다.

고유값이 1인 변환 매트릭스 P의 왼쪽 고유 벡터 e의 배수인 정규화 = 1 이다.장치 고유 벡터가 둘 이상일 경우 해당 정지 상태의 가중 합도 정지 상태가 된다.그러나 마르코프 체인의 경우 일반적으로 일부 초기 분포에 대한 분포 순서의 한계인 정지 상태에 더 관심이 있다.

고정 분포 값 P의 상태 공간과 연관되며, 고유 벡터의 상대적 비율은 보존된다.π의 성분은 양성이며 그 합이 통일이라는 제약조건은 i = 로 다시 쓸 수 있기 때문에 we의 점 산물은 모두 1이 통일이고 is은 심플렉스 위에 놓여 있음을 알 수 있다.

유한 상태 공간의 시간균형 마르코프 체인

마르코프 체인이 시간 동종인 경우, 전환 매트릭스 P는 각 단계 후에 동일하므로, k-step 전환 확률은 전환 매트릭스k P의 k번째 전력으로 계산할 수 있다.

마코프 체인이 회복불능이고 주기적인 경우, 독특한 고정 분포 π이 있다.[50]또한 이 경우 Pk 각 행이 고정된 분포인 순위 1 행렬로 수렴된다. π:

여기서 1은 모든 항목이 1인 열 벡터다.이것은 페론-프로베니우스 정리에 의해 명시된다.어떤 방법으로든 림 }\^{이 발견되면, 아래에서 설명하듯이 어떤 시작 분포에 대해서도 해당 마르코프 체인의 고정 분포를 쉽게 결정할 수 있다.

일부 확률론적 매트릭스 의 경우 다음과 같이 고정 분포가 존재하는 동안에는 림 k 가 존재하지 않는다.

(이 예는 주기적인 마르코프 체인을 예시한다.)

고려해야 할 여러 가지 특수한 경우가 있기 때문에, 이 한도가 존재한다면 찾아내는 과정이 긴 과제가 될 수 있다.하지만, 이 한계를 찾는 데 도움이 될 수 있는 많은 기술들이 있다.Pn×n 행렬로 하고 = k . 를 정의한다.

는 것은 언제나 사실이다.

양쪽에서 Q를 빼서 인수 후 수율 계산

여기서 n n 크기아이덴티티 매트릭스, 0n,n n×n 크기의 제로 매트릭스다.확률 매트릭스를 함께 곱하면 항상 또 다른 확률 매트릭스가 생성되므로 Q확률 매트릭스여야 한다(위의 정의 참조).위 행렬 방정식과 QQ에 대해 해결하기 위한 확률적 행렬이라는 사실을 사용하는 것이 때로는 충분하다.P의 각 행의 합이 1이라는 사실을 포함하면 n+1의 미지수를 결정하는 방정식이 있기 때문에, 한편으로 Q의 한 행을 선택하고 그 원소를 각각 한 행씩 대체하면, 다른 한편으로 벡터 0의 해당 원소(동일한 열에 있는 한 행)를 대체하고, 다음 le를 대체하면 계산적으로 더 쉽다.ft-이 후자의 벡터를 Q를 찾기 위해 변환된 전 행렬의 역행렬로 곱한다.

이를 위한 한 가지 방법이 있다. 첫째, 매트릭스 A를 가장 오른쪽 열로 1의 모든 열로 교체하여 반환하는 함수 f(A)를 정의한다.[f(Pn - I)]−1가 있으면[51][50]

설명:원래의 행렬 방정식은 n×n 변수에 있는 n×n 선형 방정식의 체계와 동등하다.그리고 Q가 각 행의 합계가 1인 우 확률적 행렬이라는 사실로부터 더 많은 선형 방정식이 있다.그래서 그것은 n×n 변수에 대해 해결하기 위해 (n×n+n) 방정식의 어떤 n×n 독립적 선형 방정식이 필요하다.이 예에서 "Q에 (P-In)의 맨 오른쪽 열을 곱한 값"의 n 방정식은 확률적인 값으로 대체되었다.

한 가지 주목해야 할 것은 P의 주 대각선 상에 1과 같은 요소i,i P가 있고 ih 행이나 열이 그렇지 않으면 0으로 채워진다면, 그 행이나 열은 이후의 모든 힘 P에서k 변하지 않게 된다는 것이다.따라서 Ith 행 또는 Q의 열은 1과 0이 P와 같은 위치에 있게 된다.

고정된 분배에 대한 수렴 속도

앞에서 설명한 것처럼 방정식 = P, (존재할 경우) 정지(또는 안정 상태) 분포 π은 행 확률행렬 P의 왼쪽 고유 벡터다.그런 다음 P가 대각선적으로 또는 동등하게 Pn개의 선형 독립 고유 벡터를 가지고 있다고 가정하면, 수렴 속도는 다음과 같이 상세하게 설명된다.(비대각선화, 즉 결함이 있는 행렬의 경우, 요르단 정상 형태의 P로 시작하여 유사한 방식으로 약간 더 관련된 주장을 진행할 수 있다.[52]

U를 고유 벡터의 행렬로 하고(각각 L2 규범이 1과 동일한 것으로 정규화) 각 P의 왼쪽 고유 벡터, 즉 matrix = diag((, diag, λ12, λ3, λn, ...)의 왼쪽 고유값의 대각 행렬로 한다.그리고 나서 에겐데 콤포메이션으로

다음과 같이 고유값을 열거하도록 한다.

P는 행 확률적 행렬이므로 가장 큰 왼쪽 고유값은 1이다.고유한 고정 분포가 있는 경우 가장 큰 고유값과 해당 고유 벡터도 고유하다(위의 고정 분포 방정식을 해결하는 다른 π이 없기 때문이다).Ui 행렬의 i번째 열, 즉 ui λ에i 해당하는 P의 왼쪽 고유 벡터다.또한 x는 유효한 확률 분포를 나타내는 길이 n 행 벡터가 되도록 한다. 고유 벡터 ui 우리는 쓸 수 있다.

x에 오른쪽에서 P를 곱하고 이 수술을 계속하면 결국 정지 분포 distribution을 얻게 된다., = = uixPP...P = xPk as k → ∞.그 말은

π = u이므로1 π(k) λ2/λ1 순서로 exponentially에 k → speed으로 접근한다.이것은 ⋯ n n , 따라서 λ2/λ1 지배적인 용어이기 때문이다.비율이 작을수록 수렴 속도가 빠르다.[53]상태 분포의 무작위 노이즈 π도 정지 분포로의 수렴 속도를 높일 수 있다.[54]

일반 상태 공간

해리스 체인

주 공간이 유한한 마르코프 체인에 대한 많은 결과는 해리스 체인을 통해 헤아릴 수 없는 주 공간을 가진 체인으로 일반화될 수 있다.

마르코프 체인 몬테 카를로 방법에서 마르코프 체인의 사용은 프로세스가 연속적인 상태 공간을 따르는 경우를 다룬다.

로컬로 상호 작용하는 마르코프 체인

진화가 다른 마르코프 체인의 상태를 고려하는 마르코프 체인의 컬렉션을 고려한다면, 마르코프 체인은 현지에서 상호 작용하는 개념과 관련이 있다.이는 주 공간에 (카르테시안-) 제품 형태가 있는 상황에 해당한다.상호작용하는 입자 시스템확률적 세포 자동자(확률적 세포 자동자)를 참조하십시오.Markov 프로세스[55] 상호 작용에 대한 예제를 참조하십시오[56].

특성.

두 상태는 양쪽 모두 긍정적인 확률을 가진 일련의 전환에 의해 서로 도달할 수 있는 경우 서로 의사소통한다.이것은 통신 클래스의 집합을 산출하는 동등성 관계다.수업에서 빠질 확률이 0이면 휴강한다.마르코프 체인은 의사소통하는 하나의 계급, 즉 주의 공간이 있다면 되돌릴 수 없다.

(가) i에서 시작하여 도달할 수 있는 전환 수에 대한 가장 큰 공통점인 경우 상태 i는 마침표 k을(를) 가진다.즉,

상태 ii에서 시작하여 체인이 결코 i로 되돌아오지 않을 가능성이 0이 아닌 경우 일시적이라고 한다.그렇지 않으면 재발한다.반복 상태 i의 경우 평균 타격 시간은 다음과 같이 정의된다.

State 유한한 경우 양의 반복이고, 그렇지 않은 경우 null이 반복된다.주기성, 과도성, 재발 및 양수 및 무효 재발은 클래스 속성이다. 즉, 한 국가가 속성을 가지고 있다면 통신 클래스의 모든 주가 속성을 가지고 있다.

상태 i는 상태로부터 나가는 전환이 없을 경우 흡수라고 불린다.

에고다이시티

만약 그것이 주기적이고 긍정적인 재발이라면, 1세에르고딕적이라고 한다.즉, 상태 i가 재발하면 에르고딕적이며, 기간이 1이며, 평균 재발 시간이 유한하다.만약 돌이킬 수 없는 마르코프 체인의 모든 상태가 에고딕이라면, 그 체인은 에고딕이라고 한다.[dubious ]

유한상태의 불가침 마르코프 체인은 주기적인 상태를 가지고 있다면 에고다이컬임을 알 수 있다.보다 일반적으로 마르코프 체인은 숫자 N보다 작거나 같은 수의 스텝에서 다른 상태로부터 어떤 상태에 도달할 수 있는 숫자 N이 있는 경우 에르고딕적이다.완전히 연결된 전환 매트릭스의 경우, 모든 전환이 0이 아닌 확률을 갖는 경우, 조건은 N = 1로 충족된다.

둘 이상의 주와 한 주 당 하나의 진행 중인 전환만이 있는 마르코프 체인은 되돌릴 수 없거나 주기적이지 않기 때문에 에고딕적일 수 없다.

마르코비아의 표현

어떤 경우에는 겉으로 보기에 마코비아가 아닌 과정들이 '현재'와 '미래' 상태의 개념을 확장하여 구성한 마코비안적 표현을 여전히 가지고 있을 수도 있다.예를 들어 X를 마르코비안이 아닌 프로세스로 하자.그런 다음 각 Y 상태가 X 상태의 시간 간격을 나타내도록 프로세스 Y를 정의하십시오.수학적으로 이것은 다음과 같은 형태를 취한다.

Y가 마코프 속성을 가지고 있다면 X의 마코브 표현이다.

마르코비안 표현을 사용하는 비 마코비안 공정의 예로는 1보다 큰 순서의 자기 회귀 시간 시리즈가 있다.[57]

히트 타임즈

타격 시간은 체인이 주어진 상태 또는 일련의 상태에 도착할 때까지 주어진 상태 집합에서 시작하는 시간이다.그러한 기간의 분포는 위상 유형 분포를 가진다.그러한 가장 간단한 분포는 단일 지수 분포 전환의 분포다.

예상 적중 시간

상태 AS의 하위 집합에 대해, 타격 시간의 벡터A k(서 요소 k {\}^{A는 체인이 세트 A의 상태 중 하나로 들어가는 상태 i에서 시작하는 기대값을 나타냄)에[58] 대한 최소 비음극 솔루션이다.

시간역전

CTMC Xt 경우 시간역전 프로세스는 t= - 정의된다 켈리의 보조정리에서는 이 과정이 전진과정과 동일한 정지분포를 갖는다.

체인은 역전 과정이 전진 과정과 동일하면 되돌릴 수 있다고 한다.Kolmogorov의 기준은 공정이 되돌릴 수 있는 필요조건과 충분한 조건은 폐쇄 루프 주위의 전환율 산물이 양방향에서 동일해야 한다는 것이다.

임베디드 마르코프 체인

에고다이컬 연속시간 마코프 체인 Q고정 확률 분포π을 찾는 한 가지 방법은 우선 내장된 마코프 체인(EMC)을 찾는 것이다.엄밀히 말하면 EMC는 정기적인 이산 시간 마코프 체인으로, 때로는 점프 프로세스라고도 한다.EMC, S의 1단계 전환 확률 매트릭스의 각 요소ij s로 표시되며 상태 i에서 상태 j로 전환하는 조건부 확률을 나타낸다.이 조건부 확률은 다음을 통해 찾을 수 있다.

이로부터 S는 다음과 같이 쓰일 수 있다.

여기서 I아이덴티티 매트릭스이고 diag(Q)는 매트릭스 Q에서 주 대각선을 선택하고 다른 모든 원소를 0으로 설정하여 형성된 대각 행렬이다.

고정 확률 분포 벡터를 찾으려면 다음에 다음과 같은 {\을(를) 찾아야 한다.

모든 요소가 0보다 크고 = 1. 여기서 π은 다음과 같이 찾을 수 있다.

(S는 Q가 아니더라도 주기적일 수 있다.π이 발견되면 단위 벡터로 정규화해야 한다.)

연속 시간 Markov 체인에 의해 도출될 수 있는 또 다른 이산 시간 프로세스는 Δ-skeleton, 즉 Δ 단위 간격으로 X(t)를 관찰하여 형성된 (분리 시간) 마코프 체인이 있다.랜덤 변수 X(0), X(Δ), X(2Δ), ...는 Δ-skeleton이 방문한 상태의 순서를 제공한다.

마르코프 체인의 특수 유형

마르코프 모델

마르코프 모델은 변화하는 시스템을 모델링하는 데 사용된다.모든 순차적 상태를 관찰할 수 있는지 여부와 관찰한 결과에 따라 시스템을 조정해야 하는지에 따라 마르코프 체인을 일반화하는 4가지 주요 모델이 있다.

시스템 상태를 완전히 관찰할 수 있음 시스템 상태를 부분적으로 관측할 수 있음
시스템은 자율적이다. 마르코프 체인 히든 마르코프 모델
시스템이 제어됨 마르코프 의사결정 과정 부분적으로 관측 가능한 마르코프 의사결정 과정

베르누이 계획

베르누이 체인은 전환 확률 매트릭스가 동일한 행을 갖는 마르코프 체인의 특수한 경우로서, 다음 상태는 (과거 상태와 독립된 것에 더하여) 현재 상태에서도 독립적이라는 것을 의미한다.두 주만 가능한 베르누이 계획은 베르누이 과정으로 알려져 있다.

그러나, 오렌슈타인 이소모르피즘 정리에 의해, 모든 Aperiodic과 unreducable Markov 체인은 베르누이 계획과 이소모르프라는 것에 주목한다.[59] 따라서, 사람들은 똑같이 마르코프 체인이 베르누이 계획의 "특수 사례"라고 주장할 수 있다.이형질성은 일반적으로 복잡한 암기법을 필요로 한다.이소모르피즘의 정리는 심지어 조금 더 강하다: 그것은 어떤 고정된 확률적 과정이 베르누이 계획과 이소모르프라고 말한다; 마르코프 체인은 그러한 예들 중 하나일 뿐이다.

유한형 하위교대

마르코프 행렬이 유한 그래프인접 행렬로 대체될 때, 그 결과의 변화는 위상학적 마르코프 체인 또는 유한 유형의 하위 교대라고 불린다.[59]인접 행렬과 호환되는 마르코프 행렬은 하위 교대조에 대한 측정을 제공할 수 있다.많은 혼란스러운 동적 시스템은 위상학적 마르코프 체인에 이형성적이다. 예를 들어 폐쇄된 다지관차이점들을 포함한다. 프루엣-Thue-Morse 시스템, Chacon 시스템, sofic 시스템, 맥락 없는 시스템 및 블록 코딩 시스템.[59]

적용들

연구는 물리, 화학, 생물학, 의학, 음악, 게임 이론, 스포츠와 같은 광범위한 주제에 마르코프 체인의 응용과 유용성을 보고했다.

물리학

마르코비아 시스템은 시스템의 알려지지 않았거나 모델링되지 않은 세부사항을 나타내기 위해 확률을 사용할 때마다 열역학 통계역학에서 광범위하게 나타난다. 역학이 시간에 따라 다르다고 가정할 수 있고, 주 설명에 이미 포함되지 않은 관련 이력을 고려할 필요가 없는 경우.[60][61]예를 들어 열역학 상태는 획득하기 어렵거나 비용이 많이 드는 확률 분포에서 작동한다.따라서 마르코프 체인 몬테 카를로 방법은 블랙박스에서 무작위로 표본을 추출하여 다양한 물체에 걸쳐 속성의 확률분포를 대략적으로 파악할 수 있다.[61]

양자역학의 경로 적분형식에 있는 그 길은 마르코프 체인이다.[62]

마코프 체인은 격자 QCD 시뮬레이션에 사용된다.[63]

화학

Michaelis-Menten 운동학.효소(E)는 기질(S)을 결합하여 제품(P)을 생산한다.각각의 반응은 마르코프 체인의 국가 전환이다.

반응 네트워크는 여러 반응과 화학 종을 포함하는 화학 시스템이다.그러한 네트워크의 가장 단순한 확률적 모델은 체인의 가능한 전환으로 모델링된 반응과 각 종의 분자 수가 주를 이루는 연속 시간 마코프 체인으로 시스템을 취급한다.[64]마르코프 체인과 연속 시간 마르코프 과정은 물리 시스템이 마르코프 속성과 근접하게 근접한 화학에서 유용하다.예를 들어, 상태 A에 있는 용액의 많은 n개의 분자를 상상해 보십시오. 각 분자는 특정 평균 속도로 상태 B에 화학 반응을 일으킬 수 있다.아마도 분자는 효소일 것이고, 상태는 그것이 어떻게 접히는가를 가리킨다.어떤 단일 효소의 상태는 마르코프 사슬을 따르며, 분자는 본질적으로 서로 독립적이기 때문에, 한 번에 상태 A 또는 B에 있는 분자의 수는 주어진 분자가 그 상태에 있을 확률을 n배로 한다.

고전적인 효소 활성 모델인 Michaelis-Menten 키네틱스는 마르코프 사슬로 볼 수 있으며, 매 단계마다 어떤 방향으로 반응이 진행된다.Michaelis-Menten은 상당히 간단하지만, 훨씬 더 복잡한 반응 네트워크도 마르코프 체인으로 모델링할 수 있다.[65]

또한 마르코프 체인에 기초한 알고리즘을 사용하여 약품이나 천연물과 같은 원하는 종류의 화합물을 향해 실리코화학 물질의 단편 기반 성장을 집중시켰다.[66]분자가 자라면서, 초기 분자로부터 파편을 "전류" 상태로 선택한다.그것은 자신의 과거를 알지 못한다(즉, 그것에 이미 결부되어 있는 것을 알지 못한다).그런 다음 파편이 부착되면 다음 상태로 전환된다.전이 확률은 실제 화합물 등급의 데이터베이스에 대해 훈련된다.[67]

또한 복합체의 성장(및 구성)은 마르코프 체인을 사용하여 모델링할 수 있다.성장하는 폴리머 체인을 구성하는 모노머의 반응도비에 기초하여 체인의 구성을 계산할 수 있다(예를 들어, 모노머가 교대로 추가하는 경향이 있는지 또는 동일한 모노머의 장시간에 추가하는 경향이 있는지 여부).강직 효과로 인해 2차 마코프 효과는 일부 폴리머 체인의 성장에도 영향을 미칠 수 있다.

이와 유사하게, 일부 상피성 초산염 물질의 결정화와 성장을 마르코프 체인에 의해 정확하게 설명할 수 있다고 제안되었다.[68]

생물학

마르코프 체인은 생물학의 다양한 분야에서 사용된다.주목할 만한 예는 다음과 같다.

테스트

여러 이론가들은 마코프 체인을 결합하여 "마코프 담요"를 형성하고, 이들 체인을 여러 재귀적 층으로 배열("웨이퍼링")하며, 보다 효율적인 시험 세트(샘플)를 생산하는 방법인 마코프 체인 통계 시험(MCST)의 아이디어를 전체 시험의 대체물로 제안했다.MCST는 임시 상태 기반 네트워크에서도 사용된다; 칠루쿠리 외 연구진 논문의 "객체 감지 및 추적에 응용하는 증거 융합을 위한 임시 불확실성 추론 네트워크"(ScienceDirect)는 MCST를 더 광범위한 응용 분야에 적용하기 위한 배경과 사례 연구를 제공한다.

일조 강도 변동성

일조 강도 변동성 평가는 태양광 발전 용도에 유용하다.시간의 경과에 따른 모든 위치에서 일조 강도 변동은 주로 하늘 돔을 가로지르는 태양 경로의 결정론적 변동성과 구름의 변동성의 결과물이다.지구 표면에서 접근 가능한 일조 강도의 변동성은 마코프 체인을 사용하여 모델링되었으며,[71][72][73][74] 여기에는 투명하고 흐릿한 두 상태를 마코프 체인으로 모델링하는 것도 포함된다.[75][76]

음성인식

히든 마코프 모델은 대부분의 현대 자동 음성 인식 시스템의 기본이다.

정보이론

마르코프 체인은 정보 처리 전반에 걸쳐 사용된다.정보이론의 장을 한 번에 만들어낸 클로드 섀넌의 유명한 1948년 논문 A수학적 의사소통 이론은 영어의 마르코프 모델링을 통해 엔트로피 개념을 도입함으로써 문을 연다.그러한 이상화된 모델은 많은 시스템의 통계적 규칙성을 포착할 수 있다.시스템의 전체 구조를 완벽하게 설명하지 않더라도, 그러한 신호 모델은 산술 코딩과 같은 엔트로피 인코딩 기법을 통해 매우 효과적인 데이터 압축을 가능하게 할 수 있다.그들은 또한 효과적인 상태 추정패턴 인식을 허용한다.마르코프 체인도 학습 강화에 중요한 역할을 한다.

마르코프 체인은 전화 네트워크(오류 교정을 위해 비테비 알고리즘을 사용), 음성 인식 및 생물정보학(재조정 검출 등[77]) 등 다양한 분야에서 중요한 도구인 숨겨진 마르코프 모델의 기반이기도 하다.

LZMA 무손실 데이터 압축 알고리즘은 마코프 체인과 Lempel-Ziv 압축을 결합하여 매우 높은 압축 비율을 달성한다.

큐잉 이론

마르코프 체인은 큐(Queuering 이론)의 분석적 처리의 기초가 된다.애그너 크라우프 에를랑은 1917년에 이 주제를 시작했다.[78]이것은 메시지들이 종종 제한된 자원(대역폭 등)을 위해 경쟁해야 하는 통신 네트워크의 성능을 최적화하는 데 중요한 역할을 한다.[79]

수많은 대기열 모델들이 연속 시간 마코프 체인을 사용한다.예를 들어, M/M/1 큐는 연합 수송 이동 본부는non-negative의 정수에 나는에서 나는 굴복하게 상승 전환+1비율로 λ 포아송 과정에 따라 직업 사람을 묘사하고 일어난다 나는에서 나는 동시에 전환 1(에 대한 거야. 1입니다.)률μ(직업 서비스번 기하 급수적으로 분포한다)에 완성된 서비스를 설명하게 발생하는 –(출발)에서queu.

인터넷 응용 프로그램

경과 확률 M 또는 + - 스타일 frac }{을(를) 가진 PageLank 알고리즘을 나타내는 상태 다이어그램

구글이 사용하는 웹 페이지의 페이지랭크는 마르코프 체인에 의해 정의된다.[80][81][82]모든 (알려진) 웹 페이지의 다음 마코프 체인에 있는 고정 배포에서 i페이지에 있을 확률이다.If is the number of known webpages, and a page has links to it then it has transition probability for all pages that are linked to and 연결되지 않은 모든 페이지에 대해 매개 변수 은([83]는) 0.15 정도로 간주된다.

마코프 모델은 사용자의 웹 네비게이션 동작을 분석하는 데도 이용되었다.특정 웹사이트의 사용자 웹 링크 전환은 1차 또는 2차 마코프 모델을 사용하여 모델링할 수 있으며, 향후 탐색에 관한 예측과 개별 사용자의 웹 페이지 개인화에 사용할 수 있다.

통계

마르코프 체인 방법은 또한 마르코프 체인 몬테 카를로(MMC)라고 불리는 과정을 통해 매우 복잡한 원하는 확률 분포를 정확하게 반영하기 위해 무작위 숫자의 시퀀스를 생성하는 데 매우 중요해졌다.최근 몇 년 동안 이것은 베이지안 추론 방법의 실행 가능성에 혁명을 일으켜 광범위한 후방 분포를 시뮬레이션하고 그 매개변수를 숫자로 찾을 수 있게 했다.

경제금융

마르코프 체인은 금융과 경제학에서 소득 분배, 기업의 규모 분배, 자산 가격, 시장 붕괴를 포함한 다양한 다른 현상을 모델링하기 위해 사용된다.D. G. Champernowne는 1953년에 소득분배의 마르코프 체인 모델을 구축했다.[84]허버트 A. 사이먼과 공동저자인 찰스 보니니는 마르코프 체인 모델을 사용하여 고정된 크기의 율(Yule) 분포를 도출했다.[85]루이 바첼리에르는 주가가 무작정 걷기를 따른다는 것을 가장 먼저 관찰했다.[86]무작위 보행은 나중에 효율적 시장 가설을 지지하는 증거로 보여졌고 무작위 보행 모델이 1960년대 문헌에서 인기를 끌었다.[87]제임스 D는 경제 주기의 체제 전환 모델을 대중화했다. Markov 체인을 사용하여 높은 GDP 성장 기간과 낮은 GDP 성장 기간 사이의 전환(또는 그 대안으로 경제 팽창과 경기 침체)을 모델링한 Hamilton(1989)이다.[88]보다 최근의 예는 로랑 E. 칼벳과 애들라이 J의 다중추적 모델 전환이다.피셔, 이전의 정권 교체 모델들의 편리함을 기반으로 한다.[89][90]임의로 큰 마코프 체인을 사용해 자산 수익의 변동성 수준을 견인한다.

역동적인 거시경제학은 마르코프 체인을 많이 이용한다.를 들어, 마코프 체인을 사용하여 일반 평형 환경에서 자본(주식)의 가격을 자연적으로 모델링하는 것이 그 예다.[91]

신용평가사들은 신용등급이 다른 채권에 대해 매년 전환확률표를 작성한다.[92]

사회과학

마르코프 체인은 일반적으로 현재 구조 구성이 미래의 결과를 조건으로 하는 경로 의존적 인수를 기술하는 데 사용된다. 예가 이 사상의 개혁인데, 원래 카를 마르크스다스 카피탈에 기인하여 경제 발전자본주의의 발흥과 결부시킨 것이다.현재의 연구에서는, 한 국가가 특정한 경제 발전 수준에 도달하는 방법을 모델링하기 위해 마르코프 체인을 사용하는 것이 일반적이며, 중산층의 규모, 도시와 농촌의 거주 비율, 정치 동원의 비율 등과 같은 구조적 요인의 구성이, 보다 높은 전환의 가능성을 발생시킬 것이다.민주 정권에 대한 [93]비호감적

게임.

마르코프 체인은 많은 운명의 게임을 모델링하는데 사용될 수 있다.[1]예를 들어 어린이 게임 뱀과 사다리와 "하이 호! 체리 오"는 마르코프 체인으로 정확히 표현된다.각 턴마다 플레이어는 주어진 상태(주어진 사각형)에서 출발하며, 거기서부터 특정 다른 상태로 이동할 확률은 고정되어 있다(스쿼어).

음악

마르코프 체인은 알고리즘 음악 작곡에, 특히 Csound, Max, SuperCollider와 같은 소프트웨어에 고용되어 있다.1차 체인에서는 시스템의 상태가 노트 또는 피치 값이 되고, 각 노트에 대한 확률 벡터가 구성되어 전환 확률 매트릭스(아래 참조)를 완성한다.알고리즘은 MIDI 노트 값, 주파수(Hz) 또는 기타 바람직한 메트릭일 수 있는 전환 매트릭스 가중치를 기반으로 출력 노트 값을 생성하도록 구성된다.[94]

1차 행렬
참고 A C E
A 0.1 0.6 0.3
C 0.25 0.05 0.7
E 0.7 0.3 0
2차 행렬
메모들 A D G
AA 0.18 0.6 0.22
AD 0.5 0.5 0
AG 0.15 0.75 0.1
DD 0 0 1
DA 0.25 0 0.75
DG 0.9 0.1 0
GG 0.4 0.4 0.2
GA 0.5 0.25 0.25
GD 1 0 0

2차 마코프 체인은 2차 표에 나타난 바와 같이 현재 상태와 이전 상태를 고려하여 도입할 수 있다.nth-order 체인은 특정 노트를 "그룹화"하는 경향이 있고, 다른 패턴과 시퀀스로 '분리'하는 경향이 있다.이러한 고차량의 체인들은 1차적인 시스템이 만들어내는 '무임한 방황'보다는 표현적 구조로 성과를 내는 경향이 있다.[95]

마르코프 체인은 제나키스의 Analogique A와 B에서와 같이 구조적으로 사용될 수 있다.[96]마르코프 체인은 음악 입력에 상호작용하기 위해 마르코프 모델을 사용하는 시스템에서도 사용된다.[97]

보통 음악 시스템은 그들이 생성하는 유한 길이 시퀀스에 특정한 제어 제약 조건을 강제할 필요가 있지만, 제한된 메모리의 마르코프 가설을 위반하는 장거리 종속성을 유도하기 때문에 제어 제약조건은 마르코프 모델과 호환되지 않는다.이러한 한계를 극복하기 위해 새로운 접근법이 제안되었다.[98]

야구

마르코프 체인 모델은 아직 사용이 드물지만, 1960년부터 선진 야구 분석에 이용되어 왔다.야구 경기의 각 하프닝은 주자와 아웃의 수를 고려할 때 마르코프 체인 상태에 적합하다.어느 타석에서도 아웃 수와 주자의 포지션 조합이 24개 가능하다.마크 판킨은 마코프 체인 모델이 팀뿐만 아니라 개인 선수 모두를 위해 만들어진 런을 평가하는 데 사용될 수 있다는 것을 보여준다.[99]그는 또한 마코프 체인 모델이 번팅, 도루, 잔디 위에서 경기할 때 차이와 같은 게임 상황에 대한 통계를 분석하는 데 어떻게 이용되어 왔는지 등 다양한 전략과 경기 조건에 대해 논한다.아스트로터프.[100]

마르코프 텍스트 생성기

마르코프 프로세스는 또한 샘플 문서가 주어진 표면적으로 실제처럼 보이는 텍스트를 생성하는 데 사용될 수 있다.마르코프 프로세스는 다양한 레크리에이션 "파로디 제너레이터" 소프트웨어에서 사용된다(분리된 언론, Jeff Harrison,[101] Mark V 참조). 셰이니,[102][103] 그리고 아카데미아스 중성자륨).The RiTa Toolkit을 포함하여 마르코프 체인을 사용하는 여러 오픈 소스 텍스트 생성 라이브러리가 존재한다.

확률론적 예측

마르코프 체인은 예를 들어 가격 동향,[104] 풍력,[105] 일조 강도와 같은 여러 분야에서 예측에 사용되어 왔다.[106]마르코프 체인 예측 모델은 시계열 분석부터 [105]웨이블렛과 결합된 히든 마코프 모델,[104] 마코프 체인 혼합물 분포 모델(MCM)까지 다양한 설정을 활용한다.[106]

참고 항목

메모들

  1. ^ a b c d e f g h i j k l Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons. pp. 1–235. ISBN 978-1-119-38755-8.
  2. ^ "Markov chain Definition of Markov chain in US English by Oxford Dictionaries". Oxford Dictionaries English. Retrieved 2017-12-14.
  3. ^ Brilliant.org "Brillian Math and Science Wiki"에서 정의하십시오.2019년 5월 12일 회수
  4. ^ Samuel Karlin; Howard E. Taylor (2 December 2012). A First Course in Stochastic Processes. Academic Press. p. 47. ISBN 978-0-08-057041-9. Archived from the original on 23 March 2017.
  5. ^ Bruce Hajek (12 March 2015). Random Processes for Engineers. Cambridge University Press. ISBN 978-1-316-24124-0. Archived from the original on 23 March 2017.
  6. ^ G. Latouche; V. Ramaswami (1 January 1999). Introduction to Matrix Analytic Methods in Stochastic Modeling. SIAM. pp. 4–. ISBN 978-0-89871-425-8. Archived from the original on 23 March 2017.
  7. ^ a b Sean Meyn; Richard L. Tweedie (2 April 2009). Markov Chains and Stochastic Stability. Cambridge University Press. p. 3. ISBN 978-0-521-73182-9. Archived from the original on 23 March 2017.
  8. ^ Reuven Y. Rubinstein; Dirk P. Kroese (20 September 2011). Simulation and the Monte Carlo Method. John Wiley & Sons. p. 225. ISBN 978-1-118-21052-9. Archived from the original on 23 March 2017.
  9. ^ Dani Gamerman; Hedibert F. Lopes (10 May 2006). Markov Chain Monte Carlo: Stochastic Simulation for Bayesian Inference, Second Edition. CRC Press. ISBN 978-1-58488-587-0. Archived from the original on 23 March 2017.
  10. ^ "Markovian". Oxford English Dictionary (Online ed.). Oxford University Press. (가입 또는 참여기관 회원가입 필요)
  11. ^ Model-Based Signal Processing. John Wiley & Sons. 27 October 2005. ISBN 9780471732662.
  12. ^ Øksendal, B. K. (Bernt Karsten) (2003). Stochastic differential equations : an introduction with applications (6th ed.). Berlin: Springer. ISBN 3540047581. OCLC 52203046.
  13. ^ a b Søren Asmussen (15 May 2003). Applied Probability and Queues. Springer Science & Business Media. p. 7. ISBN 978-0-387-00211-8. Archived from the original on 23 March 2017.
  14. ^ Emanuel Parzen (17 June 2015). Stochastic Processes. Courier Dover Publications. p. 188. ISBN 978-0-486-79688-8. Archived from the original on 20 November 2017.
  15. ^ Samuel Karlin; Howard E. Taylor (2 December 2012). A First Course in Stochastic Processes. Academic Press. pp. 29 and 30. ISBN 978-0-08-057041-9. Archived from the original on 23 March 2017.
  16. ^ John Lamperti (1977). Stochastic processes: a survey of the mathematical theory. Springer-Verlag. pp. 106–121. ISBN 978-3-540-90275-1. Archived from the original on 2017-03-23.
  17. ^ Sheldon M. Ross (1996). Stochastic processes. Wiley. pp. 174 and 231. ISBN 978-0-471-12062-9. Archived from the original on 2017-03-23.
  18. ^ 에버릿, B.S. (2002) 케임브리지 통계사전.컵. ISBN 0-521-81099-X
  19. ^ 파젠, E. (1962) 확률적 과정, 홀덴데이.ISBN 0-8162-6664-6 (표 6.1)
  20. ^ 닷지, Y. (2003) 옥스퍼드 통계 용어 사전, OUP. ISBN 0-19-920613-9 ("마코프 체인" 입력)
  21. ^ 도지, Y.옥스포드 통계 용어 사전, OOP. ISBN 0-19-920613-9
  22. ^ 마인, S. 션 P. 그리고 리처드 L.트위디.(2009) 마르코프 체인과 확률적 안정성.케임브리지 대학 출판부 (서면, 페이지 3)
  23. ^ a b c Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons. pp. 159–163. ISBN 978-1-119-38755-8.
  24. ^ Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons. pp. 2–8. ISBN 978-1-119-38755-8.
  25. ^ a b c d e Charles Miller Grinstead; James Laurie Snell (1997). Introduction to Probability. American Mathematical Soc. pp. 464–466. ISBN 978-0-8218-0749-1.
  26. ^ a b c Pierre Bremaud (9 March 2013). Markov Chains: Gibbs Fields, Monte Carlo Simulation, and Queues. Springer Science & Business Media. p. ix. ISBN 978-1-4757-3124-8. Archived from the original on 23 March 2017.
  27. ^ a b c Hayes, Brian (2013). "First links in the Markov chain". American Scientist. 101 (2): 92–96. doi:10.1511/2013.101.92.
  28. ^ a b Sheldon M. Ross (1996). Stochastic processes. Wiley. pp. 235 and 358. ISBN 978-0-471-12062-9. Archived from the original on 2017-03-23.
  29. ^ Jarrow, Robert; Protter, Philip (2004). "A short history of stochastic integration and mathematical finance: The early years, 1880–1970". A Festschrift for Herman Rubin. Institute of Mathematical Statistics Lecture Notes – Monograph Series. pp. 75–91. CiteSeerX 10.1.1.114.632. doi:10.1214/lnms/1196285381. ISBN 978-0-940600-61-4. ISSN 0749-2170.
  30. ^ Guttorp, Peter; Thorarinsdottir, Thordis L. (2012). "What Happened to Discrete Chaos, the Quenouille Process, and the Sharp Markov Property? Some History of Stochastic Point Processes". International Statistical Review. 80 (2): 253–268. doi:10.1111/j.1751-5823.2012.00181.x. ISSN 0306-7734.
  31. ^ Seneta, E. (1996). "Markov and the Birth of Chain Dependence Theory". International Statistical Review / Revue Internationale de Statistique. 64 (3): 255–257. doi:10.2307/1403785. ISSN 0306-7734. JSTOR 1403785.
  32. ^ Seneta, E. (1998). "I.J. Bienaymé [1796–1878]: Criticality, Inequality, and Internationalization". International Statistical Review / Revue Internationale de Statistique. 66 (3): 291–292. doi:10.2307/1403518. ISSN 0306-7734. JSTOR 1403518.
  33. ^ Bru B, Hertz S (2001). "Maurice Fréchet". In Heyde CC, Seneta E, Crépel P, Fienberg SE, Gani J (eds.). Statisticians of the Centuries. New York, NY: Springer. pp. 331–334. doi:10.1007/978-1-4613-0179-0_71. ISBN 978-0-387-95283-3.
  34. ^ a b c Kendall, D. G.; Batchelor, G. K.; Bingham, N. H.; Hayman, W. K.; Hyland, J. M. E.; Lorentz, G. G.; Moffatt, H. K.; Parry, W.; Razborov, A. A.; Robinson, C. A.; Whittle, P. (1990). "Andrei Nikolaevich Kolmogorov (1903–1987)". Bulletin of the London Mathematical Society. 22 (1): 33. doi:10.1112/blms/22.1.31. ISSN 0024-6093.
  35. ^ a b Cramér, Harald (1976). "Half a Century with Probability Theory: Some Personal Recollections". The Annals of Probability. 4 (4): 509–546. doi:10.1214/aop/1176996025. ISSN 0091-1798.
  36. ^ Marc Barbut; Bernard Locker; Laurent Mazliak (23 August 2016). Paul Lévy and Maurice Fréchet: 50 Years of Correspondence in 107 Letters. Springer London. p. 5. ISBN 978-1-4471-7262-8. Archived from the original on 23 March 2017.
  37. ^ Valeriy Skorokhod (5 December 2005). Basic Principles and Applications of Probability Theory. Springer Science & Business Media. p. 146. ISBN 978-3-540-26312-8. Archived from the original on 23 March 2017.
  38. ^ Bernstein, Jeremy (2005). "Bachelier". American Journal of Physics. 73 (5): 395–398. Bibcode:2005AmJPh..73..395B. doi:10.1119/1.1848117. ISSN 0002-9505.
  39. ^ William J. Anderson (6 December 2012). Continuous-Time Markov Chains: An Applications-Oriented Approach. Springer Science & Business Media. p. vii. ISBN 978-1-4612-3038-0. Archived from the original on 23 March 2017.
  40. ^ Kendall, D. G.; Batchelor, G. K.; Bingham, N. H.; Hayman, W. K.; Hyland, J. M. E.; Lorentz, G. G.; Moffatt, H. K.; Parry, W.; Razborov, A. A.; Robinson, C. A.; Whittle, P. (1990). "Andrei Nikolaevich Kolmogorov (1903–1987)". Bulletin of the London Mathematical Society. 22 (1): 57. doi:10.1112/blms/22.1.31. ISSN 0024-6093.
  41. ^ a b Ionut Florescu (7 November 2014). Probability and Stochastic Processes. John Wiley & Sons. pp. 373 and 374. ISBN 978-1-118-59320-2. Archived from the original on 23 March 2017.
  42. ^ a b Samuel Karlin; Howard E. Taylor (2 December 2012). A First Course in Stochastic Processes. Academic Press. p. 49. ISBN 978-0-08-057041-9. Archived from the original on 23 March 2017.
  43. ^ Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation. USA, NJ: John Wiley & Sons. pp. 1–2. ISBN 978-1-119-38755-8.
  44. ^ Weiss, George H. (2006). "Random Walks". Encyclopedia of Statistical Sciences. p. 1. doi:10.1002/0471667196.ess2180.pub2. ISBN 978-0471667193.
  45. ^ Michael F. Shlesinger (1985). The Wonderful world of stochastics: a tribute to Elliott W. Montroll. North-Holland. pp. 8–10. ISBN 978-0-444-86937-1. Archived from the original on 2017-03-23.
  46. ^ Emanuel Parzen (17 June 2015). Stochastic Processes. Courier Dover Publications. p. 7 and 8. ISBN 978-0-486-79688-8. Archived from the original on 20 November 2017.
  47. ^ Joseph L. Doob (1990). Stochastipoic processes. Wiley. p. 46 and 47. Archived from the original on 2017-11-20.
  48. ^ Donald L. Snyder; Michael I. Miller (6 December 2012). Random Point Processes in Time and Space. Springer Science & Business Media. p. 32. ISBN 978-1-4612-3166-0. Archived from the original on 20 November 2017.
  49. ^ Norris, J. R. (1997). "Continuous-time Markov chains I". Markov Chains. pp. 60–107. doi:10.1017/CBO9780511810633.004. ISBN 9780511810633.
  50. ^ a b Serfozo, Richard (2009). "Basics of Applied Stochastic Processes". Probability and Its Applications. doi:10.1007/978-3-540-89332-5. ISBN 978-3-540-89331-8. ISSN 1431-7028.
  51. ^ "Chapter 11 "Markov Chains"" (PDF). Archived (PDF) from the original on 2017-02-15. Retrieved 2017-06-02.
  52. ^ Schmitt, Florian; Rothlauf, Franz (2001). "On the Importance of the Second Largest Eigenvalue on the Convergence Rate of Genetic Algorithms". Proceedings of the 14th Symposium on Reliable Distributed Systems. CiteSeerX 10.1.1.28.6191.
  53. ^ Rosenthal, Jeffrey S. (1995). "Convergence Rates for Markov Chains". SIAM Review. 37 (3): 387–405. doi:10.1137/1037083. ISSN 0036-1445. JSTOR 2132659. Retrieved 2021-05-31.
  54. ^ Franzke, Brandon; Kosko, Bart (1 October 2011). "Noise can speed convergence in Markov chains". Physical Review E. 84 (4): 041112. Bibcode:2011PhRvE..84d1112F. doi:10.1103/PhysRevE.84.041112. PMID 22181092.
  55. ^ Spitzer, Frank (1970). "Interaction of Markov Processes". Advances in Mathematics. 5 (2): 246–290. doi:10.1016/0001-8708(70)90034-4.
  56. ^ R. L. Dobrushin; V. I. Kri︠u︡kov; A. L. Toom (1978). Stochastic Cellular Systems: Ergodicity, Memory, Morphogenesis. ISBN 9780719022067. Archived from the original on 2017-02-05. Retrieved 2016-03-04.
  57. ^ Doblinger, G. (September 1998). "Smoothing of noisy AR signals using an adaptive Kalman filter" (PDF). 9th European Signal Processing Conference (EUSIPCO 1998): 781–784.
  58. ^ Norris, J. R. (1997). "Continuous-time Markov chains II". Markov Chains. pp. 108–127. doi:10.1017/CBO9780511810633.005. ISBN 9780511810633.
  59. ^ a b c Matthew Nicol and Karl Petersen, (2009) "Eergodic 이론: 기본 사례와 구성", 복잡성과 시스템 과학 백과사전, Springer https://doi.org/10.1007/978-0-387-30440-3_177
  60. ^ Fitzpatrick, Richard. "Thermodynamics and Statistical Mechanics" (PDF). Archived (PDF) from the original on 2016-11-30. Retrieved 2017-06-02.
  61. ^ a b van Ravenzwaaij, Don; Cassey, Pete; Brown, Scott D. (2016-03-11). "A simple introduction to Markov Chain Monte–Carlo sampling". Psychonomic Bulletin & Review. 25 (1): 143–154. doi:10.3758/s13423-016-1015-8. ISSN 1069-9384. PMC 5862921. PMID 26968853.
  62. ^ Ryder, Lewis H. (1985). Quantum field theory. Cambridge [Cambridgeshire]: Cambridge University Press. pp. 160. ISBN 978-0521338592. OCLC 10533049.
  63. ^ Gattringer, Christof; Lang, Christian B (2010). Quantum Chromodynamics on the Lattice. Lecture Notes in Physics. Vol. 788. Springer-Verlag Berlin Heidelberg. doi:10.1007/978-3-642-01850-3. ISBN 978-3-642-01849-7. Archived from the original on 2017-08-01.
  64. ^ Anderson, David F.; Kurtz, Thomas G. (2011), "Continuous Time Markov Chain Models for Chemical Reaction Networks", Design and Analysis of Biomolecular Circuits, Springer New York, pp. 3–42, doi:10.1007/978-1-4419-6766-4_1, ISBN 9781441967657
  65. ^ Du, Chao; Kou, S. C. (September 2012). "Correlation analysis of enzymatic reaction of a single protein molecule". The Annals of Applied Statistics. 6 (3): 950–976. arXiv:1209.6210. Bibcode:2012arXiv1209.6210D. doi:10.1214/12-aoas541. ISSN 1932-6157. PMC 3568780. PMID 23408514.
  66. ^ Kutchukian, Peter; Lou, David; Shakhnovich, Eugene (2009). "FOG: Fragment Optimized Growth Algorithm for the de Novo Generation of Molecules occupying Druglike Chemical". Journal of Chemical Information and Modeling. 49 (7): 1630–1642. doi:10.1021/ci9000458. PMID 19527020.
  67. ^ Kutchukian, Peter S.; Lou, David; Shakhnovich, Eugene I. (2009-06-15). "FOG: Fragment Optimized Growth Algorithm for the de Novo Generation of Molecules Occupying Druglike Chemical Space". Journal of Chemical Information and Modeling. 49 (7): 1630–1642. doi:10.1021/ci9000458. ISSN 1549-9596. PMID 19527020.
  68. ^ Kopp, V. S.; Kaganer, V. M.; Schwarzkopf, J.; Waidick, F.; Remmele, T.; Kwasniewski, A.; Schmidbauer, M. (2011). "X-ray diffraction from nonperiodic layered structures with correlations: Analytical calculation and experiment on mixed Aurivillius films". Acta Crystallographica Section A. 68 (Pt 1): 148–155. Bibcode:2012AcCrA..68..148K. doi:10.1107/S0108767311044874. PMID 22186291.
  69. ^ George, Dileep; Hawkins, Jeff (2009). Friston, Karl J. (ed.). "Towards a Mathematical Theory of Cortical Micro-circuits". PLOS Comput Biol. 5 (10): e1000532. Bibcode:2009PLSCB...5E0532G. doi:10.1371/journal.pcbi.1000532. PMC 2749218. PMID 19816557.
  70. ^ Gupta, Ankur; Rawlings, James B. (April 2014). "Comparison of Parameter Estimation Methods in Stochastic Chemical Kinetic Models: Examples in Systems Biology". AIChE Journal. 60 (4): 1253–1268. doi:10.1002/aic.14409. PMC 4946376. PMID 27429455.
  71. ^ Aguiar, R. J.; Collares-Pereira, M.; Conde, J. P. (1988). "Simple procedure for generating sequences of daily radiation values using a library of Markov transition matrices". Solar Energy. 40 (3): 269–279. Bibcode:1988SoEn...40..269A. doi:10.1016/0038-092X(88)90049-7.
  72. ^ Ngoko, B. O.; Sugihara, H.; Funaki, T. (2014). "Synthetic generation of high temporal resolution solar radiation data using Markov models". Solar Energy. 103: 160–170. Bibcode:2014SoEn..103..160N. doi:10.1016/j.solener.2014.02.026.
  73. ^ Bright, J. M.; Smith, C. I.; Taylor, P. G.; Crook, R. (2015). "Stochastic generation of synthetic minutely irradiance time series derived from mean hourly weather observation data". Solar Energy. 115: 229–242. Bibcode:2015SoEn..115..229B. doi:10.1016/j.solener.2015.02.032.
  74. ^ Munkhammar, J.; Widén, J. (2018). "An N-state Markov-chain mixture distribution model of the clear-sky index". Solar Energy. 173: 487–495. Bibcode:2018SoEn..173..487M. doi:10.1016/j.solener.2018.07.056. S2CID 125538244.
  75. ^ Morf, H. (1998). "The stochastic two-state solar irradiance model (STSIM)". Solar Energy. 62 (2): 101–112. Bibcode:1998SoEn...62..101M. doi:10.1016/S0038-092X(98)00004-8.
  76. ^ Munkhammar, J.; Widén, J. (2018). "A Markov-chain probability distribution mixture approach to the clear-sky index". Solar Energy. 170: 174–183. Bibcode:2018SoEn..170..174M. doi:10.1016/j.solener.2018.05.055. S2CID 125867684.
  77. ^ Pratas, D; Silva, R; Pinho, A; Ferreira, P (May 18, 2015). "An alignment-free method to find and visualise rearrangements between pairs of DNA sequences". Scientific Reports. 5 (10203): 10203. Bibcode:2015NatSR...510203P. doi:10.1038/srep10203. PMC 4434998. PMID 25984837.
  78. ^ O'Connor, John J.; Robertson, Edmund F., "Markov chain", MacTutor History of Mathematics archive, University of St Andrews
  79. ^ 2007년 S. P. Meyn.복잡한 네트워크에 대한 제어 기법 캠브리지 대학 출판부의 웨이백 머신, 2007년에 보관된 2015-05-13.
  80. ^ 미국 특허 6,285,999
  81. ^ Gupta, Brij; Agrawal, Dharma P.; Yamaguchi, Shingo (16 May 2016). Handbook of Research on Modern Cryptographic Solutions for Computer and Cyber Security. IGI Global. pp. 448–. ISBN 978-1-5225-0106-0. Archived from the original on 23 March 2017.
  82. ^ Langville, Amy N.; Meyer, Carl D. (2006). "A Reordering for the PageRank Problem" (PDF). SIAM Journal on Scientific Computing. 27 (6): 2112–2113. CiteSeerX 10.1.1.58.8652. doi:10.1137/040607551. ISSN 1064-8275. Archived (PDF) from the original on 2017-09-21.
  83. ^ Page, Lawrence; Brin, Sergey; Motwani, Rajeev; Winograd, Terry (1999). The PageRank Citation Ranking: Bringing Order to the Web (Technical report). CiteSeerX 10.1.1.31.1768.
  84. ^ Champernowne, D (1953). "A model of income distribution". The Economic Journal. 63 (250): 318–51. doi:10.2307/2227127. JSTOR 2227127.
  85. ^ Simon, Herbert; C Bonini (1958). "The size distribution of business firms". Am. Econ. Rev. 42: 425–40.
  86. ^ Bachelier, Louis (1900). "Théorie de la spéculation". Annales Scientifiques de l'École Normale Supérieure. 3: 21–86. doi:10.24033/asens.476. hdl:2027/coo.31924001082803.
  87. ^ 예)Fama, E (1965). "The behavior of stock market prices". Journal of Business. 38.
  88. ^ Hamilton, James (1989). "A new approach to the economic analysis of nonstationary time series and the business cycle". Econometrica. 57 (2): 357–84. CiteSeerX 10.1.1.397.3582. doi:10.2307/1912559. JSTOR 1912559.
  89. ^ Calvet, Laurent E.; Fisher, Adlai J. (2001). "Forecasting Multifractal Volatility". Journal of Econometrics. 105 (1): 27–58. doi:10.1016/S0304-4076(01)00069-0. S2CID 119394176.
  90. ^ Calvet, Laurent; Adlai Fisher (2004). "How to Forecast long-run volatility: regime-switching and the estimation of multifractal processes". Journal of Financial Econometrics. 2: 49–83. CiteSeerX 10.1.1.536.8334. doi:10.1093/jjfinec/nbh003. S2CID 6020401.
  91. ^ Brennan, Michael; Xiab, Yihong. "Stock Price Volatility and the Equity Premium" (PDF). Department of Finance, the Anderson School of Management, UCLA. Archived from the original (PDF) on 2008-12-28.
  92. ^ "A Markov Chain Example in Credit Risk Modelling Columbia University lectures" (PDF). Archived from the original (PDF) on March 24, 2016.
  93. ^ Acemoglu, Daron; Georgy Egorov; Konstantin Sonin (2011). "Political model of social evolution". Proceedings of the National Academy of Sciences. 108: 21292–21296. Bibcode:2011PNAS..10821292A. CiteSeerX 10.1.1.225.6090. doi:10.1073/pnas.1019454108. PMC 3271566. PMID 22198760.
  94. ^ K McAlpine; E Miranda; S Hoggar (1999). "Making Music with Algorithms: A Case-Study System". Computer Music Journal. 23 (2): 19–30. doi:10.1162/014892699559733. S2CID 40057162.
  95. ^ Curtis Roads, ed. (1996). The Computer Music Tutorial. MIT Press. ISBN 978-0-262-18158-7.
  96. ^ Xenakis, Iannis; Kanach, Sharon(1992) 정형화된 음악: 펜드라곤 출판사의 수학과 사상.ISBN 1576470792
  97. ^ "Continuator". Archived from the original on July 13, 2012.
  98. ^ Pachet, F.; Roy, P.; Barbieri, G. (2011) "Finite-Length Markov Processes with Constraints" Archived 2012-04-14 at the Wayback Machine, Proceedings of the 22nd International Joint Conference on Artificial Intelligence, IJCAI, pages 635–642, Barcelona, Spain, July 2011
  99. ^ Pankin, Mark D. "MARKOV CHAIN MODELS: THEORETICAL BACKGROUND". Archived from the original on 2007-12-09. Retrieved 2007-11-26.
  100. ^ Pankin, Mark D. "BASEBALL AS A MARKOV CHAIN". Archived from the original on 2009-05-13. Retrieved 2009-04-24.
  101. ^ "Poet's Corner – Fieralingue". Archived from the original on December 6, 2010.
  102. ^ Kenner, Hugh; O'Rourke, Joseph (November 1984). "A Travesty Generator for Micros". BYTE. 9 (12): 129–131, 449–469.
  103. ^ Hartman, Charles (1996). Virtual Muse: Experiments in Computer Poetry. Hanover, NH: Wesleyan University Press. ISBN 978-0-8195-2239-9.
  104. ^ a b de Souza e Silva, E.G.; Legey, L.F.L.; de Souza e Silva, E.A. (2010). "Forecasting oil price trends using wavelets and hidden Markov models". Energy Economics. 32.
  105. ^ a b Carpinone, A; Giorgio, M; Langella, R.; Testa, A. (2015). "Markov chain modeling for very-short-term wind power forecasting". Electric Power Systems Research. 122: 152–158. doi:10.1016/j.epsr.2014.12.025.
  106. ^ a b Munkhammar, J.; van der Meer, D.W.; Widén, J. (2019). "Probabilistic forecasting of high-resolution clear-sky index time-series using a Markov-chain mixture distribution model". Solar Energy. 184: 688–695. Bibcode:2019SoEn..184..688M. doi:10.1016/j.solener.2019.04.014. S2CID 146076100.

참조

  • A. A. 마르코프(1906) "Rasprostranenie Zakona bol'shih chisel na velichiny, zavisyaschie druga"이즈베스티야 피지코-메테마테츠코고는 프리 카잔스콤 우니베르시테테테, 2야 세리야, 톰 15, 페이지 135–156.
  • A. A. 마르코프(1971년)."확률 이론의 한계 이론의 범위를 체인에 연결된 변수의 합으로 확장"의 부록 B: R에 재인쇄했다.하워드동적 확률론적 시스템, 제1권: 마르코프 체인.존 와일리 앤 선즈
  • 번역의 클래식 텍스트:
  • 레오 브레이먼(1992년) [1968년] 확률.애디슨 웨슬리 출판사 원판; 산업 및 응용 수학 ISBN 0-89871-296-3 재인쇄. (7장 참조)
  • J. L. Dob(1953) 확률론적 과정.뉴욕: John Wiley and Sons ISBN 0-471-52369-0.
  • S. P. 마인과 R. L. 트위디(1993) 마르코프 체인과 스토크스틱 안정성.런던: Springer-Verlag ISBN 0-387-19832-6. 온라인: MCSS. 두 번째 등장, 캠브리지 대학 출판부, 2009.
  • S. P. 마인.복잡한 네트워크를 위한 제어 기법.케임브리지 대학 출판부, 2007.ISBN 978-0-521-88441-9부록에는 요약된 Meyn & Twidie가 포함되어 있다.온라인: [1]
  • Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1st ed.). New York, NY: John Wiley and Sons, Inc. Library of Congress Card Catalog Number 67-25924. ] 전문의를 위한 광범위하고 광범위한 책으로, 전기 공학자들뿐만 아니라 이론 컴퓨터 과학자들을 위해 작성되었다.상태 최소화 기법, FSM, 튜링 머신, 마르코프 프로세스 및 불해독성에 대한 자세한 설명.마르코프 공정의 우수한 처리 pp. 449ff.Z-변환, D-변환에 대해 그 맥락에서 논의한다.
  • Kemeny, John G.; Hazleton Mirkil; J. Laurie Snell; Gerald L. Thompson (1959). Finite Mathematical Structures (1st ed.). Englewood Cliffs, NJ: Prentice-Hall, Inc. Library of Congress Card Catalog Number 59-12841. 고전 텍스트. cf 6장 유한 마코프 체인 페이지 384f.
  • 존 G. 케메니 & J. 로리 스넬(1960) 유한 마코프 체인즈, D. 밴 노스트라랜드 컴퍼니 ISBN 0-442-04328-7
  • E. 누멜린."일반적으로 설명할 수 없는 마르코프 체인과 비 음성 연산자"케임브리지 대학교 출판부, 1984, 2004.ISBN 0-521-60494-X
  • 세네타, E. 이 아닌 매트릭스, 마르코프 체인.제2차 개정판, 1981년, XVI, 288 페이지, 통계학에서의 Softcover Springer Series. (원래 런던 앨런&운윈 주식회사, 1973년) ISBN 978-0-387-29765-1
  • 키쇼르 S. Trivedi, 확률 통계 신뢰성, 대기열 및 컴퓨터 과학 애플리케이션, John Wiley & Sons, Inc.2002년 뉴욕.ISBN 0-471-3341-7
  • K. S. 트리베디와 R.A.Sahner, SARPE 22세, vol. 36, 4번, 페이지 52–57, ACM SIGMETRICS 성능 평가 검토, 2009.
  • R. A. Sanner, K. S.트리베디와 A.Puliafito, 컴퓨터 시스템의 성능 신뢰성 분석: CHARPE 소프트웨어 패키지인 Kluwer Academic Publishers, 1996을 사용한 사례 기반 접근법.ISBN 0-7923-9650-2.
  • G. 볼치, S. 그리너, H. 드 미어, K. S.트라이베디, 큐잉 네트워크, 마르코프 체인스, 존 와일리, 2006년 2판.ISBN 978-0-7923-9650-5.

외부 링크