다중추적론
Multiple trace theory다중추적 이론은 강도 이론의 대체 모델로서 발전된 기억 통합 모델이다.그것은 어떤 정보가 사람에게 제시될 때마다, 그것은 그것의 속성들의 조합으로 구성된 독특한 기억 추적으로 자연적으로 암호화되어 있다고 주장한다.[1]이 이론에 대한 추가적인 지지는 1960년대에 사람들이 물체 자체를 기억하지 않고도 물체에 대한 특정한 속성을 기억할 수 있다는 경험적 발견으로부터 나왔다.[2]정보가 제시되고 후속적으로 인코딩되는 모드는 모델에 유연하게 통합될 수 있다.이 기억력 추적은 아이템 속성의 일부 측면의 차이로 인해 그것을 닮은 다른 모든 기억력과는 독특하며, 태어나면서부터 통합되는 모든 기억력 추적은 뇌의 다중 추적 표현으로 결합된다.[3]기억 연구에서는, 이 이론의 수학적 공식화가 인식과 회수 과제에서 관찰된 경험적 현상을 성공적으로 설명할 수 있다.
특성
어떤 물건이 가지고 있는 속성은 그 흔적을 형성하고 여러 범주에 속할 수 있다.어떤 항목이 메모리에 커밋되면, 이러한 각 속성 범주의 정보는 항목의 추적에 암호화된다.놀이에는 일종의 의미 분류가 있을 수 있으며, 여기서 개별 추적이 개체의 중요한 개념에 통합된다.예를 들어 사람이 비둘기를 보면 마음 속에 있는 흔적들의 '피건' 군집에 자취가 더해진다.이 새로운 "피곤"의 흔적은, 그 사람이 일생 동안 보았을지도 모르는 비둘기의 다른 예와 구별되고 분리될 수 있지만, 비둘기의 보다 일반적이고 중요한 개념을 지지하는 역할을 한다.
물리적인
항목의 물리적 속성은 표시된 항목의 물리적 속성에 대한 정보를 인코딩한다.단어의 경우, 이것은 색상, 글꼴, 철자 및 크기를 포함할 수 있으며, 그림의 경우 동등한 측면은 물체의 모양과 색상이 될 수 있다.개별 단어를 기억하지 못하는 사람들은 때때로 단어의 추적의 물리적인 맞춤법에 인코딩된 모든 측면인 [4]첫 글자 또는 마지막 글자 또는 심지어 운율의 단어를 기억할 수 있다는 것이 실험적으로 보여졌다.항목을 시각적으로 표시하지 않더라도, 인코딩할 때, 항목의 시각적 표현에 기초하여 일부 물리적 측면을 가질 수 있다.
상황별
문맥적 속성은 항목의 표시와 동시에 발생하는 내부 및 외부 특성을 정의하는 광범위한 속성이다.내부 컨텍스트는 추적이 불러일으키는 내부 네트워크의 감각이다.[5]이것은 개인의 기분 측면에서부터 단어의 발현이 유발하는 다른 의미적 연관성에 이르기까지 다양할 수 있다.한편, 외부적인 맥락은 정보가 제시되고 있을 때 공간적, 시간적 측면에 관한 정보를 인코딩한다.예를 들어, 이것은 낮이나 날씨를 반영할 수 있다.공간 속성은 물리적 환경과 상상의 환경 모두를 나타낼 수 있다.상상적 공간적 위치를 통합한 니모닉 전략인 loci의 방식은 상대적 공간적 위치를 암기된 다른 항목에 할당하고 나서 이 할당된 위치를 '걸어서' 항목들을 기억하게 된다.
모달
모달리티 속성은 항목이 제시된 방법에 대한 정보를 가지고 있다.실험 환경에서 가장 빈번한 유형의 양식은 청각과 시각이다.모든 감각적 형식은 실질적으로 이용될 수 있다.
분류
이러한 속성은 제시된 항목의 분류를 의미한다.동일한 범주에 맞는 항목은 동일한 클래스 속성을 갖는다.예를 들어, 만약 "터치다운" 항목이 제시된다면, 그것은 "풋볼" 또는 더 일반적으로 "스포츠"의 중요한 개념을 환기시킬 것이고, 그것은 "엔드존"과 같은 개념에 맞는 다른 요소들과 클래스 속성을 공유할 것이다.단일 항목은 문맥과 같은 항목의 다른 속성에 따라 표시되는 시점에 다른 개념에 적합할 수 있다.예를 들어, "별"이라는 단어는 영화를 본 후 우주 박물관을 방문하거나 "연예인" 또는 "유명인"과 같은 단어를 가진 수업을 들른 후 천문학 수업에 빠질 수 있다.
수학적 공식화
추적의 수학적 공식화는 지속적으로 정보를 수신하고 속성의 벡터 형태로 통합하는 계속 성장하는 매트릭스로서의 기억의 모델을 가능하게 한다.다중 추적 이론은 태어나서 죽을 때까지 인코딩된 모든 항목이 이 매트릭스에 다중 추적으로 존재할 것이라고 말한다.이는 가능한 모든 속성에 인코딩된 대로 분류할 수 있는 약간의 숫자 값을 부여함으로써 이루어지기 때문에 인코딩된 각 메모리에는 고유한 숫자 속성 집합이 있을 것이다.
트레이스의 행렬 정의
가능한 모든 속성에 숫자 값을 할당함으로써 인코딩된 각 항목의 컬럼 벡터 표현을 구성하는 것이 편리하다.이 벡터 표현은 신경 네트워크와 같은 뇌의 계산 모델에 주입될 수도 있는데, 신경 네트워크는 입력 벡터적 "기억"으로 받아들여 뉴런을 통해 그들의 생물학적 인코딩을 시뮬레이션한다.
형식적으로, 가능한 모든 속성에 대한 숫자 할당을 통해 인코딩된 메모리를 나타낼 수 있다.동일한 맥락에서 동일한 색상을 가지거나 경험하는 것으로 인식되는 두 가지 항목의 색상과 문맥 속성을 나타내는 숫자는 비교적 근접할 것이다.개체를 볼 때마다 총 L 속성을 인코딩한다고 가정합시다.그런 다음, 메모리가 인코딩되면 열 벡터에 L 총 숫자 입력으로 m으로 기록할1 수 있다.
- .
L 속성의 하위 집합은 상황별 속성, 물리적 속성에 대한 하위 집합 등에 할당될 것이다.다중 추적 이론의 한 가지 기본적인 가정은, 우리가 다중 메모리를 구성할 때, 우리는 같은 순서로 속성을 구성한다는 것이다.따라서, 우리는 벡터2 m, m3, ...m을n 유사하게 정의하여 총 인코딩된 메모리 n개를 설명할 수 있다.다중 추적 이론은 이러한 기억들이 우리의 뇌에서 모여 개별 기억의 단순한 결합으로부터 기억 매트릭스를 형성한다고 말한다.
- begin{bmatrix}\mathbf {m_{1}} &\mathbf {m_{2}} &\mathbf {m_{3}} &\cdots &\mathbf {m_{n}} \end{bmatrix}}={\begin{bmatrix}m_{1}(1)&m_{2}(1)&m_{3}(1)&\cdots &m_{n}(1)\\m_{1}(2)&m_{2}(2)&m_{3}(2)&\cdots &m_{n}(2)\\\vdots &\vdots &\vdots &\vdots &\vdots \\m_{1}(L)&m_{2}(L)&m_{3}(L)&\cdots &m_{n}(L)\end{bmatrix}}} .
L 총 특성 및 총 메모리 n개의 경우, M은 L 행과 n개의 열을 갖는다.n개의 트레이스가 큰 메모리 매트릭스로 결합되지만, 각 트레이스는 이 매트릭스의 컬럼으로 개별적으로 접근할 수 있다는 점에 유의한다.
이 공식에서, n개의 다른 기억들은 서로 다소 독립적이 되도록 만들어진다.그러나 일부 설정에서 함께 표시되는 항목은 문맥 벡터의 유사성에 의해 접선적으로 연관될 것이다.여러 항목이 서로 연관되어 있고 의도적으로 그러한 방식으로 인코딩되는 경우, a 항목과 b 항목이라고 말하면 이 두 개에 대한 메모리를 구성할 수 있으며 각각은 다음과 같은 k 속성을 갖는다.
- .
확률 벡터로서의 컨텍스트
아이템이 차례로 학습될 때, 같은 시간적 맥락에서 학습된다고 하는 것은 유혹적이다.그러나 실제로는 문맥에 미묘한 차이가 있다.따라서 문맥 속성은 종종 확률적 프로세스에 의해 모델링된 것처럼 시간이 지남에 따라 변화하는 것으로 간주된다.[6]메모리 m의i 컨텍스트를 나타내는 r 총 컨텍스트 속성 t의i 벡터만 고려한다면, 다음 인코딩된 메모리의 컨텍스트는 ti+1:
그렇게
여기서 ε(j)는 가우스 분포에서 추출한 임의의 숫자다.
합계 유사성
후속 절에서 설명한 바와 같이, 다중 추적 이론의 특징은 어떤 프로브 항목을 인코딩된 기억의 기존 매트릭스와 비교할 수 있는 능력이다.이것은 메모리 검색 프로세스를 시뮬레이션하고, 여기서 인식 작업에서처럼 탐침을 이전에 본 적이 있는지 또는 탐침이 이전에 암호화된 또 다른 메모리를 제공하는지 여부를 확인할 수 있다.
첫째, 프로브 p는 속성 벡터로 인코딩된다.메모리 매트릭스 M의 앞의 예를 계속하여 프로브에는 다음과 같은 L 항목이 있다.
- =[ ( ) ( ) (L)
그런 다음 p와 각 m 사이의i 유클리드 거리를 결정하여 이 p를 M의 모든 기존 기억(추적)과 하나씩 비교한다.
- .
문맥의 확률적 특성 때문에, 프로브 항목이 암호화된 기억과 정확히 일치하는 것은 다중 추적 이론에서 거의 없다.그래도 p와 m의i 높은 유사성은 작은 유클리드 거리로 나타난다.따라서 먼 거리에서는 매우 낮은 유사도로 이어지고 작은 거리에서는 매우 높은 유사도로 이어지는 다른 연산을 수행해야 한다.선형 수술로는 유사도가 낮은 품목이 충분히 가혹하게 제거되지 않는다.직관적으로 지수 붕괴 모델이 가장 적합해 보인다.
여기서 τ은 실험적으로 할당할 수 있는 붕괴 매개변수다.이어서 프로브 p와 메모리 매트릭스 M: 사이의 총 유사성 SS(p,M)를 통해 전체 메모리 매트릭스와의 유사성을 정의할 수 있다.
- .
프로브 항목이 인코딩된 메모리 중 하나와 매우 유사할 경우 SS는 큰 부스트를 받는다.예를 들어, m을1 프로브 항목으로 지정하면 i=1에 대해 거의 0 거리(정확히 맥락에 기인하지 않음)를 얻을 수 있으며, 이는 SS에 가능한 거의 최대 부스트를 추가할 것이다.배경 유사성과 구별하기 위해(예: 맥락과 유사성이 항상 낮거나 몇 가지 속성이 있을 것이다), SS는 종종 어떤 임의의 기준과 비교된다.기준보다 높을 경우 인코딩된 항목 중에서 탐침을 고려한다.업무 성격과 허위 경보를 예방하고자 하는 욕구에 따라 기준이 달라질 수 있다.따라서, 다중 추적 이론은 어떤 큐를 주어, 뇌가 그 큐를 "이 큐가 이전에 경험했는가?" (인식) 또는 "이 큐가 어떤 기억을 이끌어 내는가?" (cued recallation)와 같은 질문에 대답하는 기준과 비교할 수 있다고 예측하는데, 이것은 아래에 기술된 총합된 유사성의 적용이다.
애플리케이션 대 메모리 현상
인식
다중 추적 이론은 인식을 위한 개념적 틀에 잘 들어맞는다.인식은 개인이 이전에 항목을 본 적이 있는지 여부를 판단하도록 요구한다.예를 들어, 얼굴 인식은 얼굴을 본 적이 있는지 여부를 결정하는 것이다.성공적으로 인코딩된 항목(실제로 이전에 본 적이 있는 항목)에 대해 이 질문을 했을 때 높은 확률로 인식이 이루어져야 한다.이 이론의 수학 체계에서, 우리는 기준과의 유사성을 합산하여 개별 탐사 항목 p의 인식을 모형화할 수 있다.우리는 테스트 항목을 암호화된 기억들에 대해 수행된 것과 같은 속성 벡터로 변환하고 지금까지 마주친 모든 추적과 비교한다.만약 총체적인 유사성이 기준을 통과한다면, 우리는 그 항목을 전에 본 적이 있다고 말한다.총 유사도는 항목이 보이지 않는 경우 매우 낮을 것으로 예상되지만, 탐색기의 속성이 메모리 매트릭스의 일부 메모리와 유사하기 때문에 나타난 경우 비교적 높을 것으로 예상된다.
이는 둘 이상의 항목에 대한 개별 항목 인식과 연관 인식 모두에 적용될 수 있다.
큐드 리콜
그 이론은 또한 부연 리콜을 설명할 수 있다.여기서, 기억에서 어떤 항목을 끌어내기 위한 어떤 큐가 주어진다.예를 들어, "미국의 초대 대통령은 누구였는가?"와 같은 사실적인 질문은 "조지 워싱턴"의 대답을 이끌어내기 위한 신호다.위에서 설명한 "ab" 프레임워크에서 우리는 큐에 존재하는 모든 속성을 취할 수 있고 리스트는 우리가ab m 메모리의 b 부분을 불러오려고 할 때 인코딩된 연결의 항목으로 간주할 수 있다.이 예에서 "첫째", "대통령", "미국"과 같은 속성이 결합되어 벡터를 형성하게 되는데, 이는 b 값이 "조지 워싱턴"을 암호화하는 mab 메모리에 이미 공식화되었을 것이다.a에 따라 b를 성공적으로 리콜할 수 있는 방법에는 두 가지 인기 모델이 있다.
1) 속성에 대한 기억의 모든 항목에 대한 유사성(합계 유사성이 아닌, 위 구별을 위해 참조)을 살펴보고, 그 다음, a에 대한 유사성이 가장 높은 메모리를 선택할 수 있다.어떤 b형 속성이던 간에 우리는 우리가 기억하는 것을 준다.mab 메모리는 그것의 요소들이 큐 a와 높은 유사성을 가질 것이기 때문에 회수할 수 있는 가장 좋은 기회를 준다.그래도 리콜이 항상 일어나는 것은 아니기 때문에 유사성이 리콜의 기준을 통과해야 전혀 발생할 수 있다고 말할 수 있다.이것은 IBM 기계 왓슨이 작동하는 방식과 비슷하다.여기서 유사성은 a와 m의ab a형 속성만 비교한다.
2) 확률론적 선택 규칙을 사용하여 유사성에 비례하는 항목의 회수 확률을 결정할 수 있다.이것은 큐 아이템과 더 큰 유사성으로 대표되는 더 큰 영역을 가진 다트보드에 다트를 던지는 것과 비슷하다.수학적으로 말하면, 큐 a를 주어진다면, 원하는 메모리ab m을 떠올릴 확률은 다음과 같다.
유사성과 종합 유사성 모두를 계산할 때, 우리는 a-type 속성들 사이의 관계만을 고려한다.오차항이 없으면 M의 어떤 메모리라도 회수할 확률은 1이 되겠지만, 확실히 리콜이 전혀 발생하지 않는 경우가 있기 때문에 우리는 오차항을 덧붙인다.
기타 일반적인 결과 설명
그 중에서도 반복, 단어 빈도, 재귀, 망각, 지속성과 관련된 기억 속의 현상들은 다중 추적 이론의 영역에서 쉽게 설명될 수 있다.아이템에 반복적으로 노출되면 기억력이 좋아지는 것으로 알려져 있다.예를 들어, 목록에서 단어를 여러 번 듣는 것은 나중에 그 단어에 대한 인식과 기억력을 향상시킬 것이다.이는 반복 노출이 계속 증가하는 기억 매트릭스에 단순히 메모리를 추가하기 때문에 이 기억의 총 유사성이 더 커져서 기준을 통과할 가능성이 더 높아지기 때문이다.
인식상 매우 일반적인 단어들은 시험했을 때, 희귀한 단어보다 암기된 목록의 일부로서 인식하기가 더 어렵다.이것은 '주파수 효과'라는 단어로 알려져 있으며 다중 추적 이론으로도 설명할 수 있다.공통어들의 경우, 그 단어가 일생 동안 여러 번 마주치고 기억 매트릭스에서 암호화되었을 가능성이 높기 때문에, 그 단어가 리스트에서 보였든 아니든, 요약된 유사성은 비교적 높을 것이다.따라서 뇌는 일반적으로 일반적인 단어가 목록의 일부인지 여부를 판단할 때 더 높은 기준을 선택하기 때문에 성공적인 선택을 어렵게 한다.그러나, 더 희귀한 단어들은 일반적으로 평생에 걸쳐 덜 접하게 되므로 기억 매트릭스에서 그 존재는 제한적이다.따라서 전체적으로 합계가 낮은 유사성은 보다 느슨한 기준으로 이어질 것이다.만약 그 단어가 리스트에 존재한다면, 시험 당시 높은 문맥 유사성과 다른 속성 유사성은 과거 기준을 능가하는 요약 유사성으로 충분히 증가시킬 것이고 따라서 희귀한 단어를 성공적으로 인식하게 될 것이다.
연속적인 위치 효과의 후퇴는 설명될 수 있다. 왜냐하면 인코딩된 더 최근의 기억은 현재의 맥락과 가장 유사한 시간적 맥락을 공유하기 때문이다. 시간의 확률적 성질이 뚜렷한 효과를 가지지 못했을 것이기 때문이다.따라서 최근에 인코딩된 항목의 경우 문맥 유사성이 높기 때문에 이러한 항목의 경우 전체적인 유사성이 상대적으로 더 높을 것이다.확률적인 문맥적 표류 역시 기억을 인코딩한 문맥이 시간이 지남에 따라 손실되기 때문에, 따라서 그 문맥에서만 표시되는 항목의 유사성이 시간이 지남에 따라 감소하기 때문에 망각의 원인이 되는 것으로 생각된다.[7][8]
마지막으로, 경험적 데이터는 연속성 효과를 보여주었는데, 위에서 설명한 "ab" 패러다임에서처럼 일시적으로 함께 표시되는 항목은 단일 메모리로 인코딩되지 않을 수 있더라도 함께 기억될 가능성이 더 높다.이것은 함께 기억되는 항목들 사이의 낮은 문맥적 편차의 결과라고 볼 수 있으므로, 함께 제시되는 두 항목 사이의 문맥적 유사성이 높다.
단점
다중 추적 이론의 가장 큰 단점 중 하나는 성공적인 인코딩을 결정할 때 메모리 매트릭스를 비교해야 하는 일부 항목의 요구사항이다.위에서 언급했듯이, 이것은 인식과 리콜에서 꽤 잘 작동하지만, 모델에 무료 리콜을 통합하는 데 현저한 무능성이 있다.무료 리콜은 개인이 몇 가지 항목 목록을 자유롭게 기억하도록 요구한다.리콜을 요구하는 바로 그 행위가 계량된 리콜 기법을 이끌어낼 수 있는 신호로 작용할 수 있지만, 요약된 유사성 기준에 도달하거나 그렇지 않으면 리콜의 높은 확률을 달성할 수 있을 만큼 그 신호가 고유할 가능성은 낮다.
또 다른 주요 쟁점은 모델을 생물학적 관련성으로 변환하는 것이다.뇌가 이처럼 큰 기억의 매트릭스를 추적하고 지금까지 제시된 모든 항목으로 그것을 계속 확장할 수 있는 무한한 능력을 가지고 있다는 것은 상상하기 어렵다.더욱이, 이 매트릭스를 통한 검색은 생물학적 시간 척도와 관련이 없는 철저한 과정이다.[9]
참고 항목
참조
- ^ Semon, RW (1923). Mnemonic psychology. London: George Allen & Unwin.
- ^ Underwood, BJ (1969). "Some correlates of item repetition in free-recall learning". Journal of Verbal Learning and Verbal Behavior. 8: 83–94. doi:10.1016/s0022-5371(69)80015-0.
- ^ Hintzman, DL; Block RA (1971). "Repetition and memory: Evidence for a multiple trace hypothesis". Journal of Experimental Psychology. 88 (3): 297–306. doi:10.1037/h0030907.
- ^ Brown, R; Mcneil D (1966). "The "tip of the tongue" phenomenon". Journal of Verbal Learning and Verbal Behavior. 5 (4): 325–337. doi:10.1016/s0022-5371(66)80040-3.
- ^ Bower, GH (1967). "A multicomponent theory of the memory trace". The Psychology of Learning and Motivation: Advances in Research and Theory. Psychology of Learning and Motivation. 1: 229–325. doi:10.1016/s0079-7421(08)60515-0. ISBN 9780125433013.
- ^ Estes, WK (1959). Component and pattern models with markovian interpretations. studies in mathematical learning theory. Stanford, CA: Stanford University Press.
- ^ Robinson, ES (1932). Association theory to-day; an essay in systematic psychology. New York: The Century Co.
- ^ Karpicke, JD; Roediger HL (2007). "Repeated retrieval during learning is the key to long-term retention". Journal of Memory and Language. 57: 151–162. doi:10.1016/j.jml.2006.09.004.
- ^ Burrows, D; Okada R (1975). "Memory retrieval from short and long lists". Science. 188: 1031–1033. doi:10.1126/science.188.4192.1031.