자기 조직 지도

Self-organizing map

자기조직화(SOM) 또는 자기조직화 피쳐 맵(SOFM)은 데이터의 토폴로지 구조를 유지하면서 고차원 데이터 세트를 저차원(일반적으로 2차원)으로 표현하기 위해 사용되는 비지도 기계 학습 기술입니다.예를 들어 의 \n 에서 측정된 pp 변수가 있는 세트는 변수에 대해 유사한 값을 가진 관측치 군집으로 표현될 수 있다.그러면 이러한 군집을 2차원 "지도"로 시각화하여 근위부 군집의 관측치가 원위부 군집의 관측치보다 더 유사한 값을 가질 수 있습니다.이를 통해 고차원 데이터를 보다 쉽게 시각화하고 분석할 수 있습니다.

SOM은 인공 신경망의 한 종류이지만 다른 인공 신경망에 의해 사용되는 오류 수정 학습(예: 경사 강하전파)이 아닌 경쟁 학습을 사용하여 훈련된다.SOM은 1980년대 핀란드인 Teuvo Kohonen 교수가 도입했기 때문에 Kohonen 지도 또는 Kohonen [1][2]네트워크로 불리기도 한다.코호넨 지도 또는 네트워크는 1970년대[3] 신경계의 생물학적 모델과 1950년대 [4]앨런 튜링으로 거슬러 올라가는 형태 형성 모델을 기반으로 계산적으로 편리한 추상화 건물이다.

미국 의회의 투표 패턴을 보여주는 자기 조직적 지도입니다.입력 데이터는 각 국회의원에 대한 행과 각 의원의 찬성/반대/반대 투표가 포함된 특정 투표에 대한 열이 있는 표였다.SOM 알고리즘은 이러한 부재를 2차원 그리드에 배치하여 유사한 부재를 서로 가깝게 배치했다. 번째 그림에서는 데이터가 두 군집으로 분할될 때의 그룹화를 보여 줍니다.두 번째 그림에서는 이웃에 대한 평균 거리를 보여 줍니다. 거리가 클수록 더 어둡습니다.세 번째 그림은 공화당(빨간색) 또는 민주당(파란색) 당적을 예측한다.다른 플롯은 각각 입력 차원에 예측값으로 결과 지도를 겹칩니다.빨간색은 해당 법안에 대한 예측된 '찬성' 투표를 의미하고 파란색은 '반대' 투표를 의미합니다.줄거리는 시냅스에서 만들어졌다.

개요

자기조직 지도는 대부분의 인공신경망과 마찬가지로 훈련과 지도 작성의 두 가지 모드로 동작합니다.첫째, 훈련은 입력 데이터 세트('입력 공간')를 사용하여 입력 데이터('지도 공간')의 저차원적 표현을 생성한다.둘째, 매핑은 생성된 맵을 사용하여 추가 입력 데이터를 분류합니다.

대부분의 경우 훈련의 목표는 p차원의 입력공간을 2차원의 지도공간으로 표현하는 것입니다.구체적으로는 변수가 p개인 입력공간은 p차원을 갖는다고 한다.지도 공간은 "노드" 또는 "뉴론"이라고 불리는 구성요소로 구성되며, 2차원의 [5]육각형 또는 직사각형 그리드로 배열됩니다.노드의 수와 배열은 데이터의 분석과 탐구의 더 큰 목표에 기초하여 미리 지정된다.

맵 공간 내의 각 노드는 입력 공간 내의 노드 위치인 "무게" 벡터에 관련지어진다.지도 공간의 노드가 고정된 상태를 유지하는 동안, 훈련은 지도 공간에서 유도된 토폴로지를 망치지 않고 입력 데이터를 향해 무게 벡터를 이동하는 것(유클리드 거리 의 거리 메트릭 감소)으로 구성됩니다.훈련 후 맵은 입력 공간 벡터에 가장 가까운 무게 벡터(최소 거리 메트릭)를 가진 노드를 찾아 입력 공간에 대한 추가 관측치를 분류하기 위해 사용할 수 있다.

학습 알고리즘

자기조직화 맵에서의 학습의 목적은 네트워크의 다른 부분이 특정 입력 패턴에 동일하게 응답하도록 하는 것입니다.이것은 부분적으로 시각, 청각 또는 다른 감각 정보가 인간의 [6]에서 대뇌 피질의 분리된 부분에서 어떻게 처리되는지에 의해 동기 부여된다.

자기 조직 지도의 트레이닝을 나타내는 그림.파란색 블롭은 교육 데이터의 분포이며, 작은 흰색 디스크는 해당 분포에서 도출된 현재 교육 데이터입니다.먼저(왼쪽) SOM 노드가 데이터 공간에 임의로 배치됩니다.교육 데이터에 가장 가까운 노드(노란색으로 강조 표시)가 선택됩니다.그리드의 인접 라우터가 (적어도) 그리드에 있기 때문에, 트레이닝 데이텀 쪽으로 이동한다.여러 번 반복하면 그리드는 데이터 분포에 근접하는 경향이 있습니다(오른쪽).

뉴런의 가중치는 작은 랜덤 값으로 초기화되거나 가장 큰 두 주성분 고유 벡터에 의해 확장된 부분 공간에서 균등하게 샘플링됩니다.후자의 대안에서는 초기 체중은 이미 SOM 체중의 [7]근사치를 제공하기 때문에 학습 속도가 훨씬 빠르다.

매핑 중에 예상되는 벡터의 종류를 가능한 한 가깝게 나타내는 다수의 예제 벡터를 네트워크에 공급해야 합니다.이러한 예는 보통 반복으로 여러 번 관리됩니다.

이 트레이닝에서는, 경쟁력 있는 학습을 활용합니다.훈련 예가 네트워크에 공급될 때, 모든 무게 벡터에 대한 유클리드 거리가 계산됩니다.무게 벡터가 입력과 가장 유사한 뉴런을 최적 매칭 단위(BMU)라고 합니다.SOM 그리드에서 BMU와 BMU에 가까운 뉴런의 무게는 입력 벡터를 향해 조정된다.변화의 크기는 시간과 BMU로부터의 그리드 거리에 따라 감소한다. 무게 벡터v W(s)를 가진 뉴런 v에 대한 업데이트 공식은

thetacdot W_{

여기서 s는 단계 지수, t는 훈련 샘플에 대한 지수, u는 입력 벡터 D(t)에 대한 BMU의 지수, α(s)는 단조로운 감소 학습 계수, β(u, v, s)는 단계 [8]s에서 뉴런 u와 뉴런 v 사이의 거리를 제공하는 근린 함수이다.구현에 따라 훈련 데이터 세트를 체계적으로 스캔할 수 있습니다(t는 0, 1, 2...).T-1을 반복한 후, T가 훈련 샘플의 크기이며, 데이터 세트에서 무작위로 추출되거나(부트스트랩 샘플링), 또는 다른 샘플링 방법(잭나이핑 등)을 구현합니다.

근린 함수 δ(u, v, s)(가로방향 상호작용 함수라고도 함)는 BMU(neuron u)와 뉴런 v 사이의 그리드 거리에 따라 달라진다.가장 간단한 형태에서는 BMU에 충분히 가까운 모든 뉴런에 대해 1이고 다른 뉴런에 대해서는 0이지만, 가우스 및 멕시코[9] 모자 함수도 일반적인 선택입니다.기능 형태에 관계없이 네이버 함수는 시간이 [6]지남에 따라 축소됩니다.처음에는 동네가 넓으면 자기조직화도 글로벌 규모로 이뤄진다.주변이 단지 몇 개의 뉴런으로 줄어들었을 때, 무게는 지역 추정치로 수렴되고 있습니다.일부 구현에서는 학습 계수 α와 근린 함수가 s의 증가와 함께 꾸준히 감소하며, 다른 구현에서는 (특히 t가 훈련 데이터 세트를 스캔하는) 단계적 방식으로 T 단계마다 감소한다.

2차원 데이터 세트에 대한 SOM 훈련 프로세스

이 처리는 (통상 큰) 사이클 수 µ 동안 각 입력 벡터에 대해 반복됩니다.네트워크는 출력 노드를 입력 데이터 세트의 그룹 또는 패턴과 관련짓습니다.이러한 패턴에 이름을 붙일 수 있는 경우는, 트레이닝 끝난 넷내의 관련 붙여진 노드에 이름을 붙일 수 있습니다.

매핑하는 동안, 하나의 이기는 뉴런이 있을 것입니다: 무게 벡터가 입력 벡터에 가장 가까운 곳에 있는 뉴런입니다.이것은 입력 벡터와 무게 벡터 사이의 유클리드 거리를 계산함으로써 간단히 결정될 수 있다.

입력 데이터를 벡터로서 나타내는 것에 중점을 두고 있지만, 디지털로 표현할 수 있고, 적절한 거리 측정이 관련지어져 있으며, 트레이닝에 필요한 조작이 가능한 어떠한 오브젝트도 자기 조직화 맵을 작성하는데 사용할 수 있다.여기에는 행렬, 연속 함수 또는 기타 자기 조직화 맵이 포함됩니다.

변수

필요한 변수는 다음과 같습니다. 굵은 글씨로 표시된 벡터는

  • s는 현재 반복입니다.
  • \displayda 반복 제한입니다.
  • {\ t는 입력 데이터 D {\의 타깃 입력 데이터 벡터의 인덱스입니다
  • {(는) 타겟 입력 데이터 벡터입니다.
  • v는 맵 내 노드의 인덱스입니다.
  • v \ 노드의 현재 벡터입니다.
  • uu는 맵에서 가장 적합한 유닛(BMU)의 입니다.
  • (, ,s ){ display \, v ,s )는 BMU로부터의 거리에 의한 구속으로, 보통 근린 함수라고 .
  • α() { )는 반복 진행으로 인한 학습 제한입니다.

알고리즘.

  1. 맵에서 노드 무게 벡터를 랜덤화합니다.
  2. 입력 D () {를 랜덤으로 선택합니다.
  3. 지도의 각 노드를 이동합니다.
    1. 유클리드 거리 공식을 사용하여 입력 벡터와 지도 노드의 가중치 벡터 사이의 유사성 찾기
    2. 가장 짧은 거리를 생성하는 노드를 추적합니다(이 노드는 가장 적합한 유닛(BMU)입니다).
  4. BMU 인근 노드(BMU 자체 포함)를 입력 벡터에 더 가깝게 당겨 가중치 벡터를 업데이트합니다.
  5. s를 늘려 s s 동안 부터 반복합니다.

대체 알고리즘

  1. 지도 노드의 가중치 벡터 랜덤화
  2. 입력 데이터 세트의 각 입력 벡터 이동
    1. 지도의 각 노드를 이동합니다.
      1. 유클리드 거리 공식을 사용하여 입력 벡터와 지도 노드의 가중치 벡터 사이의 유사성 찾기
      2. 가장 짧은 거리를 생성하는 노드를 추적합니다(이 노드는 가장 적합한 유닛(BMU)입니다).
    2. BMU 인근 노드(BMU 자체 포함)를 입력 벡터에 가깝게 당겨 업데이트합니다.
  3. s를 늘려 s s 동안 부터 반복합니다.

초기화 옵션

최종 체중의 좋은 근사치로 초기 체중을 선택하는 것은 자기 조직 지도를 포함한 인공 신경망의 모든 반복 방법에 대해 잘 알려진 문제이다.Kohonen은 원래 [10]무게의 무작위 개시를 제안했다. (이 접근방식은 위에서 설명한 알고리즘에 의해 반영된다.)최근에는 결과의 [11]정확한 재현성 때문에 첫 번째 주성분 공간에서 초기 지도 가중치를 선택하는 주성분 초기화가 인기를 끌고 있다.

그러나 1차원 맵에 대한 주성분 초기화와 랜덤 초기화를 주의 깊게 비교한 결과 주성분 초기화의 장점이 보편적이지 않은 것으로 나타났습니다.최적의 초기화 방법은 특정 데이터 세트의 형상에 따라 달라집니다.데이터 세트에 근사한 주 곡선이 첫 번째 주성분(사각형 세트)에 비가치와 선형으로 투영될 수 있을 때 주성분 초기화가 선호되었다.그러나 비선형 데이터 세트의 경우 랜덤 시작이 [12]더 잘 수행되었습니다.

해석

Wikipedia의 주요 기사 데이터(단어 빈도)를 기반으로 한 자기 조직 지도(U-Matrix)의 지도 표시.거리는 유사성에 반비례합니다."산"은 클러스터 사이의 가장자리입니다.빨간 선은 기사 사이의 링크입니다.
데이터 근사치를 위한 1차원 SOM 대 주성분 분석(PCA)입니다.SOM은 정사각형, 20개의 노드가 있는 빨간색 파선입니다.첫 번째 주성분은 파란색 선으로 표시됩니다.데이터 점은 작은 회색 원입니다.PCA의 경우 이 예에서 설명되지 않은 분산 비율은 23.23%, SOM의 경우 6.86%[13]입니다.

SOM을 해석하는 방법에는 두 가지가 있습니다.전체 이웃의 훈련 단계 체중은 같은 방향으로 이동하기 때문에, 유사한 항목은 인접한 뉴런을 자극하는 경향이 있다.따라서 SOM은 유사한 샘플이 서로 밀접하게 매핑되고 서로 다른 샘플이 서로 다른 의미 맵을 형성합니다.이는 [14][15][16]SOM의 U-Matrix(주변 세포의 무게 벡터 사이의 유클리드 거리)에 의해 시각화될 수 있다.

또 다른 방법은 입력 공간에 대한 포인터로서 신경 체중을 생각하는 것입니다.이들은 교육 표본 분포의 이산적 근사치를 형성한다.더 많은 뉴런이 훈련 샘플 농도가 높은 지역을 가리키고 샘플이 부족한 지역은 더 적습니다.

SOM은 주성분 분석(PCA)[17]의 비선형 일반화로 간주될 수 있습니다.인공 및 실제 지구물리학 데이터를 모두 사용하여 SOM은 경험적 직교 함수(EOF) 또는 PCA와 같은 기존 특징 추출 방법보다 많은 이점을[18][19] 가지고 있는 것으로 나타났다.

원래 SOM은 최적화 문제에 대한 해결책으로 공식화되지 않았습니다.그럼에도 불구하고, SOM의 정의를 수정하고 유사한 [20]결과를 제공하는 최적화 문제를 공식화하려는 여러 시도가 있었다.를 들어 탄성 지도는 탄성의 기계적 은유를 사용하여 주요 [21]다지관에 근사합니다. 즉, 탄성 막과 판입니다.

피셔의 홍채꽃 데이터

n×m의 노드 배열에 대해 생각해 봅시다.노드는 각각 가중치 벡터를 포함하고 배열 내의 위치를 인식합니다.각 가중치 벡터는 노드의 입력 벡터와 동일한 차원을 가집니다.가중치는 처음에 랜덤 값으로 설정할 수 있습니다.

이제 지도에 입력이 필요합니다.색상은 빨간색, 녹색 및 파란색 구성요소로 나타낼 수 있습니다.따라서, 우리는 다음과 같이 생성되는 δ 이상의 자유 벡터 공간단위 큐브에서 색을 벡터로 나타낼 것이다.

R = <255, 0, 0>
G = <0, 255, 0>
B = <0, 0, 255>

표시된 그림은

U-Matrix를 사용하여 3가지 색상과 8가지 색상의 자기구성 지도(SOM)를 제작할 수 있습니다.

데이터[Note 1] 세트에 대한 교육 결과를 비교합니다.

3색 = [255, 0, 0], [0, 255, 0], [0, 0, 255]
8컬러 = [0, 0, 0], [0, 255, 0], [0, 255, 0], [0, 255, 0], [0, 255, 255], [255, 0, 255], [255, 255], [255, 255]

그리고 원본 이미지들.그 둘 사이의 현저한 유사성에 주목하라.

마찬가지로, 피셔의 홍채에서 학습률이 0.1인 40×40의 뉴런 그리드를 250회 반복 훈련한 후, 지도는 이미 종 간의 주요 차이를 감지할 수 있다.

U-Matrix를 사용한 Fisher's Iris Flower 데이터 세트의 SOM(자기 구성 지도)입니다.왼쪽 위: 4차원 SOM 무게 벡터의 처음 3차원으로 형성된 컬러 이미지.오른쪽 위: SOM 무게 벡터의 크기를 나타내는 의사 색상의 이미지.왼쪽 아래: SOM의 U-Matrix(주변 세포의 무게 벡터 사이의 유클리드 거리).오른쪽 아래: 데이터 포인트 오버레이(빨간색: I. setosa, 녹색: I. verscolor, 파란색:데이터 벡터와 SOM 무게 벡터 사이의 최소 유클리드 거리에 기초한 U-Matrix의 I. 버진리카).

다른.

  • 프로젝트의 우선순위 부여 및 선택
  • 석유 및 가스 탐사를 위한 지진면 분석
  • 고장 모드 및 영향 분석[24]
  • 아트워크의 작성
  • 대규모 데이터 집합에서 대표 데이터 찾기(예: 생태계를 [26]위한 대표 종, 에너지 시스템[27] 모델의 대표 일).

대체 수단

  • Generative Topographic Map(GTM; 생성형 지형도)은 SOM의 대체 수단일 가능성이 있습니다.GTM은 입력공간에서 맵공간으로의 매끄럽고 연속적인 매핑을 명시적으로 필요로 한다는 점에서 토폴로지 보존입니다.그러나 실질적인 의미에서 이 위상 보존 척도는 부족하다.[28]
  • Time Adaptive Self-Organizing Map(TASOM; 시간적응형 자기조직지도) 네트워크는 기본 SOM의 확장입니다.TASOM은 적응형 학습 속도 및 주변 기능을 사용합니다.또한 네트워크를 입력 공간의 스케일링, 변환 및 회전에 불변하게 하는 스케일링 파라미터도 포함되어 있습니다.TASOM 및 TASOM의 변형은 적응형 클러스터링, 다단계 임계값 설정, 입력 공간 근사 및 활성 등고선 [29]모델링을 포함한 여러 애플리케이션에서 사용되어 왔습니다.또한, 레벨의 수와 노드 [30]수가 환경에 적응할 수 있는 TASOM 네트워크로 구성된 노드를 가진 바이너리 자연 트리와 유사한 바이너리 트리 TASOM 또는 BTASOM이 제안되었다.
  • Growing Self-organizing Map(GSOM; 자기조직화 맵)은 자기조직화 맵의 변종입니다.GSOM은 SOM에서 적절한 지도 크기를 식별하는 문제를 해결하기 위해 개발되었습니다.최소 노드 수(보통 4개)로 시작하여 휴리스틱을 기반으로 경계에서 새로운 노드를 성장시킵니다.데이터 분석가는 확산률이라는 값을 사용하여 GSOM의 성장을 제어할 수 있습니다.
  • 탄성 지도[31] 접근법탄성 에너지의 최소화에 대한 아이디어를 스플라인 보간으로부터 차용한다.학습에서는 최소 제곱 근사 오차로 2차 굽힘 및 스트레칭 에너지의 합을 최소화합니다.
  • 컨포멀 매핑을 사용하여 연속 표면의 그리드 노드 간에 각 훈련 샘플을 보간하는 컨포멀 접근법.이 방법에서는 1대 1의 매끄러운 매핑이 가능합니다.
  • Oriented and Scalable Map(OS-Map)은 네이버 기능과 당첨자 선택을 [34]일반화합니다.동종 가우스 근린 함수는 행렬 지수 함수로 대체됩니다.따라서 지도 공간 또는 데이터 공간에서 방향을 지정할 수 있습니다.SOM은 고정된 척도(=1)를 가지므로 지도는 "관찰 영역을 기술한다".하지만 도메인을 두 번 또는 n번으로 묶은 지도는 어떨까요?여기에는 스케일링 개념이 수반됩니다.OS-Map에서는 척도를 지도에 입력된 최적의 노드 수에 대한 통계적 설명으로 간주합니다.

「 」를 참조해 주세요.

메모들

  1. ^ 이러한 데이터 세트는 정규화되지 않았습니다.SOM을 훈련시키려면 정상화가 필요합니다.

레퍼런스

  1. ^ Kohonen, Teuvo; Honkela, Timo (2007). "Kohonen Network". Scholarpedia. 2 (1): 1568. Bibcode:2007SchpJ...2.1568K. doi:10.4249/scholarpedia.1568.
  2. ^ Kohonen, Teuvo (1982). "Self-Organized Formation of Topologically Correct Feature Maps". Biological Cybernetics. 43 (1): 59–69. doi:10.1007/bf00337288. S2CID 206775459.
  3. ^ Von der Malsburg, C (1973). "Self-organization of orientation sensitive cells in the striate cortex". Kybernetik. 14 (2): 85–100. doi:10.1007/bf00288907. PMID 4786750. S2CID 3351573.
  4. ^ Turing, Alan (1952). "The chemical basis of morphogenesis". Phil. Trans. R. Soc. 237 (641): 37–72. Bibcode:1952RSPTB.237...37T. doi:10.1098/rstb.1952.0012.
  5. ^ Jaakko Hollmen (9 March 1996). "Self-Organizing Map (SOM)". Aalto University.
  6. ^ a b Haykin, Simon (1999). "9. Self-organizing maps". Neural networks - A comprehensive foundation (2nd ed.). Prentice-Hall. ISBN 978-0-13-908385-3.
  7. ^ Kohonen, Teuvo (2005). "Intro to SOM". SOM Toolbox. Retrieved 2006-06-18.
  8. ^ Kohonen, Teuvo; Honkela, Timo (2011). "Kohonen network". Scholarpedia. 2 (1): 1568. Bibcode:2007SchpJ...2.1568K. doi:10.4249/scholarpedia.1568. Retrieved 2012-09-24.
  9. ^ Vrieze, O.J. (1995). "Kohonen Network" (PDF). Artificial Neural Networks. Springer. Lecture Notes in Computer Science. Vol. 931. University of Limburg, Maastricht. pp. 83–100. doi:10.1007/BFb0027024. ISBN 978-3-540-59488-8. Retrieved 1 July 2020.
  10. ^ T. Kohonen, 자기 조직 및 연상 기억.1984년 베를린 스프링거.
  11. ^ A. 참피, Y.Lechevallier, 대규모 멀티 레벨 데이터 세트 클러스터링:Kohonen의 자기 조직 지도에 근거한 어프로치, D.A. Zeamed, J. Komorowski, J. Zytkow(Eds), PKDD 2000, Springer LNCS(LNAI), vol. 1910, 페이지 353-358, 2000.
  12. ^ Akinduko, A.A.; Mirkes, E.M.; Gorban, A.N. (2016). "SOM: Stochastic initialization versus principal components". Information Sciences. 364–365: 213–221. doi:10.1016/j.ins.2015.10.013.
  13. ^ 그림은 무료 소프트웨어를 사용하여 작성됩니다.Mirkes, Evgeny M.; 주요 컴포넌트 분석자기조직 지도: 애플릿, 레스터 대학교, 2011
  14. ^ Ultsch, Alfred; Siemon, H. Peter (1990). "Kohonen's Self Organizing Feature Maps for Exploratory Data Analysis". In Widrow, Bernard; Angeniol, Bernard (eds.). Proceedings of the International Neural Network Conference (INNC-90), Paris, France, July 9–13, 1990. Vol. 1. Dordrecht, Netherlands: Kluwer. pp. 305–308. ISBN 978-0-7923-0831-7.
  15. ^ Ultsch, Alfred(2003);U*-Matrix: 클러스터를 고차원 데이터로 시각화하는 도구, Marburg 대학 컴퓨터과학과, 기술 보고서 36:1-12호
  16. ^ 사닷두스트, 로밥, 알렉스 체 히앙 심, 그리고 호신 자파르카리미."고등교육 데이터를 기반으로 한 지식 발견을 위한 자기 조직 지도 적용"정보 시스템 연구 및 혁신(ICRIIS), 2011년 국제회의:IEEE, 2011.
  17. ^ Yin, Hujun; 자기 조직 지도를 통한 비선형 주요 다양체 학습, Gorban, Alexander N.; Kégl, Balazs; Wunsch, Donald C.; 및 Zinovyev, Andrei(Ed.); 컴퓨터 시각화 및 차원 축소를 위한 주요 다양체 학습, 노트,49-0
  18. ^ Liu, Yonggang; Weisberg, Robert H (2005). "Patterns of Ocean Current Variability on the West Florida Shelf Using the Self-Organizing Map". Journal of Geophysical Research. 110 (C6): C06003. Bibcode:2005JGRC..110.6003L. doi:10.1029/2004JC002786.
  19. ^ Liu, Yonggang; Weisberg, Robert H.; Mooers, Christopher N. K. (2006). "Performance Evaluation of the Self-Organizing Map for Feature Extraction". Journal of Geophysical Research. 111 (C5): C05018. Bibcode:2006JGRC..111.5018L. doi:10.1029/2005jc003117.
  20. ^ Heskes, Tom; Erkki, Oja 및 Kaski, Samuel(Eds), Elsevier, Kohonen Maps, 1999년 자기조직화 지도를 위한 에너지 함수
  21. ^ Gorban, Alexander N., Kégl, Balazz, Wunsch, Donald C. 및 Zinovyev, Andrei(Eds.); 데이터 시각화치수 축소를 위한 주요 다양체, 컴퓨터 과학 및 엔지니어링 강의 노트(LNCSE), 제58권, 베를린, 봄.
  22. ^ Jeng, G. and Vaishnavi, V. (2011년) "프로젝트 우선순위 부여선택을 위한 다차원 지각 지도 접근", 인간과 컴퓨터의 상호작용에 관한 AIS 트랜잭션 (3) 2, 페이지 82-103
  23. ^ Taner, M. T.; Walls, J. D.; Smith, M.; Taylor, G.; Carr, M. B.; Dumas, D. (2001). "Reservoir characterization by calibration of self‐organized map clusters". SEG Technical Program Expanded Abstracts 2001. Vol. 2001. pp. 1552–1555. doi:10.1190/1.1816406. S2CID 59155082.
  24. ^ Chang, Wui Lee; Pang, Lie Meng; Tay, Kai Meng (March 2017). "Application of Self-Organizing Map to Failure Modes and Effects Analysis Methodology" (PDF). Neurocomputing. PP: 314–320. doi:10.1016/j.neucom.2016.04.073.
  25. ^ ANNetGPU CUDA 라이브러리 (예: 1 )GPU 가속 이미지 작성
  26. ^ Park, Young-Seuk; Tison, Juliette; Lek, Sovan; Giraudel, Jean-Luc; Coste, Michel; Delmas, François (2006-11-01). "Application of a self-organizing map to select representative species in multivariate analysis: A case study determining diatom distribution patterns across France". Ecological Informatics. 4th International Conference on Ecological Informatics. 1 (3): 247–257. doi:10.1016/j.ecoinf.2006.03.005. ISSN 1574-9541.
  27. ^ Yilmaz, Hasan Ümitcan; Fouché, Edouard; Dengiz, Thomas; Krauß, Lucas; Keles, Dogan; Fichtner, Wolf (2019-04-01). "Reducing energy time series for energy system models via self-organizing maps". It - Information Technology. 61 (2–3): 125–133. doi:10.1515/itit-2019-0025. ISSN 2196-7032. S2CID 203160544.
  28. ^ Kaski, Samuel (1997). Data Exploration Using Self-Organizing Maps. Acta Polytechnica Scandinavica. Mathematics, Computing and Management in Engineering Series No. 82. Espoo, Finland: Finnish Academy of Technology. ISBN 978-952-5148-13-8.
  29. ^ Shah-Hosseini, Hamed; Safabakhsh, Reza (April 2003). "TASOM: A New Time Adaptive Self-Organizing Map". IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics. 33 (2): 271–282. doi:10.1109/tsmcb.2003.810442. PMID 18238177.
  30. ^ Shah-Hosseini, Hamed (May 2011). "Binary Tree Time Adaptive Self-Organizing Map". Neurocomputing. 74 (11): 1823–1839. doi:10.1016/j.neucom.2010.07.037.
  31. ^ A. N. 고반, A. 지노브예프, 분자 생물학에서 동적 시스템에 이르는 주요 다양체그래프, 국제 신경계 저널, 제20권, 제3호(2010) 219-232.
  32. ^ Liou, C.-Y.; Kuo, Y.-T. (2005). "Conformal Self-organizing Map for a Genus Zero Manifold". The Visual Computer. 21 (5): 340–353. doi:10.1007/s00371-005-0290-6. S2CID 8677589.
  33. ^ Liou, C.-Y.; Tai, W.-P. (2000). "Conformality in the self-organization network". Artificial Intelligence. 116 (1–2): 265–286. doi:10.1016/S0004-3702(99)00093-4.
  34. ^ Hua, H (2016). "Image and geometry processing with Oriented and Scalable Map". Neural Networks. 77: 1–6. doi:10.1016/j.neunet.2016.01.009. PMID 26897100.