두뇌 읽기

Brain-reading

판독 또는 사고 식별은 원래의 자극을 해독하기 위해 자극에 의해 유발된 뇌의 여러 복셀의 반응을 사용하고 fMRI에 의해 검출된다.연구의 발전은 사람의 뇌 [1]활동에 대한 비침습적 측정에 기초한 사람의 의식 경험을 해독하기 위해 인간의 신경 영상을 사용함으로써 이것을 가능하게 했다.뇌 판독 연구는 사용된 복호화 유형(즉, 분류, 식별 및 재구성), 대상(즉, 시각적 패턴, 청각적 패턴, 인지 상태) 및 사용된 복호화 알고리즘(선형 분류, 비선형 분류, 직접 재구성, 베이지안 재구성 등)에 따라 다르다.

2007년 신경심리학자인 바바라 사하키안 교수는 "이 분야의 많은 신경과학자들은 매우 조심스럽고 개인의 마음을 읽는 것에 대해 말할 수 없다고 말합니다. 하지만 지금 우리는 매우 빠르게 나아가고 있습니다. 누군가가 이야기를 지어내고 있는지, 혹은 이야기를 만들어 내는지에 대해 말할 수 있을 때까지 오래 걸리지 않을 것입니다.어느 정도 [2]확실하게 범죄를 저지르려고 했던 사람이 있다."


적용들

자연스러운 이미지

복잡한 자연 영상의 식별은 초기전방 시각 피질 영역(시각 영역 V3A, V3B, V4 및 측면 후두부)에서 베이지안 추론과 함께 복셀을 사용하여 가능하다.이 뇌 판독 접근법은 세 가지 [3]구성 요소를 사용한다: 초기 시각 영역의 반응을 특징짓는 구조 부호화 모델, 전방 시각 영역의 반응을 특징짓는 의미 부호화 모델, 그리고 구조[3]의미 장면 통계의 분포를 설명하는 베이지안 이전.

실험적으로 그 절차는 실험 대상자들이 그들의 뇌에서 복셀 활성화와 관련된 1750개의 흑백 자연 이미지를 보는 것이다.그런 다음 피실험자는 120개의 새로운 표적 이미지를 보고 이전 스캔의 정보를 사용하여 재구성합니다.해변의 카페와 항구의 사진, 무대 위의 연주자, 울창한 [3]단풍 등 자연 그대로의 이미지가 사용됩니다.

2008년 IBM은 인간의 뇌에서 얼굴의 정신적 이미지를 추출하는 방법에 대한 특허를 출원했다.얼굴 [4]인식 정도에 비례해 활성화되는 뇌의 방추상 회 부위를 측정한 피드백 루프를 이용한다.

2011년 니시모토 신지(西本新吉)가 이끄는 팀은 지원자들이 보고 있는 것을 부분적으로 재현하기 위해 뇌 기록만을 사용했다.연구원들은 지원자들이 여러 개의 비디오에서 동영상을 보는 동안 인간의 뇌에서 움직이는 물체 정보가 어떻게 처리되는지에 대한 새로운 모델을 적용했다.알고리즘은 가장 [5][6]유사한 클립을 선택하기 위해 수천 시간의 외부 유튜브 비디오 영상(지원자들이 본 비디오와 동일하지 않음)을 검색했다.저자들은 시청한 [7][8]비디오와 컴퓨터로 추정된 비디오를 비교하는 데모를 업로드했다.

거짓말 탐지기

거짓말 [9]탐지의 한 형태로 거짓말 탐지기계의 대안으로 뇌 판독이 제안되어 왔다.거짓말 탐지기계의 또 다른 대안은 혈중 산소 농도 의존 기능 MRI 기술(BOLD fMRI)입니다.이 기술은 뇌의 산소화된 헤모글로빈 농도의 국소적인 변화를 해석하는 것을 포함하지만, 이 혈류와 신경 활동 사이의 관계는 아직 완전히 [9]이해되지 않았습니다.숨겨진 정보를 찾는 또 다른 기술은 뇌 지문 채취로, P300 이벤트와 [10]관련된 가능성을 확인함으로써 EEG를 사용하여 사람이 특정한 기억이나 정보를 가지고 있는지 확인합니다.

이러한 목적을 위한 뇌 판독의 정확성과 윤리적 함의에 대한 많은 우려가 제기되어 왔다.실험실 연구는 최대 85%의 정확성을 발견했다. 그러나 비범죄 집단에서 잘못된 양성 결과에 대해 이것이 무엇을 의미하는지에 대한 우려가 있다: "검사 대상 그룹에서 "사전 양성자"의 유병률이 낮으면, 테스트는 진실 양성 결과보다 훨씬 더 많은 거짓 양성자를 산출할 것이다; 약 5명 중 1명이 나타날 것이다.테스트에서 [9]잘못 식별되었습니다."뇌 판독을 거짓말 탐지로 사용하는 것과 관련된 윤리적 문제로는 기술의 신뢰성과 타당성을 제대로 평가하기 전에 기술의 채택에 따른 잘못된 적용과 기술에 대한 오해, 개인의 개인적인 [9]생각에 대한 전례 없는 접근으로 인한 사생활 문제 등이 있다.그러나 거짓말 탐지의 사용은 결과의[9] 신뢰성과 사생활 [11]침해에 대해 유사한 우려를 가지고 있다는 점에 주목했다.

휴먼 머신 인터페이스

Emotiv Epoc은 사용자가 생각만으로 기기에 명령을 내릴 수 있는 한 가지 방법입니다.

뇌 판독은 또한 인간의 관련 뇌 상태를 감지하기 [12]위해 EEG를 사용하여 인간-기계 인터페이스를 개선하는 방법으로 제안되었다.최근 뇌파 판독 관련 기술에 대한 특허가 2009-2012년 400건 미만에서 [13]2014년 1600건으로 급증하고 있습니다.여기에는 뇌파를 통해 비디오 게임을 제어하는 방법이나 신제품이나 광고에 대한 누군가의 생각을 결정하는 "뉴로 마케팅"이 포함된다.

호주의 전자 회사인 Emotiv Systems는 다양한 명령에 대한 사용자의 사고 패턴을 인식하도록 훈련할 수 있는 헤드셋을 시연했다.Tan Le는 화면상의 가상 물체를 조작하는 헤드셋의 능력을 시연하고 휠체어 구동에서 마우스와 [14]키보드의 교체까지 이러한 뇌-컴퓨터 인터페이스 장치의 향후 다양한 응용 분야에 대해 논의했다.

주목의 검출

fMRI [15]신호에서 두 가지 형태의 라이벌 쌍안경 착시 중 어떤 것을 주관적으로 경험했는지 추적할 수 있다.

인간이 드라이버와 같은 물체를 생각할 때, 뇌의 많은 다른 부분들이 활성화된다.Marcel Just와 그의 동료 Tom Mitchell은 fMRI 뇌 스캔을 사용하여 특정 [16]생각과 관련된 뇌의 다양한 부분을 식별하도록 컴퓨터를 가르쳤다.이 기술은 또한 발견을 낳았습니다: 다른 인간의 뇌에서 비슷한 생각은 신경학적으로 놀라울 정도로 유사합니다.이를 설명하기 위해 Just와 Mitchell은 컴퓨터를 사용하여 fMRI 데이터만을 기반으로 자원봉사자가 생각하고 있는 여러 이미지 중 어떤 것을 예측했습니다.컴퓨터는 100% 정확했지만, 지금까지 그 기계는 10개의 [16]이미지만 구별하고 있었다.

생각의 검출

사람이 자유롭게 회상하는 사건의 카테고리는 그들이 [17]기억한 것을 말하기 전에 fMRI에서 확인할 수 있다.

2015년 12월 16일, 규슈 공업대학의 야마자키 도시마사에 의한 연구에 의하면, 가위바위보 게임중에 컴퓨터는 피험자가 손을 움직이기 전에 내린 선택을 결정할 수 있었다.EEG는 단어가 발음되기 [18][19][20]2초 전에 단어를 보기 위해 브로카 지역의 활동을 측정하기 위해 사용되었다.

검출 언어

EEG 뇌파의 통계적 분석은 [21]음소를 인식할 수 있도록 하며 색상과 시각적 형태의 단어를 60~[22]75% 수준으로 인식하도록 한다.

2012년 1월 31일 브라이언 패슬리와 캘리포니아 버클리 대학의 동료들은 피험자의 에서 [23]직접 전기 신호를 수집하고 분석함으로써 청각 정보에 대한 피험자의 내부 신경 처리를 해독하고 컴퓨터로 재구성한 그들의 논문을 PLoS 생물학에 발표했다.연구팀은 청각 [24]정보로부터 의미를 이해하는 고차 신경 처리에 관여하는 뇌의 부위인 상측두회(superior temporal gyrus)에 대한 연구를 수행했다.연구팀은 청각 신호를 처리하는 동안 신경 발사에 관여할 수 있는 뇌의 다양한 부분을 분석하기 위해 컴퓨터 모델을 사용했다.계산 모델을 사용하여, 과학자들은 실험 대상자들이 개별 [25]단어에 대한 기록을 제시했을 때 청각 정보를 처리하는 것과 관련된 뇌 활동을 확인할 수 있었다.나중에, 청각 정보 처리의 컴퓨터 모델이 피험자의 신경 처리를 기반으로 일부 단어들을 다시 소리로 재구성하는 데 사용되었다.그러나 재구성된 음성은 품질이 좋지 않아 재구성된 음의 오디오 파형이 [25]피험자에게 제시된 원음의 오디오 파형과 시각적으로 일치해야만 인식할 수 있었다.그러나 이 연구는 인지에서 신경 활동의 더 정확한 식별을 향한 방향을 나타낸다.

의도 예측

2008년 일부 연구자들은 실험 대상자가 왼손으로 버튼을 누를지 오른손으로 누를지를 60%의 정확도로 예측할 수 있었다.이것은 단지 정확도가 우연보다 더 낫다는 점뿐만 아니라 과학자들이 실험 대상자가 결정을 [26]내렸다고 느끼기 훨씬 전인 10초 전에 이러한 예측을 할 수 있었기 때문에 주목할 만하다.이 데이터는 이동의 결정과 마지막 순간에 [27]이동을 취소할 수 있는 능력이 무의식적인 [28]처리의 결과일 수 있다는 다른 연구에 비추어 볼 때 훨씬 더 놀랍습니다.

John Dylan-Haynes는 또한 fMRI를 사용하여 자원봉사자가 [16]머릿속에서 두 숫자를 더하거나 빼려고 하는지 확인할 수 있다는 것을 증명했다.

뇌의 예측 처리

신경 해독 기술은 예측 에 대한 이론을 테스트하고 하향식 예측이 시각 피질 같은 뇌 영역에 어떻게 영향을 미치는지 조사하기 위해 사용되어 왔다.fMRI 디코딩 기술을 사용한 연구는 예측 가능한 감각[29] 이벤트와 우리의 행동의[30] 예상 결과가 시각적인 뇌 영역에서 더 잘 해독된다는 것을 발견했고, 이는 예측이 기대와 일치하는 '선명한' 표현을 제안합니다.

가상 환경

또한 복잡한 가상 [31]환경에서도 뇌 판독이 가능한 것으로 나타났습니다.

감정들

Just와 Mitchell은 또한 그들이 [16]뇌의 친절, 위선, 그리고 사랑을 식별하기 시작했다고 주장한다.

보안.

2013년 캘리포니아 버클리 대학의 John Chuang 교수가 이끄는 프로젝트는 암호 대신 뇌파 기반 컴퓨터 인증의 실현 가능성에 대한 연구 결과를 발표했다.컴퓨터 인증을 위한 생체 인식의 사용은 1980년대 이후 지속적으로 개선되어 왔지만, 이 연구팀은 오늘날의 망막 스캔, 지문 채취, 음성 인식보다 빠르고 덜 침입적인 방법을 찾고 있었다.보안 대책을 개선하기 위해 선택된 기술은 암호를 "패스 생각"으로 개선하기 위해 뇌파 측정기, 즉 뇌파 측정기입니다.Chuang과 그의 팀은 이 방법을 사용하여 작업 및 인증 임계값을 커스터마이즈하여 오류율을 1% 미만으로 줄일 수 있었으며, 이는 최근의 다른 방법보다 훨씬 우수했습니다.이 새로운 형태의 보안에 사용자를 더 잘 끌어들이기 위해 팀은 뇌파를 식별하면서 사용자가 수행할 수 있는 정신적인 작업을 계속 연구하고 있습니다.미래에는 이 방법이 [32]생각만큼 저렴하고 쉽게 접근할 수 있으며 간단할 수 있습니다.

John-Dylan Haynes는 fMRI가 뇌에서 인식되는 것을 확인하는 데에도 사용될 수 있다고 말한다.그는 범죄 현장을 인지하는지 아니면 [16]흉기를 살해했는지에 대해 심문받는 범죄자의 예를 제시한다.

분석 방법

분류

분류에서 여러 복셀에 걸친 활동 패턴은 자극이 [33]도출된 특정 클래스를 결정하기 위해 사용된다.많은 연구가 시각적 자극을 분류했지만, 이 접근법은 인지 [citation needed]상태를 분류하는 데도 사용되었다.

재구축

재구성 뇌 판독의 목적은 제시된 이미지의 문자 그대로의 그림을 만드는 것입니다.초기 연구에서는 초기 시각 피질 영역(V1, V2, V3)의 복셀을 사용하여 깜박이는 체커보드 [34][35]패턴으로 구성된 기하학적 자극을 재구성했습니다.

뇌파

EEG는 P300 이벤트 관련 잠재력에 의한 특정 정보 또는 기억의 인식을 확인하는 데에도 사용되었으며, 이는 '뇌 지문 채취'[36]로 불린다.

정확성.

데이터의 품질과 복호화 알고리즘의 복잡성이 향상됨에 따라 뇌 판독 정확도는 꾸준히 증가하고 있습니다.최근 한 실험에서 [37]120개 세트에서 어떤 단일 이미지가 보이는지 식별할 수 있었습니다.또 다른 사례에서는 자극이 두 가지 범주 중 어떤 범주와 대상 이미지의 특정 의미 범주(23개 중)[3] 중 시간의 90%를 정확하게 식별할 수 있었다.

제한 사항

지금까지는 뇌 판독이 제한적이라는 것이 지적되어 왔다."실제로, fMRI에 의해 획득된 뇌 활동 신호에 기초하여 어떤 재구성 알고리즘으로도 정확한 재구성을 달성하는 것은 불가능합니다.이는 모든 재구성이 부호화 모델의 부정확성과 측정된 신호의 노이즈로 인해 제한될 수밖에 없기 때문입니다.우리의[who?] 결과는 이전의 자연 이미지가 이러한 근본적인 제한의 영향을 완화하기 위한 강력한 도구라는 것을 보여준다.6백만 개의 영상만 있는 자연 영상으로 구성하면 대상 영상과 구조적으로나 의미적으로 유사한 재구성을 생성하기에 충분합니다."[3]

윤리적 문제

스캔 기술이 점점 더 정확해짐에 따라, 전문가들은 이 기술이 언제 어떻게 사용되어야 하는지에 대한 중요한 논쟁을 예측하고 있다.적용 가능한 한 영역은 형법이다.Haynes는 단순히 용의자에 대한 뇌 스캔 사용을 거부하는 것 또한 잘못 기소된 사람들이 [2]무죄를 입증하는 것을 막는다고 말한다.미국 학자들은 일반적으로 비자발적인 뇌 판독과 비자발적인 거짓말 탐지기 검사가 수정헌법 제5조의 자기 유죄를 [38][39]입증하지 않을 권리를 침해할 것이라고 믿는다.한 가지 관점은 뇌 이미지가 증언과 같은지, 또는 대신에 DNA, 혈액, 정액과 같은지를 고려하는 것이다.애틀랜타에 있는 에모리 대학의 윤리 센터의 폴 루트 울프 소장은 이 문제가 대법원 [40]판례에 의해 결정될 것이라고 예측했다.

미국 이외의 다른 나라에서는 사상 식별이 형법에 이미 사용되고 있다.2008년 한 인도 여성은 뇌파검사에서 전 약혼녀의 [40]독살과 관련된 상황을 잘 알고 있다고 밝혀져 살인죄로 유죄 판결을 받았다.일부 신경과학자들과 법률학자들은 기만과 [41]뇌의 본질에 대한 과거 연구에 대해 전체적으로 사고 식별을 사용하는 것의 타당성을 의심한다.

이코노미스트는 사람들에게 미래의 영향을 "두려워하라"고 경고했고, 일부 윤리학자들은 사생활 보호법이 사적인 생각을 보호해야 한다고 주장한다.법학자 행크 그릴리는 법원 시스템이 그러한 기술로부터 이익을 얻을 수 있다고 주장하며, 신경윤리학자 줄리안 새불레스쿠는 뇌 데이터는 다른 유형의 [42]증거와 근본적으로 다르지 않다고 말한다.Nature에서 저널리스트 Liam Drew는 뇌 판독 장치를 음성 신시사이저나 다른 출력 장치에 부착하는 새로운 프로젝트에 대해 쓰고 있다.이러한 장치들은 단지 의식적인 [43]말이 아닌 환자의 "내적 생각"을 실수로 방송할 수 있는 우려를 야기할 수 있다.

역사

사고 식별에 사용할 수 있는 MRI 스캐너

심리학자 존-다일런 헤인스는 2006년 fMRI를 사용하여 뇌 영상 연구에서 획기적인 발견을 경험했다.이 연구는 시각적 물체 인식, 동적 정신 과정 추적, 거짓말 탐지, 무의식 처리 해독에 대한 새로운 발견을 포함했다.이 네 가지 발견의 조합은 헤인스가 "뇌 판독"[1]이라고 부를 정도로 개인의 생각에 대한 상당한 양의 정보를 밝혀냈다.

fMRI는 뇌의 혈류를 측정함으로써 개인의 뇌 활동을 추적할 수 있기 때문에 연구가 상당히 확대될 수 있게 해 주었다.그것은 현재 뇌 활동을 측정하는 가장 좋은 방법이라고 생각되고 있으며, 이것이 의사와 심리학자들이 어떻게 [44]생각을 식별할 수 있는지에 대한 이해를 향상시키기 위해 여러 연구 실험에서 사용되어 온 이유이다.

2020년 연구에서 이식된 전극을 사용하는 AI는 [45]참가자당 40분의 훈련 데이터가 주어지면 50문장 테스트 세트의 97%를 읽어낸 문장을 정확하게 전사할 수 있었다.

장래의 연구

전문가들은 생각 식별이 얼마나 확대될 수 있을지에 대해서는 확신하지 못하지만, Marcel Just는 2014년 3-5년 안에 '나는 그 어떤 것이 싫다'[40]와 같은 복잡한 생각을 읽을 수 있는 기계가 나올 것이라고 믿었다.

MMT의 설립자이자 최고 과학 책임자인 Donald Marks는 이미 녹음된 [46]후 개인의 생각을 재생하기 위해 노력하고 있습니다.

캘리포니아 버클리 대학의 연구원들은 이미 쥐의 기억을 형성하고, 지우고, 다시 활성화시키는 데 성공했다.Marks는 그들이 같은 기술을 인간에게 적용하기 위해 노력하고 있다고 말한다. 발견은 PTSD를 [46]앓고 있는 참전용사들에게 기념비적인 것이 될 수 있다.

범죄자를 탐지하기 위한 비디오 게임 중의 뇌 활동을 분석하고, 신경 마킹을 하고, 정부 보안 [40][44]검사에서 뇌 스캔을 사용하는 추가적인 연구도 이루어지고 있다.

대중문화에서

2010년 3월 15일 방영된 미국 의학 드라마 하우스의 에피소드 블랙홀은 환자의 서브카운터를 볼 수 있는 실험적인 "인지 영상" 장치를 특징으로 했다.뇌파기능성 근적외선 분광기처럼 생긴 신경영상 장치에 부착된 영상을 보면서 신경영상 분류기를 훈련시키는 동안 환자는 먼저 6시간의 준비 단계에 들어갔다.그 후 환자는 황혼마취를 받았고, 환자의 마음을 추측하기 위해 같은 장치를 사용했습니다.허구의 에피소드는 다음 해에 발표된 니시모토 등의 연구를 어느 정도 예측하고 대신 [5][6][7][8]fMRI를 사용했다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b Haynes, John-Dylan; Geraint, Rees (1 July 2006). "Decoding mental states from brain activity in humans". Nature Reviews. Retrieved 8 December 2014.
  2. ^ a b Sample, Ian (9 February 2007). "The brain scan that can read people's intentions". The Guardian.
  3. ^ a b c d e Naselaris, Thomas; Prenger, Ryan J.; Kay, Kendrick N.; Oliver, Michael; Gallant, Jack L. (2009). "Bayesian Reconstruction of Natural Images from Human Brain Activity". Neuron. 63 (6): 902–15. doi:10.1016/j.neuron.2009.09.006. PMC 5553889. PMID 19778517.
  4. ^ "IBM Patent Application US 2010/0049076: Retrieving mental images of faces from the human brain" (PDF). 25 February 2010.
  5. ^ a b Nishimoto, Shinji; Vu, An T.; Naselaris, Thomas; Benjamini, Yuval; Yu, Bin; Gallant, Jack L. (2011), "Reconstructing Visual Experiences from Brain Activity Evoked by Natural Movies", Current Biology, 21 (19): 1641–1646, doi:10.1016/j.cub.2011.08.031, PMC 3326357, PMID 21945275
  6. ^ a b "Breakthrough Could Enable Others to Watch Your Dreams and Memories [Video], Philip Yam". Archived from the original on 6 May 2017. Retrieved 6 May 2021.
  7. ^ a b 니시모토 외 2011년 동영상 1 인간의 두뇌 활동을 재현한 동영상을 유튜브에 올렸습니다.
  8. ^ a b 니시모토 외 2011년 비디오 2 인간의 뇌 활동을 재구성한 영화 3개 피사체 '니시모토.etal.2011.3' 업로드Subjects.mpeg"를 클릭해 주세요.
  9. ^ a b c d e Wolpe, P. R.; Foster, K. R. & Langleben, D. D. (2005). "Emerging neurotechnologies for lie-detection: promises and perils". The American Journal of Bioethics. 5 (2): 39–49. CiteSeerX 10.1.1.728.9280. doi:10.1080/15265160590923367. PMID 16036700. S2CID 219640810.
  10. ^ Farwell, Lawrence A.; Richardson, Drew C.; Richardson, Graham M. (5 December 2012). "Brain fingerprinting field studies comparing P300-MERMER and P300 brainwave responses in the detection of concealed information". Cognitive Neurodynamics. 7 (4): 263–299. doi:10.1007/s11571-012-9230-0. PMC 3713201. PMID 23869200.
  11. ^ Arstila, V. & Scott, F. (2011). "Brain Reading and Mental Privacy" (PDF). TRAMES: A Journal of the Humanities & Social Sciences. 15 (2): 204–212. doi:10.3176/tr.2011.2.08.
  12. ^ Kirchner, E. A.; Kim, S. K.; Straube, S.; Seeland, A.; Wöhrle, H.; Krell, M. M.; Tabie, M.; Fahle, M. (2013). "On the Applicability of Brain Reading for Predictive Human–Machine Interfaces in Robotics". PLOS ONE. 8 (12): e81732. doi:10.1371/journal.pone.0081732. PMC 3864841. PMID 24358125.
  13. ^ "Surge in U.S. 'brain-reading' patents". BBC News. 7 May 2015.
  14. ^ Le, Tan (2010). "A headset that reads your brainwaves". TEDGlobal.
  15. ^ Haynes, J; Rees, G (2005). "Predicting the Stream of Consciousness from Activity in Human Visual Cortex". Current Biology. 15 (14): 1301–7. doi:10.1016/j.cub.2005.06.026. PMID 16051174. S2CID 6456352.
  16. ^ a b c d e "'60 Minutes' video: Tech that reads your mind". CNET News. 5 January 2009.
  17. ^ Polyn, S. M.; Natu, VS; Cohen, JD; Norman, KA (2005). "Category-Specific Cortical Activity Precedes Retrieval During Memory Search". Science. 310 (5756): 1963–6. doi:10.1126/science.1117645. PMID 16373577.
  18. ^ "Silent Speech BCI - An investigation for practical problems". IEICE Technical Committee. 16 December 2015. Retrieved 17 January 2016.
  19. ^ Danigelis, Alyssa (7 January 2016). "Mind-Reading Computer Knows What You're About to Say". Discovery News. Retrieved 17 January 2016.
  20. ^ "頭の中の言葉 解読 障害者と意思疎通、ロボット操作も 九工大・山崎教授ら" (in Japanese). Nishinippon Shimbun. 4 January 2016. Archived from the original on 17 January 2016. Retrieved 17 January 2016.
  21. ^ Suppes, Patrick; Perreau-Guimaraes, Marcos; Wong, Dik Kin (2009). "Partial Orders of Similarity Differences Invariant Between EEG-Recorded Brain and Perceptual Representations of Language". Neural Computation. 21 (11): 3228–69. doi:10.1162/neco.2009.04-08-764. PMID 19686069. S2CID 18097705.
  22. ^ Suppes, Patrick; Han, Bing; Epelboim, Julie; Lu, Zhong-Lin (1999). "Invariance of brain-wave representations of simple visual images and their names". Proceedings of the National Academy of Sciences of the United States of America. 96 (25): 14658–63. doi:10.1073/pnas.96.25.14658. PMC 24492. PMID 10588761.
  23. ^ Pasley, BN; David, SV; Mesgarani, N; Flinker, A; Shamma, SA; et al. (2012). "Reconstructing Speech from Human Auditory Cortex". PLOS Biol. 10 (1): e1001251. doi:10.1371/journal.pbio.1001251. PMC 3269422. PMID 22303281.
  24. ^ Palmer, Jason (31 January 2012). "Science decodes 'internal voices'". BBC News.
  25. ^ a b "Secrets of the inner voice unlocked". NHS. 1 February 2012. Archived from the original on 3 February 2012.
  26. ^ Soon, C.; Brass, M.; Heinze, H.; Haynes, J. (2008). "Unconscious determinants of free decisions in the human brain". Nature Neuroscience. 11 (5): 543–545. CiteSeerX 10.1.1.520.2204. doi:10.1038/nn.2112. PMID 18408715. S2CID 2652613.
  27. ^ Kühn, S.; Brass, M. (2009). "Retrospective construction of the judgment of free choice". Consciousness and Cognition. 18 (1): 12–21. doi:10.1016/j.concog.2008.09.007. PMID 18952468. S2CID 9086887.
  28. ^ Matsuhashi, M.; Hallett, M. (2008). "The timing of the conscious intention to move". European Journal of Neuroscience. 28 (11): 2344–2351. doi:10.1111/j.1460-9568.2008.06525.x. PMC 4747633. PMID 19046374.
  29. ^ Kok, Peter; Jehee, Janneke; de Lange, Floris (2012). "Less Is More: Expectation Sharpens Representations in the Primary Visual Cortex". Neuron. 75 (2): 265–270. doi:10.1016/j.neuron.2012.04.034. ISSN 0896-6273. PMID 22841311.
  30. ^ Yon, Daniel; Gilbert, Sam J.; de Lange, Floris P.; Press, Clare (2018). "Action sharpens sensory representations of expected outcomes". Nature Communications. 9 (1): 4288. doi:10.1038/s41467-018-06752-7. ISSN 2041-1723. PMC 6191413. PMID 30327503.
  31. ^ Chu, Carlton; Ni, Yizhao; Tan, Geoffrey; Saunders, Craig J.; Ashburner, John (2010). "Kernel regression for fMRI pattern prediction". NeuroImage. 56 (2): 662–673. doi:10.1016/j.neuroimage.2010.03.058. PMC 3084459. PMID 20348000.
  32. ^ "New Research: Computers That Can Identify You by Your Thoughts". UC Berkeley School of Information. UC Berkeley. 3 April 2013. Retrieved 8 December 2014.
  33. ^ Kamitani, Yukiyasu; Tong, Frank (2005). "Decoding the visual and subjective contents of the human brain". Nature Neuroscience. 8 (5): 679–85. doi:10.1038/nn1444. PMC 1808230. PMID 15852014.
  34. ^ Miyawaki, Y; Uchida, H; Yamashita, O; Sato, M; Morito, Y; Tanabe, H; Sadato, N; Kamitani, Y (2008). "Visual Image Reconstruction from Human Brain Activity using a Combination of Multiscale Local Image Decoders". Neuron. 60 (5): 915–29. doi:10.1016/j.neuron.2008.11.004. PMID 19081384. S2CID 17327816.
  35. ^ Thirion, Bertrand; Duchesnay, Edouard; Hubbard, Edward; Dubois, Jessica; Poline, Jean-Baptiste; Lebihan, Denis; Dehaene, Stanislas (2006). "Inverse retinotopy: Inferring the visual content of images from brain activation patterns". NeuroImage. 33 (4): 1104–16. doi:10.1016/j.neuroimage.2006.06.062. PMID 17029988. S2CID 13361917.
  36. ^ Farwell, Lawrence A.; Richardson, Drew C.; Richardson, Graham M. (5 December 2012). "Brain fingerprinting field studies comparing P300-MERMER and P300 brainwave responses in the detection of concealed information". Cognitive Neurodynamics. Springer. 7 (4): 263–299. doi:10.1007/s11571-012-9230-0. ISSN 1871-4080.
  37. ^ Kay, Kendrick N.; Naselaris, Thomas; Prenger, Ryan J.; Gallant, Jack L. (2008). "Identifying natural images from human brain activity". Nature. 452 (7185): 352–5. doi:10.1038/nature06713. PMC 3556484. PMID 18322462.
  38. ^ Allen, Ronald J.; Mace, M. Kristin (Winter 2004). "The Self-Incrimination Clause Explained and Its Future Predicted". The Journal of Criminal Law and Criminology. Elsevier. 94 (2). doi:10.2139/ssrn.480143.
  39. ^ Brennan-Marquez, Kiel (2012). "A modest defense of mind reading". Yale Journal of Law & Technology. Yale University. p. 214. Ronald Allen and Kristen Mace discern 'universal agreement' that the (Mind Reader Machine) is unacceptable.
  40. ^ a b c d "How Technology May Soon "Read" Your Mind". CBS News. 31 December 2008. Retrieved 8 December 2014.
  41. ^ Stix, Gary (1 August 2008). "Can fMRI Really Tell If You're Lying?". Scientific American. Retrieved 8 December 2014.
  42. ^ Smith, Kerri (24 October 2013). "Brain decoding: Reading minds". Nature News. 502 (7472): 428–430. doi:10.1038/502428a. PMID 24153277.
  43. ^ Drew, Liam (24 July 2019). "The ethics of brain–computer interfaces". Nature. 571 (7766): S19–S21. doi:10.1038/d41586-019-02214-2. PMID 31341310.
  44. ^ a b Saenz, Aaron (17 March 2010). "fMRI Reads the Images in Your Brain – We Know What You're Looking At". SingularityHUB. Singularity University. Retrieved 8 December 2014.
  45. ^ Davis, Nicola (30 March 2020). "Scientists develop AI that can turn brain activity into text". The Guardian. Retrieved 31 March 2020.
  46. ^ a b Cuthbertson, Anthony (29 August 2014). "Mind Reader: Meet The Man Who Records and Stores Your Thoughts, Dreams and Memories". International Business Times. Retrieved 8 December 2014.

외부 링크