This is a good article. Click here for more information.

음성생성장치

Speech-generating device
고인이 된 천체물리학자 겸 저명한 SGD 사용자인 스티븐 호킹은 2018년 3월 14일 76세의 나이로 세상을 떠났다.

음성 출력 통신 보조 도구로도 알려진 음성 생성 장치(SGD)는 심각한 음성 장애를 가진 개인에게 음성이나 쓰기를 보완하거나 대체하기 위해 사용되는 전자 증강대체 통신(AAC) 시스템이다.[1] SGD는 개인이 의사소통 상호작용에 능동적인 참여자가 될 수 있도록 하기 때문에 언어적 상호작용의 제한된 수단을 가진 사람들에게 중요하다. 그것들은 특히 근위축성 측경화증(ALS)을 앓고 있는 환자들에게 도움이 되지만, 최근에는 언어장애가 예측되는 어린이들을 위해 사용되고 있다.[2]

SGD를 사용할 수 있는 다양한 능력의 사용자들을 위한 입력 및 표시 방법이 몇 가지 있다. 일부 SGD는 많은 수의 발음을 수용하기 위해 여러 페이지의 기호를 가지고 있으며, 따라서 통신기가 다양한 페이지를 탐색하면서, 한 번에 사용 가능한 기호의 일부만 볼 수 있다. 음성 생성 장치는 디지털화된 자연 음성 녹음 또는 음성 합성을 통해 전자 음성 출력을 생성할 수 있다. 이 녹음기는 감정적인 정보는 덜 전달하지만 사용자가 새로운 메시지를 말할 수 있도록 허용할 수 있다.[3]

SGD에 있는 어휘의 내용, 구성 및 업데이트는 사용자의 요구와 기기가 사용될 컨텍스트와 같은 많은 요인에 의해 영향을 받는다.[4] 사용 가능한 어휘와 음성 생산 비율을 향상시키기 위한 기법의 개발은 활발한 연구 영역이다. 어휘 항목은 사용자에게 높은 관심을 가져야 하며, 자주 적용할 수 있어야 하며, 의미의 범위가 있어야 하며, 기능성에 실용적이어야 한다.[5]

특정 액세스 방법은 사용자의 기술과 능력에 따라 다르겠지만, 장치에서 직접 또는 간접적으로 메시지에 액세스하는 방법 또는 전문 액세스 장치를 사용하는 방법에는 여러 가지가 있다.[1] 속도 향상 전략이 사용자의 출력 속도를 증가시켜 통신 효율을 높일 수 있지만, SGD 출력은 일반적으로 음성보다 훨씬 느리다.[6]

최초의 알려진 SGD는 1970년대 중반에 프로토타입 제작되었고, 하드웨어소프트웨어 개발의 급속한 진전으로 이제 SGD 기능이 스마트폰과 같은 기기에 통합될 수 있게 되었다. 주목할 만한 SGD 사용자로는 스티븐 호킹, 로저 에버트, 토니 프라우드풋, 피트 프레이츠(ALS 아이스 버킷 챌린지 창시자) 등이 있다.

음성 생성 시스템은 AAC 전용으로 개발된 전용 장치 또는 AAC 장치로서 기능할 수 있도록 추가 소프트웨어를 실행하는 컴퓨터와 같은 비 전용 장치일 수 있다.[7][8]

역사

환자 작동 셀렉터 메커니즘(POSM 또는 PUSTUM)은 1960년대 초에 개발되었다.

SGD는 초기 전자 통신 보조 기구에 뿌리를 두고 있다. 그러한 첫 번째 원조는 1960년 영국에서 레지 말링에 의해 프로토타입화된 환자 작동 선택기 메커니즘(PAISUM)이라는 이름의 사이프 앤 퍼프 타이프라이터 컨트롤러였다.[9][10] 주머니쥐는 조명이 켜진 디스플레이의 기호 세트를 통해 스캔했다.[9] 네덜란드의 델프트 대학의 연구원들은 1970년에 광전지를 장착한 작은 빛의 지점을 문자 행렬에 가리키기 위해 머리의 작은 움직임을 이용해 각각 광전지를 장착한 광전지를 만들었다. 비록 상업적으로 성공하지는 못했지만, LOT는 사용자들에게 좋은 반응을 얻었다.[11]

1966년 케이스 웨스턴 리저브 대학의 공학부 1학년생 배리 로미치와 오하이오 주 클리블랜드의 하이랜드 뷰 병원의 엔지니어 에드 프렌츠케가 제휴를 맺어 프렌츠케 로미치 컴퍼니를 만들었다.[12] 1969년에는 폐기된 텔레타이프 기계를 기반으로 한 타이핑 시스템인 최초의 통신 장치를 생산하였다.

1970년대와 1980년대 초반에, 그 이후 SGD의 저명한 제조사가 된 몇몇 다른 회사들이 등장하기 시작했다. 토비 처칠은 뇌염에 이어 그의 연설을 잃어버린 후 1973년에 토비 처칠을 설립했다.[13] 미국에서는, Dynavox(당시 Sentient Systems Technology)가 뇌성마비를 앓고 있는 젊은 여성의 의사소통을 돕기 위해 1982년에 만들어진 카네기-멜론 대학의 학생 프로젝트에서 성장했다.[14] 1980년대부터 기술의 향상은 상용화된 통신장치의 수, 다양성, 성능의 대폭적인 증가와 그 크기와 가격의 하락으로 이어졌다. 표적 스캔(일명 아이 포인팅)과 같은 대체 접근 방법은 사용자가 원하는 음성 단계를 생성하기 위해 SGD를 지시하는 눈 이동을 보정한다. 사용자에게 순차적으로 대안이 제시되는 스캐닝이 통신기기에서 가능해졌다.[10][15] 음성 출력 가능성은 디지털화된 음성 및 합성 음성 모두를 포함했다.[10]

유럽공동체(European Community)가 후원하는 프로젝트를 포함해 하드웨어소프트웨어 개발의 급속한 진전은 계속되었다. 상용화된 최초의 동적 화면 음성 생성 장치는 1990년대에 개발되었다. 통신 보드의 컴퓨터 기반 생산을 가능하게 하는 소프트웨어 프로그램이 개발되었다.[10][15] 오늘날 첨단 기기 반면 접근성과 능력을 높이고 lighter,[15]은 점점 작아지;통신 장치 eye-tracking 시스템을 이용하여, 워드 프로세싱 및 인터넷 사용을 위해 컴퓨터으로서 경기를 액세스 할 수 있고, 계속해서 다른 장비에 텔레비전, 라디오, teleph 같은 독립적인 접근에 대한 환경 제어 장치로.한s.[16]

스티븐 호킹은 그의 특별한 합성 장비의 독특한 목소리와 연관되게 되었다. 호킹 박사는 ALS로 인한 심각한 장애와 응급 기관절개술로 인해 말을 할 수 없었다.[17] 지난 20여 년간 SGD는 자폐증, 다운증후군, 수술로 인한 뇌손상을 예측하는 등 언어장애가 있는 어린 아이들 사이에서 인기를 끌었다.

2000년대 초반부터 전문가들은 성인뿐만 아니라 어린이들에게도 SGD를 사용할 수 있다는 이점이 있다고 보았다. 신경언어학자들은 SGD가 ALS 환자들만큼 뇌수술을 받은 후 일시적인 언어결손의 위험에 처한 어린이들을 돕는데 효과적이라는 것을 발견했다. 특히 디지털화된 SGD는 회복 과정에서 소아환자의 의사소통 보조기구로 활용돼 왔다.

액세스 방법

기기에서 메시지에 액세스하는 방법에는 직간접적으로, 그리고 전문 액세스 기기로 접근하는 방법에는 여러 가지가 있다. 직접 액세스 방법에는 키보드나 터치 스크린을 사용하여 시스템과의 물리적 접촉이 포함된다. SGD에 간접적으로 또는 특수 장치를 통해 액세스하는 사용자는 조이스틱, 헤드 마우스, 광학 헤드 포인터, 라이트 포인터, 적외선 포인터 또는 스위치 액세스 스캐너와 같이 시스템에 액세스하기 위해 물체를 조작해야 한다.[1]

구체적인 접근 방법은 사용자의 기술과 능력에 따라 달라진다. 직접 선택으로 신체 부위, 포인터, 적응된 마우스, 조이스틱 또는 눈 추적을 사용할 수 있는 반면 스위치 접근 스캐닝은 종종 간접 선택으로 사용된다.[18][8][19] 직접 선택(예: 키보드 입력, 화면 터치)과 달리 대상 스캔 사용자는 전자 장치의 스캔 표시기(또는 커서)가 원하는 선택일 때만 선택할 수 있다.[20] 포인트를 줄 수 없는 사람들은 일반적으로 원하는 단어와 구를 선택하는 방법으로 눈시선을 가리키고 차단하는 방법으로 사용하기 위해 눈을 교정한다. 스캔 속도와 패턴은 아이템 선택 방법뿐만 아니라 사용자의 신체적, 시각적, 인지적 능력에 따라 개별화된다.[20]

메시지 구성

Dasher 요금 인상 프로그램의 스크린샷

일반적으로 사용자들은 분당 8-10단어를 생산하므로,[6] 증강 및 대체 통신은 일반적으로 음성보다 훨씬 느리다.[21] 요금 강화 전략은 사용자의 출력 속도를 분당 12~15단어 정도로 증가시킬 수 있으며,[21] 그 결과 통신 효율이 향상된다.

주어진 SGD에는 인사, 욕구 표현, 질문 등 효율적이고 효과적인 커뮤니케이션을 촉진하는 발성 표현이 많이 있을 수 있다.[22] 일부 SGD는 많은 수의 성대 표현을 수용하기 위해 여러 페이지의 기호를 가지고 있으며, 따라서 통신자가 다양한 페이지를 탐색하면서 한 번에 사용 가능한 기호의 일부만 볼 수 있다.[23] 음성 생성 장치는 일반적으로 동적으로 변화하는 화면 또는 고정 디스플레이를 사용하여 일련의 선택 사항을 표시한다.[24]

SGD의 통신 속도를 높이기 위한 두 가지 주요 옵션이 있다: 인코딩과 예측이다.[6]

인코딩은 사용자가 자신의 SGD를 하나 또는 두 개 활성화만 사용하여 단어, 문장 또는 구문을 만들 수 있도록 한다.[6] 시멘틱 컴팩트 같은 상징적 인코딩 전략은 아이콘(그림 기호)의 시퀀스를 결합하여 단어 또는 구를 만든다.[25] 숫자, 영숫자, 문자 부호화(일명 약어-Expansion)에서는 단어와 문장이 문자와 숫자의 시퀀스로 코딩된다. 예를 들어, "HH" 또는 "G1"(인사 1의 경우)을 입력하면 "안녕하십니까?"를 검색할 수 있다.[25]

예측은 사용자가 쓰고 있는 단어나 구를 예측해 SGD가 사용하는 키 입력 횟수를 줄이려고 시도하는 속도 향상 전략이다. 그러면 사용자는 전체 단어를 쓸 필요 없이 정확한 예측을 선택할 수 있다. 단어 예측 소프트웨어는 언어의 빈도, 다른 단어와의 연관성, 사용자의 과거 선택 또는 문법적 적합성에 기초하여 제공될 선택을 결정할 수 있다.[6][25][26] 그러나 사용자는 예측 그리드 레이아웃보다 정적 키보드 레이아웃으로 분당 단어 수(스캔 인터페이스 사용)를 더 많이 생성하는 것으로 나타나, 새로운 배열 검토의 인지 오버헤드가 스캐닝 인터페이스를 사용할 때 예측 레이아웃의 이점을 상쇄한다는 것을 시사한다.[27]

또 다른 요금 강화 접근법은 언어 모델산술 코딩을 사용하여 화면에 대체 문자 표적을 이력이 주어진 가능성에 비례하여 제시한다.[28][29][30]

단어 생성 속도는 시스템의 개념 수준에 크게 좌우될 수 있다: 사용자가 많은 수의 문장 수준 발언 중에서 선택할 수 있는 TOK 시스템이 60wpm을 초과하는 출력 속도를 보여주었다.[31]

고정 및 동적 디스플레이 장치

고정 디스플레이 장치

고정 디스플레이가 있는 음성 생성 장치

고정 디스플레이 장치는 기호와 항목이 특정 형식으로 "고정"되어 있는 것을 말하며, 일부 출처는 이를 "정적" 디스플레이라고 한다.[32] 그러한 디스플레이 장치는 다른 장치들보다 학습 곡선이 단순하다.

고정 디스플레이 장치는 통신 보드처럼 저기술 AAC 장치(저기술은 배터리, 전기 또는 전자 장치가 필요 없는 장치로 정의된다)의 일반적인 배치를 복제한다. 그들은 일부 단점을 공유한다. 예를 들어, 그것들은 일반적으로 제한된 수의 기호와 메시지로 제한된다.[24] 21세기에 만들어진 기술 진보와 함께 고정 디스플레이 SGD는 더 이상 일반적으로 사용되지 않는다는 점을 유념해야 한다.

동적 디스플레이 장치

다이내믹 디스플레이 장치도 대개 터치스크린 장치다. 이들은 일반적으로 전자적으로 생성된 시각적 기호를 생성하며, 이 기호를 누르면 표시되는 선택 항목 집합을 변경된다. 사용자는 페이지 링크를 사용하여 사용 가능한 기호를 변경하여 적절한 어휘 및 메시지로 이동할 수 있다.

합성 및 디지털화된 음성을 모두 출력할 수 있는 동적 디스플레이를 갖춘 음성 생성 장치

동적 표시장치의 "홈" 페이지는 다양한 상황이나 대화 주제와 관련된 기호를 표시할 수 있다. 이러한 기호 중 하나를 누르면 해당 주제와 관련된 메시지가 포함된 다른 화면이 열릴 수 있다.[24] 예를 들어, 배구 경기를 볼 때, 사용자는 "스포츠" 기호를 눌러 스포츠와 관련된 메시지가 있는 페이지를 연 다음, 스코어보드를 보여주는 기호를 눌러 "점수가 얼마인가?"라는 문구를 말할 수 있다.

동적 표시 장치의 장점은 다음과 같은데 훨씬 더 큰 어휘의 이용성, 그리고 그 역동적 표시 장치의 construction[22]추가적인 이점의 문이 볼 내부 운영 시스템 휴대 전화, 텍스트 메시지 및 전자 등 다양한 커뮤니케이션 채널들에 대한 옵션을 제공할 능력이 있다고.메일Linköping 대학의 연구는 그러한 이메일 쓰기 연습이 SGD 사용자였던 어린이들이 새로운 사회적 기술을 개발하고 사회 참여를 증가시킬 수 있도록 허용했다는 것을 보여주었다.[33][34]

말하는 키보드

텍스트에서 음성 변환기를 사용하여 전화기를 통해 음성 변환을 만드는 데 사용되는 키보드.

저비용 시스템은 또한 동적 디스플레이나 비주얼 스크린 없이 키보드와 오디오 스피커 조합을 포함할 수 있다. 이런 종류의 키보드는 입력된 텍스트를 오디오 스피커로 직접 보낸다. 그것은 항상 필요하지 않은 시각적 화면을 사용하지 않고도 어떤 구절도 말할 수 있게 할 수 있다. 한 가지 간단한 이점은, 말하는 키보드를 표준 전화나 스피커폰과 함께 사용할 경우, 음성 장애가 있는 개인이 전화를 통해 양방향 대화를 할 수 있게 할 수 있다는 것이다.[citation needed]

출력

SGD의 출력은 디지털화 및/또는 합성될 수 있다: 디지털화된 시스템은 직접 녹음된 단어나 구를 재생하는 반면 합성된 음성은 덜 감정적인 정보를 전달할 수 있지만 사용자가 새로운 단어를 입력하여 새로운 메시지를 말할 수 있도록 하는 텍스트 대 음성 소프트웨어를 사용한다.[35][36] 오늘날 개인들은 SGD에 녹음된 메시지와 텍스트 음성 변환 기법을 조합하여 사용하고 있다.[36] 그러나 일부 기기는 오직 한 가지 유형의 출력에만 국한된다.

디지털화 음성

간단한 스위치 작동식 음성 생성 장치

단어, 구문 또는 전체 메시지를 디지털화하여 사용자가 재생을 활성화할 수 있도록 기기에 저장할 수 있다.[1] 이 과정은 공식적으로 보이스 뱅킹으로 알려져 있다.[37] 녹음된 음성의 장점은 ⑴ 청취자에게 자연스러운[3] 운율과 언어의 자연스러움을 제공한다는 것(예: AAC 사용자와 동일한 연령과 성별을 가진 사람을 선택하여 메시지를 녹음할 수 있음)[3]과 ⑵ 웃거나 휘파람을 부는 등 사용자에게 중요할 수 있는 추가적인 소리를 제공한다는 것이다. 더욱이 디지털화된 SGD는 스스로 말하는 능력을 상실했을 때 환자와 가족 모두에게 어느 정도의 정상성을 제공한다는 것이다.

녹음된 음성만을 사용하는 것의 주요한 단점은 사용자가 새로운 메시지를 만들 수 없다는 것이다; 그것들은 기기에 미리 녹음된 메시지로 제한된다.[3][38] 단말기에 따라서는 녹음의 길이에 제한이 있을 수 있다.[3][38]

합성언어

합성 음성을 사용하는 SGD는 언어의 음성 규칙을 적용하여 사용자의 메시지를 음성 출력(음성 합성)으로 변환한다.[1][36] 사용자들은 참신한 단어와 메시지를 자유롭게 만들 수 있으며, 다른 사람들에 의해 자신의 기기에 미리 녹음된 것에 제한되지 않는다.[36]

스마트폰과 컴퓨터는 사용자가 선택한 음성과 언어로 말할 구문이나 메시지 목록에서 선택할 수 있는 앱의 창조를 통해 합성 음성 기기의 사용을 늘렸다. SpeakIt! 또는 어시시브 익스프레스 for iPhone과 같은 앱은 의사를 방문하거나 전문화된 기계를 사용하는 것을 배우지 않고도 음성 생성 장치를 사용할 수 있는 저렴한 방법을 제공한다.

합성된 SGD는 개별적으로 또는 조합하여 사용할 수 있는 여러 가지 메시지 생성 방법을 허용할 수 있다. 즉, 메시지는 문자, 단어, 구문, 문장, 그림 또는 기호로 생성될 수 있다.[1][38] 합성 음성으로 메모리 공간에 대한 요구가 거의 없는 메시지를 위한 사실상 무제한 저장 용량이 있다.[3]

합성 음성 엔진은 여러 언어로 사용할 수 있으며,[36][38] 음성 비율, 피치 범위, 성별, 스트레스 패턴, 일시 정지, 발음 예외 등 엔진의 파라미터는 사용자가 조작할 수 있다.[38]

키보드 텍스트 음성 변환 생성 장치

선택 집합 및 어휘

SGD 선택 세트는 해당 장치를 사용하는 사람이 사용할 수 있는 모든 메시지, 기호 및 코드 세트다.[39] 이 선택 세트의 내용, 구성 및 업데이트는 활발한 연구의 영역이며 사용자의 능력, 관심사 및 나이를 포함한 여러 요인에 의해 영향을 받는다.[4] AAC 시스템에 대해 설정된 선택 항목에는 사용자가 아직 모르는 단어가 포함될 수 있으며, 이는 사용자가 "자랄 수 있는" 단어가 포함된다.[4] 주어진 SGD에 설치된 콘텐츠는 사용자의 요구와 기기가 사용될 상황에 따라 사용자 또는 사용자 관리팀이 제작한 다수의 추가 페이지와 함께 제조업체가 제공하는 사전 설정 페이지를 포함할 수 있다.[4]

초기 내용 선택

연구자 Beukelman과 Mirenda는 SGD의 초기 콘텐츠 선택을 위해 가능한 많은 출처(예: 가족, 친구, 교사, 관리 직원)를 열거한다. 일반적으로 한 개인이 주어진 환경에서 필요한 모든 발성 표현을 생성하기 위한 지식과 경험을 가지고 있지 않기 때문에 다양한 출처가 필요하다.[4] 예를 들어, 부모들과 치료사들은 "속어"와 같은 속어 용어를 추가하는 것을 생각하지 않을 수도 있다.[40]

이전 연구에서는 일반적으로 개발되는 스피커의 어휘 사용과 새로운 AAC 기기의 콘텐츠를 생성하기 위한 AAC 사용자의 단어 사용을 모두 분석했다. 그러한 과정은 핵심적 발언이나 발성 표현을 생성하는데 효과가 있지만 특정 어휘가 필요한 상황(예: 사용자의 승마 관심사와 직접 관련된 용어)에서는 효과가 떨어진다. "프링어휘"란 개인의 개인적 관심사나 필요에 따라 구체적이거나 고유한 어휘를 말한다. 기기의 프린지 어휘를 개발하는 대표적인 기술은 형제자매, 부모, 교사, 동료 및 기타 관련자와 같은 복수의 "정보 제공자"와 인터뷰를 수행하는 것이다.[4]

머셀화이트와 세인트와 같은 다른 연구자들 Louis는 초기 어휘 항목은 사용자에게 높은 관심을 가져야 하고, 자주 적용되어야 하며, 다양한 의미를 가져야 하며, 기능성에 실용적이어야 한다고 제안한다.[5] 이러한 기준은 AAC 분야에서 SGD 콘텐츠의 생태학적 점검으로 널리 사용되어 왔다.[4]

자동 콘텐츠 유지 관리

맞춤형 장치를 갖춘 AAC 사용자

Beukelman과 Mirenda는 어휘 선택이 또한 지속적인 어휘 유지와 관련이 있다고 강조하지만,[4] AAC의 어려움은 사용자나 보호자가 새로운 발음에 수동으로 프로그램해야 한다는 것이다(예:[21] 새로운 친구나 개인적인 이야기들의 이름) 그리고 콘텐츠를 자동으로 추가하기 위한 기존의 상업적 해결책은 없다. 사용자 친구 및 가족과의 대화 로그에 기초한 콘텐츠 생성과 같은 "초과된 입력"에서부터 웹 크롤러 프로젝트와 같은 언어 자료를 찾기 위해 인터넷에서 채굴된 데이터까지, 이러한 어려움을 극복하기 위한 많은 연구 접근법이 시도되어 왔다.[41][42][43] 더욱이 라이프엘로깅 기반 접근법을 사용함으로써 기기 내용은 사용자가 하루 동안 발생하는 사건에 기초하여 변경될 수 있다.[41][44] 사용자 데이터에 더 많이 액세스하면 민감한 사용자 데이터가 노출될 위험이 있는 고품질 메시지가 생성될 수 있다.[41] 예를 들어, 지구 위치 확인 시스템을 사용함으로써 지리적 위치에 따라 기기의 내용을 변경할 수 있다.[45][46]

윤리적 우려

최근 개발된 많은 SGD에는 개인이 사용하는 콘텐츠를 모니터링하는 데 도움이 되는 성능 측정분석 도구가 포함되어 있다. 이로 인해 프라이버시에 대한 우려가 제기되며, 기기 사용자가 이러한 방식으로 사용을 감시하는 결정에 관여해야 한다는 주장도 있다.[47][48] 띠 AAC기기 사용자의 삶의 모든 영역에서 사용하도록 디자인된 이와 유사한 우려 SGDs.[40][49]디자인에 자동 콘텐츠 generation,[44]과 사생활 보호를 장치에 대한 제안에 관하여 점점 더 인자도 제기되었습니다, 민감한, 사회적, 법적, 기술적 문제 개인 데이터 managemen의 넓은 가족에 중심이 있다.t문제 AAC 사용의 맥락에서 찾을 수 있다. 예를 들어, SGD는 자동으로 추가된 대화 로그 또는 콘텐츠의 로그 삭제 권한을 지원하도록 설계되어야 할 수 있다.[50]

과제들

동적 음성 생성 장치의 프로그래밍은 대개 부가적인 통신 전문가들에 의해 이루어진다. 전문의들은 환자들은 보통 그들이 원하는 단어/구문의 종류를 선택하기 때문에 환자들의 요구에 부응해야 한다. 예를 들어, 환자들은 나이, 장애, 관심사 등에 따라 다른 문구를 사용한다. 따라서, 컨텐츠 조직은 극도로 많은 시간이 소요된다. 게다가, SGD는 건강보험회사에서 거의 다루지 않는다. 결과적으로, 자원은 자금과 인력 양쪽에 있어 매우 제한적이다. 보스턴 아동 병원의 존 코스텔로 박사는 이 프로그램을 계속 운영하기 위해 기부를 권유하고 그의 병원과 전국의 병원에서 인력을 충분히 공급해 주었다.

참고 항목

참조

  1. ^ Jump up to: a b c d e f 에트나 주식회사 (2010)
  2. ^ 블리스차크 외 연구진(2003)
  3. ^ Jump up to: a b c d e f 글렌넨 & 데코스트 페이지 88-90
  4. ^ Jump up to: a b c d e f g h Beukelman & Mirenda, 2장
  5. ^ Jump up to: a b 홍합화이트 & 루이
  6. ^ Jump up to: a b c d e 워싱턴 대학교 (2009)
  7. ^ 글렌, 62-63쪽
  8. ^ Jump up to: a b Jans & Clark(1998), 페이지 37–38.
  9. ^ Jump up to: a b 밴더하이드(2002)
  10. ^ Jump up to: a b c d 잔가리(1994년)
  11. ^ Stassen 외, 페이지 127
  12. ^ PRC 기록
  13. ^ 토비 처칠 (About Us)
  14. ^ 다이너복스(회사 이력)
  15. ^ Jump up to: a b c 아워케이드(2004)
  16. ^ 로비타유, 151-153페이지.
  17. ^ 스티븐 호킹과 ALS
  18. ^ 캐시(2000년)
  19. ^ 글렌넨 & 데코스트 페이지 62-63
  20. ^ Jump up to: a b 뷰켈만 & 미렌다, 페이지 97–101
  21. ^ Jump up to: a b c 히긴보텀 외 연구진(2007)
  22. ^ Jump up to: a b 뷰켈만 & 미렌다
  23. ^ 호흐슈타인 외 연구진(2004)
  24. ^ Jump up to: a b c 부켈만 & 미렌다 페이지 84-85
  25. ^ Jump up to: a b c 벤카타기리(1995)
  26. ^ 부가통신, 주식회사
  27. ^ 요한센 외 연구진(2003)
  28. ^ 워드 외(2000)
  29. ^ 로어크 외 연구진(2010)
  30. ^ MacKey(2003), p 119
  31. ^ 토드먼(2000년)
  32. ^ 호흐슈타인 외 연구진(2003)
  33. ^ Dynavox www.speechbubble.org.uk
  34. ^ 쑨드크비스트 & 뢴베르크(2010)
  35. ^ 슈로저, 블리스차크 & 쿨(2003)
  36. ^ Jump up to: a b c d e 뷰켈만 & 미렌다 페이지 105-106
  37. ^ 뷰켈만 & 미렌다, 페이지 105.
  38. ^ Jump up to: a b c d e 라돔스키 외 연구진(2007)
  39. ^ 부켈만 & 미렌다 페이지 83
  40. ^ Jump up to: a b @제{wickenden20112011, 제목={누구 목소리야? 증강 및 대체 커뮤니케이션(AAC)을 사용하는 장애 청소년들의 생활에 대한 민족지리학 연구에서 발생하는 정체성, 음성 및 대표성의 문제, 저자={Wickenden, M.}, 저널={장애 연구 분기별}, 부피={31}, 번호={4}, 연도={2011}}}}}}}}}}
  41. ^ Jump up to: a b c 레딩턴&틴타레프(2011년)
  42. ^ 아슈라프 외 (2002)
  43. ^ 뤄 외 연구진(2007)
  44. ^ Jump up to: a b 블랙 외 연구진(2010)
  45. ^ 도미노프스카 외
  46. ^ 파텔 & 라다크리슈난
  47. ^ Beukelman & Mirenda, 페이지 30
  48. ^ 블랙스톤 외 (2002)
  49. ^ 라켄스퍼거 외 (2005)
  50. ^ 레딩턴 & 콜스켐프(2011년)

참고 문헌 목록

  • Aetna Inc. (2010). "Clinical Policy Bulletin: Speech Generating Devices".
  • Ashraf, S.; Warden, A.; Shearer, A. J.; Judson, A.; Ricketts, I. W.; Waller, A.; Alm, N.; Gordon, B.; MacAulay, F.; Brodie, J. K.; Etchels, M. (2002). "Capturing phrases for ICU-Talk, a communication aid for intubated intensive care patients.". Proceedings of the fifth international ACM conference on Assistive technologies - Assets '02. p. 213. doi:10.1145/638249.638288. ISBN 1581134649. S2CID 4474005.
  • Beukelman, D.; Mirenda, P. (15 June 2005). Augmentative & alternative communication: supporting children & adults with complex communication needs (3rd ed.). Paul H. Brookes Pub. Co. ISBN 978-1-55766-684-0.
  • Black, R., Reddington, J., Reiter, E., Tintarev, N., and Waller A.. 2010. Using NLG and sensors to support personal narrative for children with complex communication needs. In Proceedings of the NAACL HLT 2010 Workshop on Speech and Language Processing for Assistive Technologies (SLPAT '10). Association for Computational Linguistics, Stroudsburg, PA, USA, 1–9.
  • Blackstone, S. W.; Williams, M. B.; Joyce, M. (2002). "Future AAC Technology Needs: Consumer Perspectives". Assistive Technology. 14 (1): 3–16. doi:10.1080/10400435.2002.10132051. PMID 12739846. S2CID 42895721.
  • Blischak, D. M., Lombardino, L. J., & Dyson, A. T. (2003). Use of speech-generating devices: In support of natural speech. Augmentative and Alternative Communication, 19
  • Brewer, N (8 February 2011). "'Technology Gives Young Boy A Voice".
  • Dempster, M., Alm, N., and Reiter, E.. 2010. Automatic generation of conversational utterances and narrative for augmentative and alternative communication: a prototype system. In Proceedings of the NAACL HLT 2010 Workshop on Speech and Language Processing for Assistive Technologies (SLPAT '10). Association for Computational Linguistics, Stroudsburg, PA, USA, 10–18.
  • Dominowska, E., Roy, D., & Patel, R. (2002). An adaptive context-sensitive communication aid. Proceedings of the CSUN International Conference on Technology and Persons with Disabilities, Northridge, CA.
  • ACE centre. "Dynavox Series 5". Archived from the original on 25 April 2012.
  • "Dynavox Company History". Archived from the original on 5 August 2016. Retrieved 26 December 2011.
  • Lund, J. "Roger Ebert's Journal: Finding my own voice 8/12/2009". Blogs.suntimes.com. Archived from the original on 19 August 2011. Retrieved 17 October 2009.
  • Friedman, M. B., G. Kiliany, M. Dzmura, D. Anderson. "The Eyetracker Communication System," Johns Hopkins APL Technical Digest, vol. 3, no. 3, 1982. 250–252
  • Friedman, M.B., Kiliany, G. and Dzmura, M. (1985) An Eye Gaze Controlled Keyboard. Proceedings of the 2nd International Conference on Rehabilitation Engineering, 446–447
  • Hanlon, M. "Stephen Hawking chooses a new voice". Retrieved 10 August 2009.
  • Glennen, Sharon L. and Decoste, Denise C. (1997). The Handbook of Augmentative and Alternative Communication. Singular Publishing Group, Inc.: San Diego, CA.
  • Hawking, S. "Stephen Hawking and ALS". Retrieved 10 August 2009.
  • Hedman, Glenn (1990). Rehabilitation Technology. Routledge. pp. 100–01. ISBN 978-1-56024-033-4.
  • Higginbotham, D. J.; Shane, H.; Russell, S.; Caves, K. (2007). "Access to AAC: Present, past, and future". Augmentative and Alternative Communication. 23 (3): 243–257. doi:10.1080/07434610701571058. PMID 17701743. S2CID 17891586.
  • Hochstein, D. D.; McDaniel, M. A.; Nettleton, S.; Neufeld, K. H. (2003). "The Fruitfulness of a Nomothetic Approach to Investigating AAC: Comparing Two Speech Encoding Schemes Across Cerebral Palsied and Nondisabled Children". American Journal of Speech-Language Pathology. 12 (1): 110–120. doi:10.1044/1058-0360(2003/057). PMID 12680818.
  • Hochstein, D. D.; McDaniel, M. A.; Nettleton, S. (2004). "Recognition of Vocabulary in Children and Adolescents with Cerebral Palsy: A Comparison of Two Speech Coding Schemes". Augmentative and Alternative Communication. 20 (2): 45–62. doi:10.1080/07434610410001699708. S2CID 62243903.
  • Hourcade, J.; Everhart Pilotte, T.; West, E.; Parette, P. (2004). "A History of Augmentative and Alternative Communication for Individuals with Severe and Profound Disabilities". Focus on Autism and Other Developmental Disabilities. 19 (4): 235–244. doi:10.1177/10883576040190040501. S2CID 73593697.
  • Infinitec.org. "Augmentative Alternative Communication". Archived from the original on 16 May 2011. Retrieved 16 March 2011.
  • Jans, D.; Clark, S. (1998). "High Technology Aids to Communication" (PDF). In Wilson, Allan (ed.). Augmentative Communication in Practice: An Introduction. University of Edinburgh CALL Centre. ISBN 978-1-898042-15-0.
  • Johansen, A. S., Hansen, J. P., Hansen, D. W., Itoh, K., and Mashino, S. 2003. Language technology in a predictive, restricted on-screen keyboard with dynamic layout for severely disabled people. In Proceedings of the 2003 EACL Workshop on Language Modeling for Text Entry Methods (TextEntry '03). Association for Computational Linguistics, Stroudsburg, PA, USA, 59–66.
  • Luo, F., Higginbotham, D. J., & Lesher, G. (2007). Webcrawler: Enhanced augmentative communication. Paper presented at CSUN Conference on Disability Technology, March, Los Angeles.
  • Mathy; Yorkston, Guttman (2000). "Augmentative Communication for Individuals with Amyotrophic Lateral Sclerosis". In Beukelman, D.; Yorkston, K.; Reichle, J. (eds.). Augmentative and Alternative Communication Disorders for Adults with Acquired Neurologic Disorders. Baltimore: P.H. Brookes Pub. ISBN 978-1-55766-473-0.
  • David J. C. MacKay (2003). Information theory, inference, and learning algorithms. Cambridge University Press. p. 119. ISBN 978-0-521-64298-9.
  • Musselwhite, C. R.; St. Louis, K. W. (May 1988). Communication programming for persons with severe handicaps: vocal and augmentative strategies. Pro-Ed. ISBN 978-0-89079-388-6.
  • R. Patel and R. Radhakrishnan. 2007. Enhancing Access to Situational Vocabulary by Leveraging Geographic Context. Assistive Technology Outcomes and Benefits
  • Rackensperger, T.; Krezman, C.; McNaughton, D.; Williams, M. B.; d'Silva, K. (2005). ""When I First Got It, I Wanted to Throw It off a Cliff": The Challenges and Benefits of Learning AAC Technologies as Described by Adults who use AAC". Augmentative and Alternative Communication. 21 (3): 165. doi:10.1080/07434610500140360. S2CID 143533447.
  • Radomski, M. V. & Trombly Latham, C. A. (2007). Occupational therapy for physical dysfunction. Lippincott Williams & Wilkins. p. 527. ISBN 978-0-7817-6312-7.
  • Reddington, J.; Tintarev, N. (2011). "Automatically generating stories from sensor data". Proceedings of the 15th international conference on Intelligent user interfaces - IUI '11. p. 407. doi:10.1145/1943403.1943477. ISBN 9781450304191. S2CID 10394365.
  • Reddington, J., & Coles-Kemp, L. (2011). Trap Hunting: Finding Personal Data Management Issues in Next Generation AAC Devices. In Proceedings of the Second Workshop on Speech and Language Processing for Assistive Technologies (pp. 32–42). Edinburgh, Scotland, UK: Association for Computational Linguistics.
  • Roark, B., de Villiers, J., Gibbons, C., and Fried-Oken, M.. 2010. Scanning methods and language modeling for binary switch typing. In Proceedings of the NAACL HLT 2010 Workshop on Speech and Language Processing for Assistive Technologies (SLPAT '10). Association for Computational Linguistics, Stroudsburg, PA, USA, 28–36.
  • Schlosser, R. W.; Blischak, D. M.; K., Rajinder K. (2003). "Roles of Speech Output in AAC". In R. W. Schlosser (ed.). The efficacy of augmentative and alternative communication: towards evidence-based practice. San Diego: Academic. pp. 472–532. ISBN 0-12-625667-5.
  • "Getting Back the Gift of Gab: NexGen Handheld Computers Allow the Mute to Converse". Retrieved 10 August 2009.
  • Stassen, H. G.; Sheridan, T. B.; Van Lunteren, T. (1997). Perspectives on the human controller: essays in honor of Henk G. Stassen. Psychology Press. ISBN 978-0-8058-2190-1.
  • Sundqvist, A.; Rönnberg, J. (2010). "A Qualitative Analysis of Email Interactions of Children who use Augmentative and Alternative Communication". Augmentative and Alternative Communication. 26 (4): 255–266. doi:10.3109/07434618.2010.528796. PMID 21091302. S2CID 29481.
  • Todman, J. (2000). "Rate and quality of conversations using a text-storage AAC system: Single-case training study". Augmentative and Alternative Communication. 16 (3): 164–179. doi:10.1080/07434610012331279024. S2CID 144178797.
  • "Types of AAC Devices, Augmentative Communication, Incorporated". Retrieved 19 March 2009.[영구적 데드링크]
  • "Toby Churchill, About Us". Archived from the original on 10 December 2011. Retrieved 26 December 2011.
  • Vanderheide, G. C. (2002). "A journey through early augmentative communication and computer access". Journal of Rehabilitation Research and Development. 39 (6 Suppl): 39–53. PMID 17642032.
  • Venkatagiri, H. S. 1995. Techniques for enhancing communication productivity in AAC: A review of research. American Journal of Speech-Language Pathology 4, 36–45.
  • Ward, D. J.; Blackwell, A. F.; MacKay, D. J. C. (2000). "Dasher---a data entry interface using continuous gestures and language models". Proceedings of the 13th annual ACM symposium on User interface software and technology - UIST '00. p. 129. doi:10.1145/354401.354427. ISBN 1581132123. S2CID 189874.
  • "Rate Enhancement, Augmentative and Alternative Communication at the University of Washington, Seattle". Retrieved 19 March 2009.
  • Zangari, C.; Lloyd, L.; Vicker, B. (1994). "Augmentative and alternative communication: An historic perspective". Augmentative and Alternative Communication. 10 (1): 27–59. doi:10.1080/07434619412331276740.

외부 링크