사일런트 음성 인터페이스

Silent speech interface

사일런트 스피치인터페이스(Silent Speech Interface)는 사람들이 자신의 말소리를 발음할 때 내는 소리를 사용하지 않고도 음성 커뮤니케이션을 할 수 있는 장치이다.그래서 그것은 일종의 전자 립 리딩이다.그것은 개인이 그들의 동작에 대한 정보의 비청취 출처로부터 발음하는 음소를 식별하는 컴퓨터에 의해 작동한다.그런 다음 음성 [1]합성을 사용하여 음성을 재생성하는 데 사용됩니다.

정보원

사일런트 스피치 인터페이스 시스템은 혀와 입술 [2]움직임의 초음파 및 광학 카메라 입력을 사용하여 개발되었습니다.전자기장치는 혀와 입술의 [3]움직임을 추적하는 또 다른 기술이다.발성관절근육과 후두의 근전도 검사를 통한 발성운동 검출도 또 다른 [4][5]기술이다.또 다른 정보의 원천은 비청음이라고 불리는 [6]골전도를 통해 전달되는 성관 공명 신호입니다.또한 피질 내 미세 [7]전극에서 얻은 운동 피질의 뇌 활동을 사용하여 뇌-컴퓨터 인터페이스로 생성되었습니다.

사용하다

이러한 장치는 후두절제술 [8]후 등 가청음화에 필요한 발음을 생성할 수 없는 사람들을 위한 보조 장치로서 작성된다.또 다른 용도는 음성이 배경 소음에 의해 가려지거나 자체 호흡 장치에 의해 왜곡될 때 의사소통을 위한 것이다.또 다른 실용적인 용도는 공공장소에서 사생활이 요구되는 경우나 군사 또는 보안 [2][9]작업 중에 핸즈프리 데이터 사일런트 전송이 필요한 경우입니다.

2002년 일본 NTT도코모근전도 촬영과 입술 움직임 영상촬영을 이용한 사일런트 휴대폰을 개발했다고 발표했다."이러한 전화기를 개발하게 된 계기는 공공장소 소음 제거였다"며 "이 기술은 또한 영구적으로 목소리를 [10]잃은 사람들에게 도움을 줄 것으로 기대된다"고 덧붙였다.그 이후로 실질적인 의사소통을 위해 사일런트 스피치 인터페이스를 사용할 수 있는 가능성이 [11]입증되었다.

최신 개발 및 연구

Alter Ego - Arnav Kapur MIT 연구원 Arnav Kapur의 2019년 연구는 사일런트 스피치 인터페이스인 AlterEgo를 개발했으며, 이는 효과적으로 뇌-컴퓨터 인터페이스 역할을 하며 작동하기 위해 언어 근육의 미세한 자극만 필요로 한다.Kapur's Research Paper는 이러한 장치의 개발과 정확성을 탐구합니다.그의 연구는 지역사회를 자극하여 이 새롭고 새로운 연구를 더욱 발전시켰다.

SpeakUP - Varun Chandrashekhar 2021년 Varun Chandrashekhar의 연구에는 사일런트 스피치 인터페이스(SpeakUp)의 개발도 포함되어 있다.이 연구는 상업적으로 이용 가능한 문장을 사용하여 저비용 사일런트 스피치 인터페이스를 만들고 이러한 유형의 장치에 사용할 최적의 신호 대 음성 알고리즘을 식별하는 것을 목표로 했다.

픽션에서

컴퓨터를 이용한 사일런트 스피치의 해독은 Arthur C에게 중요한 역할을 했다. 클라크이야기와 스탠리 큐브릭의 관련 영화 A Space Odyssey.목성으로 향하는 우주선 디스커버리 원(Discovery One)을 조종하는 컴퓨터 HAL 9000은 우주인 데이브 보먼과 프랭크 풀의 대화를 [12]입술로 읽으면서 이를 무력화하려는 음모를 발견한다.

오슨 스콧 카드 시리즈(엔더즈 게임 포함)에서는 주인공이 턱에 움직임 센서를 달고 있을 때 인공지능과 대화할 수 있어 소리 없이 인공지능과 대화할 수 있다.그는 또한 이어 임플란트를 착용한다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ 덴비 B, 슐츠 T, 혼다 K, 휴버 T, 길버트 J.M., 브럼버그 J.S. (2010).사일런트 스피치인터페이스음성통신 52: 270~287.doi:10.1016/j.specom.2009.08.002
  2. ^ a b Huever T, Benaroya E-L, Chollet G, Denby B, Dreyfus G, Stone M. (2010).혀와 입술의 초음파 및 광학 이미지로 구동되는 사일런트 스피치 인터페이스 개발.음성통신, 52 288~300.doi:10.1016/j.specom.2009.11.004
  3. ^ Wang, J., Samal, A. & Green, J. R. (2014).제5회 보조 기술을 위한 음성 및 언어 처리에 관한 ACL/ISCA 워크숍, Baltimore, MD, 38-45를 기반으로 한 실시간 대화형 사일런트 음성 인터페이스의 예비 테스트.
  4. ^ Jorgensen C, Dusan S. (2010년)표면 근조영법에 기반한 음성 인터페이스입니다.음성통신, 52: 354~366.doi: 10.1016/j.specom. 2009.11.003
  5. ^ 슐츠 T, Wand M. (2010).EMG 기반의 연속 음성 인식에서의 모델링 코디네이션.음성통신, 52:341-353.doi:10.1016/j.specom.2009.12.002
  6. ^ 히라하라 T, 오타니 M, 시미즈 S, 토다 T, 나카무라 K, 나카지마 Y, 시카노 K(2010).신체 전도 성대 공명 신호를 사용하여 사일런트 스피치를 향상시킵니다.음성통신, 52:301~313.doi:10.1016/j.specom.2009.12.001
  7. ^ Brumberg J.S., 니에토-카스타논 A., 케네디 P.R., Guenther F.H. (2010).음성 통신을 위한 뇌-컴퓨터 인터페이스.음성통신 52:367~379. 2010 doi:10.1016/j.specom.2010.01.001
  8. ^ 덩 Y., 파텔 R., 히튼 J. T., 콜비 G., 길모어 L. D., 카브레라 J., 로이 S. H., 드 루카 C.J., 멜츠너 G. (2009)음향sEMG 신호를 사용한 음성 인식 장애INTERSPEECH-2009에서는 644-647.
  9. ^ Deng Y., Colby G., Heaton J. T. 및 Meltzner HG. S.(2012).MUTE sEMG 기반의 사일런트 음성 인식 시스템의 신호 처리 기능 향상군사 통신 회의, MILCOM 2012.
  10. ^ 피츠패트릭 M. (2002)입술을 읽는 휴대폰은 입을 크게 벌린다.새로운 과학자
  11. ^ Wand M, 슐츠 T. (2011).세션에 의존하지 않는 EMG 기반의 음성 인식.제4회 바이오 인스파이어 시스템 및 신호처리에 관한 국제회의의 진행상황.
  12. ^ 클라크, 아서 C.(1972)2001년의 잃어버린 세계.런던: 시드윅과 잭슨. ISBN0-283-97903-8.