스킨풋
Skinput스킨풋은 생체 음향 감지를 이용해 손가락의 피부 감지를 국소화하는 입력 기술이다.피코 프로젝터로 증강하면 본체에 직접 조작할 수 있는 그래픽 사용자 인터페이스를 제공할 수 있습니다.이 기술은 마이크로소프트 리서치의 Computational User Experience [1]Group에서 Chris Harrison, Desney Tan 및 Dan Morris에 의해 개발되었습니다.스킨풋은 입력을 실행할 수 있는 표면적을 동시에 축소하지 않고 디바이스를 소형화하는 것을 목적으로 전자 디바이스에서 입력을 분리하는 한 가지 방법입니다.SixSense와 같은 다른 시스템이 컴퓨터 비전을 사용하여 이를 시도한 반면, Skinput은 인체 고유의 소리 전도성 특성([2]골전도 등)을 활용하는 음향 기술을 사용합니다.따라서 센서, 트래킹 마커 또는 기타 품목으로 피부를 침입적으로 계측할 필요 없이 인풋 표면으로 몸을 부착할 수 있습니다.
마이크로소프트는 현재 개발 중인 프로젝트 외에는 프로젝트의 미래에 대해 언급하지 않았습니다.2010년에는 최소 2년간 [3]상용 기기에는 나타나지 않는 것으로 보고되었습니다.
작동
스킨풋은 이두박근에 있는 완장으로 공개적으로 입증되었습니다.이 프로토타입에는 25~[4]78Hz의 주파수에 민감한 공명성이 높은 10개의 작은 캔틸레버 피에조 요소가 포함되어 있습니다.이 구성은 기계적인 Fast Fourier 변환과 같은 기능을 하며 대역 외 노이즈를 극도로 억제하여 사용자가 이동 중일 때에도 시스템이 작동할 수 있도록 합니다.상부 암에서 손가락 끝까지 센서는 암의 모든 부위에 제공되는 핑거 탭을 90% 이상의 정확도로 위치시킬 수 있습니다(5개 입력 [5]위치에 대해 최대 96%).분류는 지문과 같은 일련의 시간 독립 음향 기능을 사용하여 서포트 벡터 머신에 의해 이루어집니다.음성 인식 시스템과 마찬가지로 스킨풋 인식 엔진은 사용하기 전에 각 입력 위치의 "소리"에 대해 교육해야 합니다.트레이닝 후, 장소에는, 일시정지/재생, 음량 증감, 단축 다이얼, 메뉴 네비게이션등의 인터랙티브 기능이 있습니다.
완장에 피코 프로젝터를 추가하여 Skinput을 통해 사용자는 피부에 직접 표시되는 그래픽 사용자 인터페이스와 상호 작용할 수 있습니다.이를 통해 버튼 기반 계층형 내비게이션, 목록 기반 슬라이드 내비게이션(iPod/SmartPhone/MID와 유사), 텍스트/숫자 입력(예: 전화번호 키패드), 게임(예: 테트리스, 프로거)[6][7] 등 여러 상호 작용 방식을 사용할 수 있습니다.
데모
Skinput은 Microsoft Research 사내 프로젝트임에도 불구하고 여러 번 공개적으로 시연되었습니다.첫 번째 공식석상은 Microsoft TechFest 2010에서 발표 중 인식 모델이 무대에서 라이브로 훈련되었으며, 그 후 음악 플레이어, 이메일 수신 트레이, Tetris 및 음성 [8]메일의 4가지 모드를 갖춘 심플한 모바일 애플리케이션의 인터랙티브한 실습을 실시했습니다.ACM CHI 2010 컨퍼런스에서 같은 라이브 데모를 실시해, 학술지가 「베스트 페이퍼」상을 수상했습니다.참석자들은 이 시스템을 사용해 볼 수 있었다.많은 미디어에서 [9][10][11][12][13]이 기술을 다루었으며, 몇몇 미디어에서는 라이브 [14]데모를 다루기도 했습니다.
레퍼런스
- ^ "Skinput:Appropriating the Body as an Input Surface". Microsoft Research Computational User Experiences Group. Retrieved 26 May 2010.
- ^ Harrison, Chris; Tan, Desney; Morris, Dan (10–15 April 2010). "Skinput:Appropriating the Body as an Input Surface" (PDF). Proceedings of the ACM CHI Conference 2010.
- ^ Goode, Lauren (26 April 2010). "The Skinny on Touch Technology". Wall Street Journal.
- ^ Sutter, John (19 April 2010). "Microsoft's Skinput turns hands, arms into buttons". CNN.
- ^ Ward, Mark (26 March 2010). "Sensors turn skin into gadget control pad". BBC News.
- ^ "Skinput: Appropriating the Body as an Input Surface" (blog). Chrisharrison.net.
- ^ "Skinput: Appropriating the Body as an Input Surface". Youtube (from CHI 2010 conference).
- ^ Dudley, Brier (1 March 2010). "A peek at where Microsoft thinks we're going tomorrow". Seattle Times.
- ^ Hope, Dan (4 March 2010). "'Skinput' turns body into touchscreen interface". NBC News.
- ^ Hornyak, Tom (2 March 2010). "Turn your arm into a phone with Skinput". CNET.
- ^ Marks, Paul (1 March 2010). "Body acoustics can turn your arm into a touchscreen". New Scientist.
- ^ Dillow, Clay (3 March 2010). "Skinput Turns Any Bodily Surface Into a Touch Interface". Popular Science.
- ^ "Technology: Skin Used As An Input Device" (interview transcript). National Public Radio. 4 March 2010.
- ^ Savov, Vladislav (2 March 2010). "Skinput: because touchscreens never felt right anyway" (video). Engadget.
