사용자 인터페이스

User interface
바탕 화면 메타포 뒤에 나타나는 그래픽 사용자 인터페이스

사용자 인터페이스(User Interface, UI)는 인간과 기계 사이의 상호작용이 일어나는 산업 디자인 분야에서 사용자와 기계 사이의 상호작용이 일어나는 공간입니다.이 상호작용의 목적은 기계가 인간의 끝에서 효과적으로 작동하고 제어할 수 있도록 하는 동시에 기계가 작업자의 의사결정 과정에 도움이 되는 정보를 피드백하는 것입니다.이러한 광범위한 개념의 사용자 인터페이스의 예로는 컴퓨터 운영 체제, 수공구, 중기계 조작기 제어 및 프로세스 제어의 상호작용적 측면이 있습니다.사용자 인터페이스를 만들 때 적용할 수 있는 설계 고려사항은 인체공학심리학과 관련이 있거나 관련이 있습니다.

일반적으로 사용자 인터페이스 설계의 목표는 원하는 결과(즉, 최대 사용성)를 생성하는 방식으로 기계를 쉽게 작동하고 효율적이며 즐거운(사용자 친화적) 사용자 인터페이스를 생성하는 것입니다.이는 일반적으로 작업자가 원하는 출력을 달성하기 위해 최소한의 입력을 제공해야 하며 기계가 사용자에게 원하지 않는 출력을 최소화해야 함을 의미합니다.

사용자 인터페이스는 일반적으로 물리적 입력 하드웨어(예: 키보드, 마우스 또는 게임 패드) 및 출력 하드웨어(예: 컴퓨터 모니터, 스피커 및 프린터)와 기계를 인터페이스하는 HMI(Human-Machine Interface)를 포함한 하나 이상의 계층으로 구성됩니다.HMI를 구현하는 장치를 HID(Human Interface Device)라고 합니다.뇌와 기계 사이의 중간 단계로 신체 부위의 물리적 움직임을 제거하는 사용자 인터페이스는 전극만을 제외하고는 입력 장치나 출력 장치를 사용하지 않습니다. 이를 뇌-컴퓨터 인터페이스(BCI) 또는 뇌-기계 인터페이스(BMI)라고 합니다.

인간-기계 인터페이스의 다른 용어는 인간-기계 인터페이스(MMI)이며, 문제의 기계가 컴퓨터인 경우 인간-컴퓨터 인터페이스입니다.촉각 UI(터치), 시각 UI(시력), 청각 UI(사운드), 후각 UI(냄새), 평형 UI(밸런스) 및 미각 UI(맛)를 포함하는 하나 이상의 인간의 감각과 상호작용할 수 있습니다.

복합 사용자 인터페이스(CUI)는 두 가지 이상의 감각과 상호작용하는 UI입니다.가장 일반적인 CUI는 그래픽 사용자 인터페이스(Graphic User Interface, GUI)로 촉각적 UI와 그래픽을 표시할 수 있는 시각적 UI로 구성됩니다.GUI에 사운드가 추가되면 MUI(Multimedia User Interface)가 됩니다.CUI에는 표준, 가상증강의 세 가지 광범위한 범주가 있습니다.표준 CUI는 키보드, 마우스, 컴퓨터 모니터와 같은 표준 휴먼 인터페이스 장치를 사용합니다.CUI가 현실 세계를 차단하여 가상 현실을 만들 때, CUI는 가상이고 가상 현실 인터페이스를 사용합니다.CUI가 현실세계를 차단하지 않고 증강현실을 만들 때, CUI는 증강현실 인터페이스를 사용합니다.UI가 인간의 모든 감각과 상호작용할 때, 그것은 퀄리아 이론에서 이름을 따온 퀄리아 인터페이스라고 불립니다.[citation needed]또한 CUI는 X-센스 가상 현실 인터페이스 또는 X-센스 증강 현실 인터페이스로 몇 개의 감각과 상호 작용하는지에 따라 분류될 수 있습니다. 여기서 X는 인터페이스되는 감각의 수입니다.예를 들어, Smell-O-Vision은 시각적 디스플레이가 있는 3-sense (3S) Standard CUI입니다.소리와 냄새; 가상현실 인터페이스가 냄새와 터치와 인터페이스를 하면 4-센스(4S) 가상현실 인터페이스라고 하고, 증강현실 인터페이스가 냄새와 터치와 인터페이스를 하면 4-센스(4S) 증강현실 인터페이스라고 합니다.

개요

유형화된 사용자 인터페이스의 한 예인 리액터블

사용자 인터페이스 또는 인간-기계 인터페이스는 인간-기계 상호작용을 처리하는 기계의 일부입니다.멤브레인 스위치, 고무 키패드, 터치스크린 등은 우리가 보고 만질 수 있는 휴먼 머신 인터페이스의 물리적인 부분의 예입니다.

복잡한 시스템에서 인간-기계 인터페이스는 일반적으로 컴퓨터화됩니다.인간-컴퓨터 인터페이스라는 용어는 이런 종류의 시스템을 말합니다.컴퓨팅의 맥락에서 이 용어는 일반적으로 인간과 컴퓨터의 상호작용에 사용되는 물리적 요소를 제어하기 위한 전용 소프트웨어로도 확장됩니다.

인간-기계 인터페이스의 엔지니어링은 인간공학(인간 요소)을 고려함으로써 향상됩니다.해당 분야는 시스템 공학의 일부인 인적 요소 공학(Human Factor Engineering, HFE)과 사용성 공학(UE)입니다.

인터페이스 설계에 인간 요소를 포함시키기 위해 사용되는 도구는 컴퓨터 그래픽, 운영 체제, 프로그래밍 언어와 같은 컴퓨터 과학 지식을 기반으로 개발됩니다.오늘날 우리는 컴퓨터의 인간-기계 인터페이스에 그래픽 사용자 인터페이스라는 표현을 사용합니다. 거의 모든 컴퓨터들이 그래픽을 사용하고 있기 때문입니다.[citation needed]

멀티모달 인터페이스를 사용하면 사용자가 둘 이상의 사용자 입력 형식을 사용하여 상호 작용할 수 있습니다.[1]

용어.

인간-기계 인터페이스는 대개 INPUT 및 OUTPUT을 위한 주변 하드웨어를 포함합니다. 종종 그래픽 사용자 인터페이스와 같이 소프트웨어에 구현되는 추가 구성 요소가 있습니다.

사용자 인터페이스와 오퍼레이터 인터페이스 또는 HMI(Human-Machine Interface) 간에는 차이가 있습니다.

  • "사용자 인터페이스"라는 용어는 종종 (개인용) 컴퓨터 시스템 및 전자 장치의 맥락에서 사용됩니다.
    • MES(Manufacturing Execution System) 또는 호스트(Host)를 통해 장비 또는 컴퓨터의 네트워크가 상호 연결되어 정보를 표시하는 경우.
    • HMI(Human-Machine Interface)는 일반적으로 하나의 기계 또는 장비에 로컬이며, 인간과 장비/기계 간의 인터페이스 방법입니다.오퍼레이터 인터페이스는 호스트 제어 시스템에 의해 연결된 여러 장비에 액세스하거나 제어하는 인터페이스 방법입니다.[clarification needed]
    • 시스템은 다양한 종류의 사용자에게 서비스를 제공하기 위해 여러 사용자 인터페이스를 노출할 수 있습니다.예를 들어, 컴퓨터화된 라이브러리 데이터베이스는 두 개의 사용자 인터페이스를 제공할 수 있는데, 하나는 도서관 후원자를 위한 것이고 다른 하나는 도서관 직원을 위한 것입니다.[2]
  • 기계 시스템, 차량 또는 산업 설비의 사용자 인터페이스를 HMI(Human-Machine Interface)[3]라고 부르기도 합니다.HMI는 MMI(인간-기계 인터페이스)라는 원래 용어를 변형한 것입니다.[4]실제로, MMI라는 약자는 여전히 자주 사용되지만[4], 일부 사람들은 MMI가 지금은 다른 것을 의미한다고 주장할 수도 있습니다.[citation needed]또 다른 약어는 HCI이지만 인간과 컴퓨터의 상호작용을 위해 더 일반적으로 사용됩니다.[4]다른 용어로는 OIC(operator interface console)와 OIT(operator interface terminal)가 있습니다.[5]그러나 줄여서 말하면 기계를 작동하는 인간과 기계 자체를 구분하는 '계층'을 말합니다.[4]깨끗하고 사용 가능한 인터페이스가 없다면 인간은 정보 시스템과 상호 작용할 수 없을 것입니다.

공상 과학 소설에서, HMI는 때때로 직접적인 신경 인터페이스로 더 잘 묘사되는 것을 언급하기 위해 사용됩니다.그러나, 이러한 후자의 사용은 (의료용) 보철물의 실제 사용에서 증가하는 적용을 보이고 있습니다. 즉, 사라진 신체 부위(예를 들어, 달팽이관 이식물)를 대체하는 인공 확장물입니다.[6][7]

어떤 상황에서는 컴퓨터가 사용자를 관찰하고 특정 명령 없이 사용자의 행동에 따라 반응할 수도 있습니다.신체 부위를 추적하는 수단이 필요한데, 머리의 위치, 시선 방향 등을 주목하는 센서가 실험적으로 사용돼 왔습니다.이는 특히 몰입형 인터페이스와 관련이 있습니다.[8][9]

역사

사용자 인터페이스의 이력은 지배적인 유형의 사용자 인터페이스에 따라 다음과 같은 단계로 나눌 수 있습니다.

1945-1968: 배치 인터페이스

IBM 029 card punch
IBM 029

배치 시대에는 컴퓨팅 성능이 매우 부족하고 비용이 많이 들었습니다.사용자 인터페이스는 기본적인 것이었습니다.사용자는 그 반대가 아니라 컴퓨터를 수용해야 했습니다. 사용자 인터페이스는 오버헤드로 간주되었으며 소프트웨어는 프로세서를 최대한 활용도를 유지하면서 오버헤드를 최소화하도록 설계되었습니다.

배치 기계용 사용자 인터페이스의 입력 측은 주로 천공 카드 또는 종이 테이프와 같은 동등한 매체였습니다.출력 측에서 이러한 매체에 라인 프린터를 추가했습니다.시스템 운영자의 콘솔에 대한 제한적인 예외를 제외하고, 인간은 배치 기계와 실시간으로 전혀 상호작용하지 않았습니다.

작업을 관련된 배치 기계에 제출하는 것, 먼저 프로그램 및 데이터 세트를 설명하는 천공 카드 덱을 준비하는 것.프로그램 카드를 주먹으로 치는 것은 컴퓨터 자체에서가 아니라 키 펀치와 같은 특수한 타자기 같은 기계에서 이루어졌는데, 그것은 부피가 크고, 용서할 수 없으며, 기계적인 고장이 일어나기 쉽기로 악명이 높습니다.소프트웨어 인터페이스도 마찬가지로 매우 엄격한 구문으로 가능한 가장 작은 컴파일러와 인터프리터에 의해 구문을 구문 분석하는 것이 허용되지 않았습니다.

인구조사 설문지의 사실을 통계로 전달하는 미리 준비된 코드에 따라 카드에 구멍이 뚫립니다.

카드가 주먹에 맞으면 작업 대기열에 떨어뜨리고 기다리곤 합니다.결국, 운영자는 컴퓨터에 갑판을 공급하고, 다른 데이터 세트나 도우미 소프트웨어를 공급하기 위해 마그네틱 테이프를 장착할 것입니다.작업은 최종 결과 또는 오류 로그가 첨부된 중단 통지를 포함하는 인쇄물을 생성합니다.실행이 성공하면 자기 테이프에 결과를 쓰거나 나중에 계산에 사용할 데이터 카드를 생성할 수도 있습니다.

단일 작업의 처리 시간은 종종 하루 전체에 걸쳐 발생했습니다.운이 좋다면 몇 시간이 걸릴 수도 있습니다. 실시간 응답이 없었습니다.그러나 카드 큐보다 더 나쁜 운명이 있었습니다. 일부 컴퓨터는 콘솔 스위치를 사용하여 바이너리 코드로 프로그램을 전환하는 훨씬 더 지루하고 오류가 발생하기 쉬운 프로세스를 요구했습니다.가장 초기의 기계는 플러그보드라고 알려진 장치를 사용하여 프로그램 로직을 자체에 통합하기 위해 부분적으로 재배선해야 했습니다.

초기 배치 시스템은 현재 실행 중인 작업 전체를 컴퓨터에 제공했습니다. 프로그램 덱과 테이프는 I/O 장치와 대화하고 기타 필요한 모든 작업을 수행하기 위해 운영 체제 코드를 포함해야 했습니다.1957년 이후 배치 기간 중간에 다양한 그룹이 소위 "로드 앤 고" 시스템으로 실험하기 시작했습니다.이것들은 항상 컴퓨터에 상주하는 모니터 프로그램을 사용했습니다.프로그램은 모니터에 서비스를 요청할 수 있습니다.모니터의 또 다른 기능은 제출된 작업에 대한 오류 검사를 보다 효율적으로 수행하여 오류를 더 일찍 그리고 더 지능적으로 파악하고 사용자에게 더 유용한 피드백을 제공하는 것입니다.따라서 모니터는 운영 체제와 명시적으로 설계된 사용자 인터페이스 모두를 향한 첫 단계를 나타냈습니다.

1969-현재: 명령줄 사용자 인터페이스

Teletype Model 33
텔레타입 모델 33 ASR

명령줄 인터페이스(CLI)는 시스템 콘솔에 연결된 배치 모니터에서 진화했습니다.그들의 상호작용 모델은 일련의 요청-응답 트랜잭션으로, 요청은 전문화된 어휘로 텍스트 명령어로 표현되었습니다.지연 시간은 배치 시스템보다 훨씬 낮았으며, 며칠 또는 몇 시간에서 몇 초로 단축되었습니다.따라서, 명령줄 시스템은 사용자가 이전 결과에 대한 실시간 또는 거의 실시간 피드백에 따라 거래의 나중 단계에 대한 생각을 바꿀 수 있도록 했습니다.소프트웨어는 이전에는 불가능했던 방식으로 탐색적이고 상호작용적일 수 있습니다.그러나 이러한 인터페이스는 여전히 사용자에게 상대적으로 많은 메모리 부하를 주어 마스터하기 위해 상당한 노력과 학습 시간을 투자해야 합니다.[10]

최초의 명령줄 시스템은 텔레프린터를 컴퓨터와 결합하여 인간 사이의 전선을 통해 정보를 전달하는 데 효과적인 것으로 입증된 성숙한 기술을 적용했습니다.텔레프린터는 원래 자동 전신 송수신 장치로 발명되었습니다. 1902년으로 거슬러 올라가는 역사를 가졌고 1920년에는 이미 뉴스룸과 다른 곳에서 자리를 잡았습니다.이를 재사용하는 데 있어 경제성은 분명 고려 사항이었지만 심리학과 최소 깜짝의 법칙도 중요했습니다. 텔레프린터는 많은 엔지니어와 사용자에게 익숙한 시스템과의 인터페이스를 제공했습니다.

The VT100, introduced in 197″8, was the most popular VDT of all time. Most terminal emulators still default to VT100 mode.
DEC VT100 단자

1970년대 중반 VDT(Video-Display Terminal)가 널리 보급되면서 명령줄 시스템의 2단계가 시작되었습니다.프린터 헤드나 캐리지가 움직이는 것보다 더 빨리 문자를 화면의 형광체 점에 던질 수 있기 때문에 대기 시간이 더 단축됩니다.그들은 잉크와 종이 소모품을 원가 그림에서 잘라냄으로써 상호작용 프로그램에 대한 보수적인 저항을 잠재우는 데 도움을 주었고, 1950년대 후반과 60년대의 첫 TV 세대에게는 1940년대의 컴퓨터 선구자들에게 보여주었던 것보다 훨씬 더 상징적이고 편안했습니다.

마찬가지로, 신속하고 가역적으로 수정할 수 있는 텍스트의 2차원 디스플레이인 접근 가능한 화면의 존재는 소프트웨어 설계자들이 텍스트가 아닌 시각적인 인터페이스를 배치하는 것을 경제적으로 만들었습니다.이런 종류의 선구적인 응용 프로그램은 컴퓨터 게임과 텍스트 편집기였습니다. 로그(6), vi(1)와 같은 초기 샘플의 가까운 후손들은 여전히 유닉스 전통의 살아있는 일부입니다.

1985: SAA 사용자 인터페이스 또는 텍스트 기반 사용자 인터페이스

1985년, 마이크로소프트 윈도우와 다른 그래픽 사용자 인터페이스의 시작과 함께 IBM은 시스템 애플리케이션 아키텍처(SAA) 표준이라 불리는 것을 만들었는데, 이 표준에는 CUA(Common User Access) 파생 제품이 포함되어 있습니다.CUA는 오늘날 우리가 알고 사용하는 것을 Windows에서 성공적으로 만들어 냈고, 대부분의 최신 DOS나 Windows Console Application에서도 이 표준을 사용할 것입니다.

풀다운 메뉴 시스템은 화면 상단에, 상태 표시줄은 하단에, 단축키는 모든 공통 기능에 대해 동일하게 유지되어야 한다고 정의했습니다(예를 들어 SAA 표준을 따르는 모든 애플리케이션에서 F2에서 열기로 작동).이를 통해 사용자가 애플리케이션을 학습할 수 있는 속도가 빠르게 향상되어 업계 표준이 되었습니다.[11]

1968-현재: 그래픽 사용자 인터페이스

AMX Desk는 기본적인 윔프 GUI를 만들었습니다.
리노타입 WYWYG 2000, 1989
  • 1968년 – 더글러스 엥겔바트마우스, 포인터, 하이퍼텍스트 및 다중 윈도우를 사용하는 시스템인 NLS를 시연했습니다.[12]
  • 1970년 – SRI 출신의 Xerox Palo Alto Research Center 연구원들이 WIMP 패러다임(Windows, 아이콘, 메뉴, 포인터)[12] 개발
  • 1973 – Xerox Alto: 비용, 열악한 사용자 인터페이스, 프로그램[12] 부족으로 인한 상업적 실패
  • 1979년 – Steve Jobs와 다른 Apple 엔지니어들이 Xerox PARC를 방문합니다.비록 파이럿츠 오브 실리콘 밸리가 이 행사들을 극적으로 묘사하고 있지만, 애플은 방문 전에 이미 매킨토시와 리사 프로젝트와 같은 GUI의 개발에 착수하고 있었습니다.[13][14]
  • 1981 – Xerox Star: WYSIWYG에 초점을 맞춥니다. 비용(각 16,000달러), 성능(파일 저장에 몇 분, 크래시 복구에 몇 시간), 마케팅 부진으로 인한 상업적 실패(25,000개 판매)
  • 1982년 – Bell LabsRob Pike와 다른 사람들이 Blit을 설계했으며, 이 블릿은 1984년 AT&T와 Teletype이 DMD 5620 터미널로 출시했습니다.
  • 1984 – Apple MacintoshGUI를 대중화합니다.슈퍼볼 광고는 두 번 상영되었는데, 그 당시에 제작된 광고 중 가장 비싼 광고였습니다.
  • 1984 – MIT의 X Window 시스템: UNIX와 유사한 시스템에서 GUI를 개발하기 위한 하드웨어 독립 플랫폼 및 네트워킹 프로토콜
  • 1985 – 윈도우 1.0 – MS-DOS에 GUI 인터페이스를 제공하였습니다.겹쳐진 창이 없습니다(대신 타일로 덮음).
  • 1985년 – 마이크로소프트와 IBM이 최종적으로 MS-DOS와 Windows를 대체하기 위한 OS/2에 대한 작업을 시작합니다.
  • 1986 – Apple은 GUI 데스크톱이 Apple의 Mac과 너무 흡사하다는 이유로 Digital Research를 고소하겠다고 위협했습니다.
  • 1987 – Windows 2.0 – 윈도우 중복 및 크기 조정, 키보드 및 마우스 기능 향상
  • 1987 – Macintosh II: 최초의 풀컬러 Mac
  • 1988 – OS/21.10 Standard Edition(SE)에는 Microsoft에서 작성한 GUI가 있으며 Windows 2와 매우 유사함

인터페이스 디자인

인터페이스 설계에 사용되는 주요 방법으로는 프로토타이핑과 시뮬레이션이 있습니다.

일반적인 인간-기계 인터페이스 설계는 상호작용 사양, 인터페이스 소프트웨어 사양 및 프로토타이핑의 단계로 구성됩니다.

  • 상호 작용 명세의 일반적인 관행으로는 사용자 중심 설계, 페르소나, 활동 중심 설계, 시나리오 기반 설계, 복원력 설계 등이 있습니다.
  • 인터페이스 소프트웨어 사양에 대한 일반적인 관행에는 사용 사례상호 작용 프로토콜에 의한 제약 적용(사용 오류 방지)이 포함됩니다.
  • 프로토타이핑에 대한 일반적인 관행은 인터페이스 요소(컨트롤, 장식 등)의 라이브러리를 기반으로 합니다.

품질의 원칙

넓은 의미에서, 일반적으로 사용자 친화적, 효율적, 직관적 등으로 간주되는 인터페이스는 하나 이상의 특정 특성으로 구분됩니다.예를 들어, 이러한 특성을 모두 포함하지 않는 목록은 다음과 같습니다.

  1. 명확성:인터페이스는 시각적 요소에 대한 언어, 흐름, 계층 구조 및 은유를 통해 모든 것을 명확하게 함으로써 모호함을 방지합니다.
  2. 콘시젼:[15]그러나 역설적이게도, 예를 들어 화면에 표시된 대부분의 항목을 전체는 아닐지라도 한 번에 표시함으로써, 사용자가 실제로 특정 항목을 식별하기 위해 어떤 종류의 시각적 표시를 필요로 하는지의 여부와 관계없이, 정보를 지나치게 명확하게 하는 것은, 대부분의 정상적인 상황에서,어떤 정보든 난독화로 이어질 가능성이 높습니다
  3. 친숙도:[16]누군가가 인터페이스를 처음 사용하더라도 특정 요소는 여전히 친숙할 수 있습니다.실생활의 은유는 의미를 전달하는 데 사용될 수 있습니다.
  4. 대응성:[17]좋은 인터페이스는 느리다고 느껴져서는 안됩니다.이는 인터페이스가 사용자에게 무슨 일이 일어나고 있는지 그리고 사용자의 입력이 성공적으로 처리되고 있는지에 대한 좋은 피드백을 제공해야 한다는 것을 의미합니다.
  5. 일관성:[18] 사용자가 사용 패턴을 인식할 수 있기 때문에 애플리케이션 전체에서 인터페이스를 일관성 있게 유지하는 것이 중요합니다.
  6. 미학:인터페이스를 매력적으로 만들 필요는 없지만, 보기 좋게 만드는 것은 사용자가 애플리케이션을 사용하는 시간을 더 즐겁게 만들고, 더 행복한 사용자는 좋은 일만 할 수 있습니다.
  7. 효율성:시간은 돈이며 훌륭한 인터페이스는 단축키와 좋은 디자인을 통해 사용자를 더 생산적으로 만들어 줄 것입니다.
  8. 용서:좋은 인터페이스는 사용자의 실수를 처벌하는 것이 아니라 이를 해결할 수 있는 수단을 제공해야 합니다.

최소경악의 원리

최소 경악의 원리(POLA)는 모든 종류의 인터페이스의 설계에서 일반적인 원리입니다.인간은 한 번에 한 가지 일에만 온 신경을 쓸 수 있다는 생각에 따른 것이어서 [19]새로움을 최소화해야 한다는 결론에 이릅니다.

습성형성의 원리

인터페이스가 지속적으로 사용되면 사용자는 필연적으로 인터페이스를 사용하기 위한 습관을 기르게 됩니다.따라서 설계자의 역할은 사용자가 좋은 습관을 형성하도록 보장하는 것으로 특징지을 수 있습니다.설계자가 다른 인터페이스를 경험한 경우에도 마찬가지로 습관을 기르게 되며 사용자가 인터페이스와 어떻게 상호 작용할지에 대한 무의식적인 가정을 하는 경우가 많습니다.[19][20]

설계 기준 모델:사용자 경험 허니콤

User interface / user experience guide
Peter Morville[22] 디자인한 사용자 경험 디자인 벌집[21]

구글의 피터 모빌(Peter Morville)은 2004년에 사용자 인터페이스 설계 분야에서 최고의 작업을 수행할 때 사용자 경험 허니콤(User Experience Honeycomb) 프레임워크를 설계했습니다.이 프레임워크는 사용자 인터페이스 설계를 안내하기 위해 만들어졌습니다.그것은 10년 동안 많은 웹 개발 학생들을 위한 가이드라인 역할을 할 것입니다.[22]

  1. 사용 가능:시스템 설계가 쉽고 간단하게 사용할 수 있습니까?애플리케이션은 친숙하게 느껴져야 하고, 사용하기 쉬울 것입니다.[22][21]
  2. 유용:애플리케이션이 요구사항을 충족합니까?기업의 제품이나 서비스는 유용해야 합니다.[21]
  3. 바람직한:애플리케이션의 디자인이 날렵하고 핵심적입니까?시스템의 미학은 매력적이어야 하고 번역하기 쉬워야 합니다.[21]
  4. 찾을 수 있음:사용자가 원하는 정보를 신속하게 찾을 수 있습니까?정보를 찾을 수 있고 쉽게 탐색할 수 있어야 합니다.사용자는 제품이나 정보를 검색할 필요가 없습니다.[21]
  5. 액세스 가능:그 애플리케이션은 틀을 깨지 않고 확대된 텍스트를 지원합니까?애플리케이션은 장애를 가진 사람들이 접근할 수 있어야 합니다.[21]
  6. 신뢰성:애플리케이션에 신뢰할 수 있는 보안 및 회사 정보가 표시되어 있습니까?애플리케이션은 투명하고 안전하며 정직해야 합니다.[21]
  7. 가치:최종 사용자는 그것이 가치 있다고 생각합니까?6가지 기준을 모두 충족하면 최종 사용자는 애플리케이션에 대한 가치와 신뢰를 찾게 됩니다.[21]

종류들

Touchscreen of the HP Series 100 HP-150
HP 시리즈 100 HP-150 터치스크린
  1. 주의 깊은 사용자 인터페이스는 사용자를 방해할 시기, 경고의 종류 및 사용자에게 제공되는 메시지의 세부 수준을 결정하는 사용자 주의를 관리합니다.
  2. 배치 인터페이스는 대화형이 아닌 사용자 인터페이스로, 사용자는 배치 작업의 모든 세부 정보를 배치 처리 전에 지정하고 모든 처리가 완료되면 출력을 수신합니다.처리가 시작된 후 컴퓨터에서 추가 입력을 요구하지 않습니다.
  3. CLI(명령줄 인터페이스)는 컴퓨터 키보드로 명령 문자열을 입력하여 입력을 제공하고 컴퓨터 모니터에 텍스트를 출력하여 응답합니다.프로그래머와 시스템 관리자, 공학 및 과학 환경에서 사용되며 기술적으로 진보한 개인용 컴퓨터 사용자가 사용합니다.
  4. 대화형 인터페이스를 통해 사용자는 그래픽 요소 대신 평문 영어(예: 텍스트 메시지 또는 챗봇을 통해) 또는 음성 명령으로 컴퓨터를 명령할 수 있습니다.이러한 인터페이스는 종종 사람과 사람의 대화를 모방합니다.[23]
  5. 대화 인터페이스 에이전트는 컴퓨터 인터페이스를 애니메이션 인물, 로봇 또는 기타 캐릭터(예: Microsoft Clippy the paperclip)의 형태로 의인화하고 대화 형식으로 상호 작용을 표시합니다.
  6. 교차 기반 인터페이스는 주요 작업이 가리키는 대신 경계를 넘는 그래픽 사용자 인터페이스입니다.
  7. 직접 조작 인터페이스는 사용자가 물리적 세계에 최소한 느슨하게 대응하는 동작을 사용하여 자신에게 제시된 객체를 조작할 수 있는 일반적인 종류의 사용자 인터페이스 이름입니다.
  8. 제스처 인터페이스는 손 제스처 또는 컴퓨터 마우스나 스타일러스로 스케치한 마우스 제스처의 형태로 입력을 받아들이는 그래픽 사용자 인터페이스입니다.
  9. 그래픽 사용자 인터페이스(GUI)는 컴퓨터 키보드 및 마우스와 같은 장치를 통한 입력을 허용하고 컴퓨터 모니터에 명확한 그래픽 출력을 제공합니다.[24]GUI 설계에 널리 사용되는 원칙은 적어도 두 가지입니다.OOUI(Object-oriented User Interface)[25] 및 애플리케이션 지향 인터페이스.
  10. 하드웨어 인터페이스는 토스터기, 자동차 대시보드, 비행기 조종석에 이르기까지 실제 제품에서 볼 수 있는 물리적, 공간적 인터페이스입니다.일반적으로 노브, 버튼, 슬라이더, 스위치 및 터치스크린이 혼합되어 있습니다.
  11. 홀로그래픽 사용자 인터페이스는 전자 또는 전기 기계 장치에 입력을 제공합니다. 그렇지 않으면 장치의 촉각 제어가 가능하고, 공중에 자유롭게 떠 있고, 파동원에 의해 감지되고 촉각 상호 작용이 없는 재생된 홀로그래픽 이미지를 손가락으로 통과시킵니다.
  12. 지능형 사용자 인터페이스는 사용자, 도메인, 작업, 담화 및 미디어의 모델(예: 그래픽, 자연어, 제스처)을 표현, 추론 및 작용함으로써 인간과 기계의 상호 작용의 효율성, 효과 및 자연성을 향상시키는 것을 목표로 하는 인간-기계 인터페이스입니다.
  13. 모션 트래킹 인터페이스는 사용자의 신체 움직임을 모니터링하고 이를 명령어로 변환하며, 현재 애플이 개발 중입니다.[26]
  14. 멀티 스크린 인터페이스는 보다 유연한 상호작용을 제공하기 위해 여러 디스플레이를 사용합니다.이것은 종종 상업 오락실과 최근에는 핸드헬드 시장에서 컴퓨터 게임 상호작용에 사용됩니다.
  15. 자연어 인터페이스는 검색 엔진과 웹 페이지에 사용됩니다.질문에 사용자를 입력하고 응답을 기다립니다.
  16. 사용자가 명시적인 명령을 공식화할 필요 없이 사용자의 요구와 의도를 추론할 수 있도록 관찰하는 비명령 사용자 인터페이스입니다.[27]
  17. 객체 지향 사용자 인터페이스(OOI)는 객체 지향 프로그래밍 은유를 기반으로 하며, 사용자는 시뮬레이션된 객체와 속성을 조작할 수 있습니다.
  18. 권한 중심 사용자 인터페이스는 사용자의 권한 수준에 따라 메뉴 옵션이나 기능을 표시하거나 숨깁니다.이 시스템은 사용자가 사용할 수 없는 항목을 제거하여 사용자 환경을 개선하기 위한 것입니다.사용할 수 없는 기능을 보는 사용자는 좌절할 수 있습니다.또한 기능적인 항목을 권한 없는 사람에게 숨김으로써 보안을 강화합니다.
  19. 사용자가 명령어 동사를 변경하는 등 사용자 인터페이스만으로 전체 시스템을 제어하고 재정의하는 반사형 사용자 인터페이스입니다.일반적으로 이는 매우 풍부한 그래픽 사용자 인터페이스에서만 가능합니다.
  20. 검색 인터페이스는 검색 결과의 시각적 표현뿐만 아니라 사이트의 검색 상자가 표시되는 방법입니다.
  21. 유형의 사용자 인터페이스로, 터치 및 물리적 환경 또는 그 요소에 더 큰 중점을 둡니다.
  22. 작업 중심 인터페이스는 파일이 아닌 작업을 주요 상호 작용 단위로 만들어 데스크톱 메타포의 정보 과부하 문제를 해결하는 사용자 인터페이스입니다.
  23. 텍스트 기반 사용자 인터페이스(TUI)는 텍스트를 통해 상호 작용하는 사용자 인터페이스입니다.TUI에는 명령줄 인터페이스와 텍스트 기반 WIMP 환경이 포함됩니다.
  24. 터치스크린은 손가락이나 스타일러스의 터치로 입력을 받아들이는 디스플레이입니다.점점 더 많은 양의 모바일 장치와 다양한 유형의 판매 시점, 산업 프로세스 및 기계, 셀프 서비스 기계 등에 사용됩니다.
  25. 터치 사용자 인터페이스터치패드 또는 터치스크린 디스플레이를 입력 및 출력 장치로 사용하는 그래픽 사용자 인터페이스입니다.그들은 다른 형태의 출력을 햅틱 피드백 방법으로 보완하거나 대체합니다.컴퓨터 시뮬레이터 등에 사용
  26. 음성 사용자 인터페이스 - 입력을 허용하고 음성 프롬프트를 생성하여 출력을 제공합니다.사용자 입력은 키나 버튼을 누르거나 인터페이스에 구두로 응답하는 방식으로 이루어집니다.
  27. 웹 브라우저 프로그램을 이용하여 사용자가 열람한 웹 페이지를 생성하여 입력을 수용하고 출력을 제공하는 웹 기반 사용자 인터페이스 또는 웹 사용자 인터페이스(WUI).
  28. 제로 입력 인터페이스는 사용자에게 입력 대화상자를 조회하는 대신 센서 집합에서 입력을 가져옵니다.[28]
  29. 줌잉 사용자 인터페이스는 그래픽 사용자 인터페이스로, 정보 개체가 다양한 수준의 스케일과 세부 정보로 표시되며, 사용자가 보기 영역의 스케일을 변경하여 더 상세하게 표시할 수 있습니다.

갤러리

참고 항목

참고문헌

  1. ^ Cohen, Philip R. (1992). "The role of natural language in a multimodal interface". Proceedings of the 5th annual ACM symposium on User interface software and technology - UIST '92. pp. 143–149. doi:10.1145/142621.142641. ISBN 0897915496. S2CID 9010570.
  2. ^ "The User Experience of Libraries: Serving The Common Good User Experience Magazine". uxpamagazine.org. 7 May 2017. Retrieved 23 March 2022.
  3. ^ Griffin, Ben; Baston, Laurel. "Interfaces" (Presentation): 5. Archived from the original on 14 July 2014. Retrieved 7 June 2014. The user interface of a mechanical system, a vehicle or an industrial installation is sometimes referred to as the human–machine interface (HMI). {{cite journal}}:저널 요구사항 인용 journal=(도움말)
  4. ^ a b c d "User Interface Design and Ergonomics" (PDF). Course Cit 811. NATIONAL OPEN UNIVERSITY OF NIGERIA: SCHOOL OF SCIENCE AND TECHNOLOGY: 19. Archived (PDF) from the original on 14 July 2014. Retrieved 7 June 2014. In practice, the abbreviation MMI is still frequently used although some may claim that MMI stands for something different now.
  5. ^ "Introduction Section". Recent advances in business administration. [S.l.]: Wseas. 2010. p. 190. ISBN 978-960-474-161-8. Other terms used are operator interface console (OIC) and operator interface terminal (OIT)
  6. ^ Cipriani, Christian; Segil, Jacob; Birdwell, Jay; Weir, Richard (2014). "Dexterous control of a prosthetic hand using fine-wire intramuscular electrodes in targeted extrinsic muscles". IEEE Transactions on Neural Systems and Rehabilitation Engineering. 22 (4): 828–36. doi:10.1109/TNSRE.2014.2301234. ISSN 1534-4320. PMC 4501393. PMID 24760929. Neural co-activations are present that in turn generate significant EMG levels and hence unintended movements in the case of the present human machine interface (HMI).
  7. ^ Citi, Luca (2009). "Development of a neural interface for the control of a robotic hand" (PDF). Scuola Superiore Sant'Anna, Pisa, Italy: IMT Institute for Advanced Studies Lucca: 5. Retrieved 7 June 2014. {{cite journal}}:저널 요구사항 인용 journal=(도움말)
  8. ^ Jordan, Joel. "Gaze Direction Analysis for the Investigation of Presence in Immersive Virtual Environments" (Thesis submitted for the degree of Doctor of Philosophy). University of London: Department of Computer Science: 5. Archived (PDF) from the original on 14 July 2014. Retrieved 7 June 2014. The aim of this thesis is to investigate the idea that the direction of gaze may be used as a device to detect a sense-of-presence in Immersive Virtual Environments (IVE) in some contexts. {{cite journal}}:저널 요구사항 인용 journal=(도움말)
  9. ^ Ravi (August 2009). "Introduction of HMI". Archived from the original on 14 July 2014. Retrieved 7 June 2014. In some circumstance computers might observe the user, and react according to their actions without specific commands. A means of tracking parts of the body is required, and sensors noting the position of the head, direction of gaze and so on have been used experimentally. This is particularly relevant to immersive interfaces.
  10. ^ "HMI Guide". Archived from the original on 20 June 2014.
  11. ^ Richard, Stéphane. "Text User Interface Development Series Part One – T.U.I. Basics". Archived from the original on 16 November 2014. Retrieved 13 June 2014.
  12. ^ a b c McCown, Frank. "History of the Graphical User Interface (GUI)". Harding University. Archived from the original on 8 November 2014. {{cite journal}}:저널 요구사항 인용 journal=(도움말)
  13. ^ "The Xerox PARC Visit". web.stanford.edu. Retrieved 8 February 2019.
  14. ^ "apple-history.com / Graphical User Interface (GUI)". apple-history.com. Retrieved 8 February 2019.
  15. ^ Raymond, Eric Steven (2003). "11". The Art of Unix Programming. Thyrsus Enterprises. Archived from the original on 20 October 2014. Retrieved 13 June 2014.
  16. ^ C. A. D'H Gough; R. Green; M. Billinghurst. "Accounting for User Familiarity in User Interfaces" (PDF). Retrieved 13 June 2014. {{cite journal}}:저널 요구사항 인용 journal=(도움말)
  17. ^ Sweet, David (October 2001). "9 – Constructing A Responsive User Interface". KDE 2.0 Development. Sams Publishing. Archived from the original on 23 September 2013. Retrieved 13 June 2014.
  18. ^ John W. Satzinger; Lorne Olfman (March 1998). "User interface consistency across end-user applications: the effects on mental models". Journal of Management Information Systems. Managing virtual workplaces and teleworking with information technology. Armonk, NY. 14 (4): 167–193. doi:10.1080/07421222.1998.11518190.
  19. ^ a b Raskin, Jef (2000). The human interface : new directions for designing interactive systems (1. printing. ed.). Reading, Mass. [u.a.]: Addison Wesley. ISBN 0-201-37937-6.
  20. ^ Udell, John (9 May 2003). "Interfaces are habit-forming". Infoworld. Archived from the original on 4 April 2017. Retrieved 3 April 2017.
  21. ^ a b c d e f g h "User Interface & User Experience Design Oryzo Small Business UI/UX". Oryzo. Retrieved 19 November 2019.
  22. ^ a b c Wesolko, Dane (27 October 2016). "Peter Morville's User Experience Honeycomb". Medium. Retrieved 19 November 2019.
  23. ^ Errett, Joshua. "As app fatigue sets in, Toronto engineers move on to chatbots". CBC. CBC/Radio-Canada. Archived from the original on 22 June 2016. Retrieved 4 July 2016.
  24. ^ Martinez, Wendy L. (23 February 2011). "Graphical user interfaces: Graphical user interfaces". Wiley Interdisciplinary Reviews: Computational Statistics. 3 (2): 119–133. doi:10.1002/wics.150. S2CID 60467930.
  25. ^ Lamb, Gordana (2001). "Improve Your UI Design Process with Object-Oriented Techniques". Visual Basic Developer magazine. Archived from the original on 14 August 2013. Table 1. Differences between the traditional application-oriented and object-oriented approaches to UI design.
  26. ^ appleinsider.com Wayback Machine에서 2009-06-19 아카이브
  27. ^ Jakob Nielsen (April 1993). "Noncommand User Interfaces". Communications of the ACM. ACM Press. 36 (4): 83–99. doi:10.1145/255950.153582. S2CID 7684922. Archived from the original on 10 November 2006.
  28. ^ 샤론, 탈리, 헨리 리버만 그리고 테드 셀커."Web 브라우징 그룹 경험을 활용하기 위한 제로 입력 인터페이스 2017-09-08 Wayback Machine에서 아카이브됨"지능형 사용자 인터페이스 관련 제8차 국제회의 진행 상황ACM, 2003.

외부 링크