ユーザーインターフェース

ウィキペディアから、無料の百科事典
ナビゲーションにジャンプ 検索にジャンプ
スマートフォンのカメラアプリは、デバイスのデジタルカメラを操作するためのユーザーインターフェイスがあります。

ヒューマンコンピュータインタラクション工業デザイン分野では、ユーザーインターフェイスUI)は、人間と機械の間のインタラクションが発生するスペースです。この相互作用の目標は、人間の側から機械の効果的な操作と制御を可能にすると同時に、機械がオペレーターの意思決定プロセスを支援する情報をフィードバックすることです。ユーザーインターフェイスのこの幅広い概念の例には、コンピューターオペレーティングシステム、ハンドツール重機オペレーター制御、およびプロセスのインタラクティブな側面が含まれます。コントロール。ユーザーインターフェイスを作成するときに適用できる設計上の考慮事項は、人間工学心理学などの分野に関連しているか、それらを含みます。

一般に、ユーザーインターフェイス設計の目標は、目的の結果(つまり、最大のユーザビリティを生成する方法でマシンを操作することを簡単、効率的、および楽しい(ユーザーフレンドリー)にするユーザーインターフェイスを作成することです。これは一般に、オペレーターが目的の出力を達成するために最小限の入力を提供する必要があること、およびマシンがユーザーへの望ましくない出力を最小限に抑えることを意味します。

ユーザーインターフェイスは、キーボード、マウス、ゲームパッドなどの物理的な入力ハードウェア、およびコンピューターモニター、スピーカー、プリンターなどの出力ハードウェアとマシンをインターフェイスするヒューマンマシンインターフェイスHMI)を含む1つ以上のレイヤーで構成されます。 HMIを実装するデバイスは、ヒューマンインターフェイスデバイス(HID)と呼ばれます。ヒューマンマシンインターフェイスのその他の用語は、マンマシンインターフェイスMMI)であり、問​​題のマシンがコンピューターの場合は、ヒューマンコンピューターインターフェイスです。追加のUIレイヤーは、触覚UI(タッチ)、視覚UI(タッチなど、1つ以上の人間の感覚と相互作用する場合があります。視覚)、聴覚UI()、嗅覚UI(嗅覚)、平衡UI(バランス)、味覚UI(味覚)。

複合ユーザーインターフェイスCUI)は、2つ以上の感覚と相互作用するUIです。最も一般的なCUIは、グラフィカルユーザーインターフェイス(GUI)であり、触覚UIとグラフィックを表示できるビジュアルUIで構成されています。サウンドがGUIに追加されると、マルチメディアユーザーインターフェイス(MUI)になります。 CUIには標準仮想拡張の3つの大きなカテゴリがあります。標準のCUIは、キーボード、マウス、コンピューターモニターなどの標準のヒューマンインターフェイスデバイスを使用します。 CUIが現実世界をブロックして仮想現実を作成する場合、CUIは仮想であり、仮想現実インターフェイスを使用します。 CUIが現実世界をブロックせず拡張現実を作成する場合、CUIは拡張され、拡張現実インターフェイスを使用します。すべての人間の感覚とUIの相互作用は、それは理論にちなんで名付けられたクオリア・インターフェース、呼び出されるとクオリアを。 CUIは、Xセンス仮想現実インターフェースまたはXセンス拡張現実インターフェースのいずれかとして相互作用する感覚の数によって分類することもできます。ここで、Xはインターフェースされる感覚の数です。たとえば、Smell-O-Visionは、視覚的な表示、音、匂いを備えた3センス(3S)標準CUIです。場合仮想現実インタフェースは臭いとインターフェース及びタッチ4センス(4S)仮想現実インタフェースであると言われています。そしていつ拡張現実インターフェースは、匂いや触覚とインターフェースし、4センス(4S)拡張現実インターフェースと言われています。

概要

ユーザーインターフェイスまたはヒューマンマシンインターフェイスは、ヒューマンマシンインタラクションを処理するマシンの一部です。メンブレンスイッチ、ゴム製のキーパッド、タッチスクリーンは、ヒューマンマシンインターフェイスの物理的な部分の例であり、私たちが見たり触れたりすることができます。

複雑なシステムでは、通常、ヒューマンマシンインターフェイスはコンピュータ化されています。ヒューマンコンピュータインターフェースという用語は、この種のシステムを指します。コンピューティングのコンテキストでは、この用語は通常、人間とコンピューターの相互作用に使用される物理要素を制御するための専用ソフトウェアにも拡張されます

人間工学ヒューマンファクター)を考慮することにより、ヒューマンマシンインターフェースのエンジニアリングが強化されます。対応する分野は、ヒューマンファクターエンジニアリング(HFE)とシステムエンジニアリングの一部であるユーザビリティエンジニアリング(UE)です

インターフェイスデザインにヒューマンファクターを組み込むために使用されるツールは、コンピュータグラフィックスオペレーティングシステムプログラミング言語などコンピュータサイエンスの知識に基づいて開発されています今日では、ほとんどすべてのコンピューターがグラフィックスを使用しているため、コンピューターのヒューマンマシンインターフェイスにグラフィカルユーザーインターフェイスという表現を使用しています[要出典]

マルチモーダルインターフェイスを使用すると、ユーザーは複数のモダリティのユーザー入力を使用して対話できます。[1]

用語

ヒューマンマシンインターフェイスには通常、INPUTとOUTPUTの周辺ハードウェア含まれます多くの場合、グラフィカルユーザーインターフェイスなど、ソフトウェアに実装された追加のコンポーネントがあります

ユーザーインターフェイスとオペレーターインターフェイスまたはヒューマンマシンインターフェイス(HMI)には違いがあります。

  • 「ユーザーインターフェイス」という用語は、(パーソナル)コンピューターシステムや電子機器のコンテキストでよく使用されます
    • 機器またはコンピューターのネットワークがMES(製造実行システム)またはホストを介して相互にリンクされ、情報を表示する場合。
    • ヒューマンマシンインターフェイス(HMI)は通常、1台のマシンまたは機器の一部にローカルであり、ヒューマンと機器/マシンの間のインターフェイス方法です。オペレータインターフェイスは、ホスト制御システムによってリンクされている複数の機器にアクセスまたは制御するためのインターフェイス方式です。[説明が必要]
    • システムは、さまざまな種類のユーザーにサービスを提供するために、いくつかのユーザーインターフェイスを公開する場合があります。たとえば、コンピュータ化された図書館データベースは、2つのユーザーインターフェイスを提供する場合があります。1つは図書館利用者向け(限られた機能セット、使いやすさのために最適化)、もう1つは図書館職員向け(幅広い機能セット、効率化のために最適化)です。[説明が必要]
  • 機械システム、車両、または産業設備のユーザーインターフェイスは、ヒューマンマシンインターフェイス(HMI)と呼ばれることもあります。[2] HMIは、元の用語であるMMI(マンマシンインターフェイス)を変更したものです。[3]実際には、略語MMIは依然として頻繁に使用されています[3]が、MMI​​は現在別の何かを表していると主張する人もいます。[要出典]もう1つの略語はHCIですが、より一般的には人間とコンピューターの相互作用に使用されます。[3]使用される他の用語は、オペレーターインターフェースコンソール(OIC)およびオペレーターインターフェースターミナル(OIT)です。[4]ただし、省略されている用語は、マシンを操作している人間をマシン自体から分離する「レイヤー」を指します。[3]クリーンで使いやすいインターフェースがなければ、人間は情報システムと対話することができません。

サイエンスフィクション、HMIは時々 、より良いように記述されているものを参照するために使用され、直接、神経インタフェースただし、この後者の使用法では、(医療用)プロテーゼ(人工内耳など)の欠落した身体部分を置き換える人工内耳の実際の使用への適用が増えています[5] [6]

状況によっては、コンピューターがユーザーを監視し、特定のコマンドなしでユーザーのアクションに従って反応する場合があります。体の一部追跡する手段が必要であり、頭の位置視線の方向などを記録するセンサーが実験的に使用されています。これは、没入型インターフェースに特に関係があります[7] [8]

歴史

ユーザーインターフェイスの履歴は、ユーザーインターフェイスの主なタイプに応じて、次のフェーズに分けることができます。

1945–1968:バッチインターフェース

IBM029カードパンチ
IBM 029

バッチ時代には、計算能力は非常に不足していて高価でした。ユーザーインターフェイスは初歩的なものでした。ユーザーは、その逆ではなく、コンピューターに対応する必要がありました。ユーザーインターフェイスはオーバーヘッドと見なされ、ソフトウェアは、可能な限り少ないオーバーヘッドでプロセッサを最大の使用率に保つように設計されました。

バッチ機械のためのユーザインタフェースの入力側は、主たカードパンチ等または同等のメディア紙テープ出力側は、これらのメディアにラインプリンター追加しましたシステムオペレータのコンソールを除いて、人間はリアルタイムでバッチマシンと対話しませんでした。

バッチマシンにジョブを送信するには、まず、プログラムとデータセットを説明するパンチカードのデッキを準備します。プログラムカードのパンチは、コンピューター自体ではなく、キーパンチ、つまりかさばり、容赦がなく、機械的な故障が発生しやすい特殊なタイプライターのようなマシンで行われましたソフトウェアインターフェイスも同様に寛容ではなく、可能な限り最小のコンパイラとインタプリタによって解析されることを意図した非常に厳密な構文でした。

国勢調査の質問票から統計に事実を転送する事前に準備されたコードに従って、カードに穴が開けられます

カードがパンチされると、ジョブキューにドロップして待機します。最終的に、オペレーターはデッキをコンピューターに送り、おそらく磁気テープ取り付けて別のデータセットまたはヘルパーソフトウェアを提供します。ジョブは、最終結果またはエラーログが添付された中止通知を含むプリントアウトを生成します。実行が成功すると、結果が磁気テープに書き込まれたり、後の計算で使用するデータカードが生成されたりする場合もあります。

1つのジョブ所要時間は、多くの場合、丸1日でした。運が良ければ、数時間かかるかもしれません。リアルタイムの応答はありませんでした。しかし、カードキューよりも悪い運命がありました。一部のコンピューターでは、コンソールスイッチを使用してバイナリコードでプログラムを切り替えるという、さらに面倒でエラーが発生しやすいプロセスが必要でした。プラグボードと呼ばれるデバイスを使用して、プログラムロジックをマシンに組み込むために、非常に初期のマシンを部分的に再配線する必要がありました

初期のバッチシステムは、現在実行中のジョブにコンピュータ全体を提供していました。プログラムデッキとテープには、I / Oデバイスと通信し、その他の必要なハウスキーピングを実行するためのオペレーティングシステムコードと見なされるものを含める必要がありました。バッチ期間の途中、1957年以降、さまざまなグループがいわゆる「ロードアンドゴー」システムの実験を開始しました。これらは、常にコンピューターに常駐するモニタープログラム使用していました。プログラムは、サービスのモニターを呼び出すことができます。モニターのもう1つの機能は、送信されたジョブのエラーチェックを改善し、エラーをより早く、よりインテリジェントにキャッチし、ユーザーに対してより有用なフィードバックを生成することでした。したがって、モニターは、オペレーティングシステムと明示的に設計されたユーザーインターフェイスの両方に向けた最初のステップを表しています。

1969年–現在:コマンドラインユーザーインターフェイス

テレタイプモデル33
テレタイプモデル33ASR

コマンドラインインターフェイス(CLI)は、システムコンソールに接続されたバッチモニターから進化しました。彼らの相互作用モデルは一連の要求/応答トランザクションであり、要求は特殊な語彙でテキストコマンドとして表現されていました。レイテンシーはバッチシステムよりもはるかに低く、数日または数時間から数秒に短縮されました。したがって、コマンドラインシステムにより、ユーザーは、以前の結果に対するリアルタイムまたはほぼリアルタイムのフィードバックに応じて、トランザクションの後の段階について考えを変えることができました。ソフトウェアは、これまで不可能だった方法で探索的かつインタラクティブになる可能性があります。しかし、これらのインターフェースは依然としてユーザーに比較的重いニーモニック負荷をかけ、習得するために多大な労力と学習時間を必要としました。[9]

初期のコマンドラインシステムは、テレプリンターとコンピューターを組み合わせ、人間間の有線を介した情報の転送を仲介するのに効果的であることが証明された成熟したテクノロジーを採用しました。テレプリンターは元々、自動電信送受信用のデバイスとして発明されました。それらは1902年にさかのぼる歴史があり、1920年までにニュースルームやその他の場所ですでに確立されていました。それらを再利用する際には、経済は確かに考慮事項でしたが、心理学と驚き最小の原則も重要でした。テレプリンターは、多くのエンジニアやユーザーに馴染みのあるシステムとのインターフェースポイントを提供しました。

197″ 8で導入されたVT100は、これまでで最も人気のあるVDTでした。 ほとんどのターミナルエミュレータは、デフォルトでVT100モードになっています。
DECVT100端末

1970年代半ばにビデオディスプレイ端末(VDT)が広く採用されたことで、コマンドラインシステムの第2フェーズが始まりました。プリンタのヘッドやキャリッジが移動するよりも速く文字が画面のリン光ドットに投げられる可能性があるため、これらは待ち時間をさらに短縮します。彼らは、コストの絵からインクと紙の消耗品を切り取ることによって、インタラクティブプログラミングに対する保守的な抵抗を鎮めるのに役立ち、1950年代後半から60年代の最初のテレビ世代にとって、テレプリンターが1940年代のコンピューターのパイオニアよりもさらに象徴的で快適でした。

同様に重要なのは、アクセス可能な画面(迅速かつ可逆的に変更できるテキストの2次元表示)の存在により、ソフトウェア設計者がテキストではなく視覚的に記述できるインターフェイスを展開することを経済的にしたことです。この種の先駆的なアプリケーションは、コンピューターゲームとテキストエディターでした。rogue(6)やvi(1)など、初期の標本のいくつかの近縁種は、依然としてUnixの伝統の一部です

1985年:SAAユーザーインターフェイスまたはテキストベースのユーザーインターフェイス

1985年、Microsoft Windowsおよびその他のグラフィカルユーザーインターフェイスの開始に伴い、IBMは、Common User Access(CUA)派生物を含むいわゆるSystems Application Architecture(SAA)標準を作成しました。 CUAは、現在Windowsで認識され、使用されているものを正常に作成しました。最近のDOSまたはWindowsコンソールアプリケーションのほとんどは、その標準も使用します。

これは、プルダウンメニューシステムを画面の上部に、ステータスバーを下部に、ショートカットキーをすべての一般的な機能で同じにする必要があることを定義しました(たとえば、F2から開くはSAA標準に従ったすべてのアプリケーションで機能します)。これにより、ユーザーがアプリケーションを習得する速度が大幅に向上したため、アプリケーションはすぐに普及し、業界標準になりました。[10]

1968年–現在:グラフィカルユーザーインターフェイス

AMXデスクは、塩基性WIMP GUIを
ライノタイプWYSIWYG2000、1989
  • 1968 – Douglas Engelbartは、マウスポインターハイパーテキスト、および複数のウィンドウを使用するシステムであるNLSのデモを行いました[11]
  • 1970 – Xerox Palo Alto Research Center(多くはSRI)の研究者がWIMPパラダイム(Windows、アイコン、メニュー、ポインター)を開発しました[11]
  • 1973 – Xerox Alto:費用、貧弱なユーザーインターフェース、およびプログラムの欠如による商業的失敗[11]
  • 1979 –スティーブジョブズと他のアップルエンジニアがゼロックスPARCを訪問。しかし、シリコンバレーの海賊がイベントをdramatizes、Appleはすでに訪問の前に、このようマッキントッシュとリサのプロジェクトとして、GUIの開発に取り組んでいました。[12] [13]
  • 1981 – Xerox StarWYSIWYGに焦点を当てます。コスト(各16,000ドル)、パフォーマンス(ファイルの保存に数分、クラッシュからの回復に数時間)、および不十分なマーケティングによる商業的失敗(25K販売)
  • 1982 –ベル研究所のRob PikeらがBlitを設計しました。これは、1984年にAT&TとTeletypeからDMD5620端末としてリリースされました
  • 1984 -アップルMacintoshがpopularizes GUIを2回上映されたスーパーボウルのコマーシャルは、当時これまでに作られた中で最も高価なコマーシャルでした
  • 1984 – MITXウィンドウシステム:UNIXライクなシステムでGUIを開発するためのハードウェアに依存しないプラットフォームとネットワークプロトコル
  • 1985 – Windows 1.0 –MS-DOSへのGUIインターフェイスを提供しました。重なり合うウィンドウはありません(代わりにタイル張り)。
  • 1985 – MicrosoftとIBMは、最終的にMS-DOSとWindowsを置き換えることを目的としたOS / 2での作業を開始しました
  • 1986 - Appleが訴訟を起こす脅かすデジタルリサーチ彼らのGUIデスクトップがあまりにも多くのAppleのMacのように見えたので。
  • 1987 – Windows 2.0 –重複およびサイズ変更可能なウィンドウ、キーボードとマウスの機能強化
  • 1987 – Macintosh II:最初のフルカラーMac
  • 1988 – OS / 2 1.10 Standard Edition(SE)にはMicrosoftによって作成されたGUIがあり、Windows2によく似ています。

インターフェイスデザイン

インターフェイス設計で使用される主な方法には、プロトタイピングとシミュレーションが含まれます。

典型的なヒューマンマシンインターフェースの設計は、相互作用の仕様、インターフェースソフトウェアの仕様、およびプロトタイピングの段階で構成されます。

  • インタラクション仕様の一般的な方法には、ユーザー中心設計ペルソナ、アクティビティ指向設計、シナリオベース設計、および復元力設計が含まれます。
  • インターフェイスソフトウェア仕様の一般的な方法には、ユースケースと、相互作用プロトコルによる強制の制約が含まます(使用エラーを回避することを目的としています)。
  • プロトタイピングの一般的な方法は、インターフェイス要素(コントロール、装飾など)のライブラリに基づいています。

品質の原則

すべての偉大なインターフェイスは、8つの資質や特性を共有する:[誰によりますか?]

  1. 明確性:インターフェースは、言語、フロー、階層、視覚要素のメタファーを通じてすべてを明確にすることで、あいまいさを回避します。
  2. 簡潔さ[14]すべてを過度に明確にし、ラベルを付けることでインターフェースを明確にするのは簡単ですが、これはインターフェースの肥大化につながり、同時に画面に表示されるものが多すぎます。画面に表示されているものが多すぎると、探しているものを見つけるのが難しくなり、インターフェイスの使用が面倒になります。優れたインターフェースを作成する上での本当の課題は、それを簡潔かつ明確にすることです。
  3. 親しみやすさ[15]誰かが初めてインターフェースを使用する場合でも、特定の要素は親しみやすいものです。現実の比喩は、意味を伝えるために使用できます。
  4. 応答性[16]優れたインターフェースは鈍感であってはなりません。これは、インターフェースが、何が起こっているのか、ユーザーの入力が正常に処理されているかどうかについて、ユーザーに適切なフィードバックを提供する必要があることを意味します。
  5. 一貫性:[17]ユーザーが使用パターンを認識できるようにするため、アプリケーション全体でインターフェイスの一貫性を保つことが重要です。
  6. 美学:その仕事をするためにインターフェースを魅力的にする必要はありませんが、見栄えを良くすることで、ユーザーがアプリケーションを使用する時間をより楽しくすることができます。そして、より幸せなユーザーは良いことになるだけです。
  7. 効率性:時は金なりです。優れたインターフェースは、ショートカットと優れたデザインを通じてユーザーの生産性を向上させるはずです。
  8. 許し:優れたインターフェースは、ユーザーのミスを罰するのではなく、ユーザーを修正する手段を提供する必要があります。

驚き最小の原則

驚き最小原則(POLA)は、あらゆる種類のインターフェースの設計における一般的な原則です。これは、人間は一度に1つのことに完全に注意を向けることしかできないという考えに基づいており[18]、新規性を最小限に抑える必要があるという結論に至ります。

習慣形成の原則

インターフェースを永続的に使用すると、ユーザーは必然的にインターフェースを使用する習慣を身に付けることになります。したがって、設計者の役割は、ユーザーが良い習慣を身に付けることを保証することとして特徴付けることができます。設計者が他のインターフェイスの経験がある場合、同様に習慣を身に付け、ユーザーがインターフェイスをどのように操作するかについて無意識のうちに想定することがよくあります。[18] [19]

設計基準のモデル:ユーザーエクスペリエンスハニカム

ユーザーインターフェース/ユーザーエクスペリエンスガイド
Peter Morville [21]によって設計されたユーザーエクスペリエンスデザインHoneycomb [20 ]

GoogleのPeterMorvilleは、2004年にユーザーインターフェイスデザインのオペレーションを主導したときに、ユーザーエクスペリエンスハニカムフレームワークを設計しました。フレームワークは、ユーザーインターフェイスの設計をガイドするために作成されました。これは、10年間、多くのWeb開発学生のガイドラインとして機能します。[21]

  1. 使用可能:システムの設計は簡単で使いやすいですか?アプリケーションは使い慣れている必要があり、使いやすい必要があります。[21] [20]
  2. 便利:アプリケーションはニーズを満たしていますか?ビジネスの製品またはサービスは有用である必要があります。[20]
  3. 望ましい:アプリケーションのデザインは洗練されていて要領を得ていますか?システムの美学は魅力的で、翻訳しやすいものでなければなりません。[20]
  4. 検索可能:ユーザーは探している情報をすばやく見つけることができますか?情報は見つけやすく、ナビゲートしやすいものである必要があります。ユーザーがあなたの製品や情報を探す必要は決してありません。[20]
  5. アクセス可能:アプリケーションは、フレームワークを壊すことなく拡大テキストをサポートしていますか?アプリケーションは、障害を持つ人々がアクセスできる必要があります。[20]
  6. 信頼できる:アプリケーションは信頼できるセキュリティと会社の詳細を示していますか?アプリケーションは、透過的、安全、かつ正直である必要があります。[20]
  7. 価値がある:エンドユーザーはそれが価値があると思いますか?6つの基準がすべて満たされている場合、エンドユーザーはアプリケーションに価値と信頼を見出します。[20]

タイプ

HPシリーズ100HP-150のタッチスクリーン
HPシリーズ100HP-150タッチスクリーン
  1. 注意深いユーザーインターフェイスは、ユーザーに割り込むタイミング、警告の種類、およびユーザーに表示されるメッセージの詳細レベルを決定するユーザーの注意管理します。
  2. バッチインターフェイスは非対話型のユーザーインターフェイスであり、ユーザーはバッチ処理の前にバッチジョブのすべての詳細を指定し、すべての処理が完了すると出力を受け取ります。処理の開始後、コンピューターはそれ以上の入力を求めません。
  3. コマンドラインインターフェイス(CLI)は、コンピューターのキーボードでコマンド文字列入力して入力を提供し、コンピューターのモニターにテキストを出力して応答するようにユーザーに促しますプログラマーやシステム管理者、工学および科学環境、および技術的に高度なパーソナルコンピューターユーザーによって使用されます。
  4. 会話型インターフェイスを使用すると、ユーザーは、グラフィック要素の代わりに、プレーンテキストの英語(テキストメッセージやチャットボットなど)または音声コマンドを使用してコンピューターにコマンドを送信できます。これらのインターフェースは、多くの場合、人間同士の会話をエミュレートします。[22]
  5. 会話型インターフェイスエージェントは、アニメーション化された人物、ロボット、またはその他のキャラクター(Microsoftのクリップのクリップなど)の形式でコンピューターインターフェイスをパーソナライズし、対話形式で対話を提示しようとします。
  6. 交差ベースのインターフェイスは、主要なタスクがポインティングではなく境界を越えることで構成されるグラフィカルユーザーインターフェイスです。
  7. ダイレクトマニピュレーションインターフェイスは、ユーザーが提示されたオブジェクトを、少なくとも物理的な世界に大まかに対応するアクションを使用して操作できるようにするユーザーインターフェイスの一般的なクラスの名前です。
  8. ジェスチャインターフェイスは、ハンドジェスチャ、またはコンピュータのマウスやスタイラスでスケッチされたマウスジェスチャの形式で入力を受け入れるグラフィカルユーザーインターフェイスです。
  9. グラフィカルユーザーインターフェイス(GUI)は、コンピューターのキーボードやマウスなどのデバイスを介した入力を受け入れコンピューターのモニターに明確なグラフィカル出力を提供ます[23] GUI設計で広く使用されている少なくとも2つの異なる原則があります。オブジェクト指向ユーザーインターフェイス(OOUI)とアプリケーション指向インターフェイスです。[24]
  10. ハードウェアインターフェイスは、トースターから車のダッシュボード、飛行機のコックピットまで、現実世界の製品に見られる物理的、空間的インターフェイスです。それらは通常、ノブ、ボタン、スライダー、スイッチ、およびタッチスクリーンの組み合わせです。
  11. ホログラフィックユーザーインターフェイスは、電子デバイスまたは電気機械デバイスへの入力を提供します。これらのデバイスの再現されたホログラフィックイメージを指で通過させると、空中に自由に浮遊し、波源によって検出され、触覚による相互作用はありません。
  12. インテリジェントユーザーインターフェイスは、ユーザー、ドメイン、タスク、談話、メディア(グラフィックス、自然言語、ジェスチャー)。
  13. モーショントラッキングインターフェイスは、ユーザーの体の動きを監視し、それらをコマンドに変換します。現在、Appleによって開発されています。[25]
  14. マルチスクリーンインターフェースは、より柔軟な相互作用を提供するために複数のディスプレイを採用しています。これは、商業アーケードと最近ではハンドヘルド市場の両方でコンピュータゲームの相互作用によく使用されます。
  15. 自然言語インターフェースは、検索エンジンやWebページで使用されます。ユーザーは質問を入力し、応答を待ちます。
  16. 非コマンドユーザーインターフェイス。ユーザーが明示的なコマンドを作成する必要なしに、ユーザーのニーズと意図を推測することを監視します。[26]
  17. オブジェクト指向ユーザーインターフェイス(OOUI)は、オブジェクト指向プログラミングの比喩に基づいており、ユーザーがシミュレートされたオブジェクトとそのプロパティ操作できるようにします。
  18. 権限駆動型のユーザーインターフェイスは、ユーザーの権限のレベルに応じて、メニューオプションまたは機能を表示または非表示にします。このシステムは、ユーザーが利用できないアイテムを削除することにより、ユーザーエクスペリエンスを向上させることを目的としています。使用できない機能を見たユーザーはイライラするかもしれません。また、権限のない人から機能アイテムを隠すことにより、セキュリティを強化します。
  19. たとえば、コマンド動詞を変更するために、ユーザーがユーザーインターフェイスのみを介してシステム全体を制御および再定義する再帰的なユーザーインターフェイス通常、これは非常に豊富なグラフィックユーザーインターフェイスでのみ可能です。
  20. 検索インターフェイスは、サイトの検索ボックスの表示方法であり、検索結果の視覚的表現でもあります。
  21. タッチと物理的環境またはその要素をより重視するタンジブルユーザーインターフェイス
  22. タスクに焦点を当てたインターフェイス、ファイルではなくタスクを対話の主要な単位にすることで、デスクトップメタファーの情報過多の問題に対処するユーザーインターフェイスです。
  23. テキストベースのユーザーインターフェイス(TUI)は、テキストを介して対話するユーザーインターフェイスです。TUIには、コマンドラインインターフェイスとテキストベースのWIMP環境が含まれます。
  24. タッチスクリーンは、指やスタイラスのタッチによる入力を受け入れるディスプレイですますます多くのモバイルデバイスや多くの種類のPOS、産業用プロセスや機械、セルフサービス機械などで使用されています。
  25. タッチユーザーインターフェイスは、タッチパッドまたはタッチスクリーンディスプレイを入力デバイスと出力デバイスの組み合わせとして使用するグラフィカルユーザーインターフェイスです。それらは、他の形式の出力を触覚フィードバック方法で補足または置き換えます。コンピュータ化されたシミュレータなどで使用されます
  26. 入力を受け入れ、音声プロンプトを生成することによって出力を提供する音声ユーザーインターフェイスユーザー入力は、キーまたはボタンを押すか、インターフェイスに口頭で応答することによって行われます。
  27. Webブラウザプログラムを使用してユーザーが表示するWebページを生成することにより、入力を受け入れて出力を提供するWebベースのユーザーインターフェイスまたはWebユーザーインターフェイス(WUI)。新しい実装では、 PHP Java JavaScript AJAX Apache Flex .NET Framework、または同様のテクノロジーを利用して、別のプログラムでリアルタイムの制御を提供し、従来のHTMLベースのWebブラウザーを更新する必要をなくします。 Webサーバー、サーバー、およびネットワークコンピューターの管理Webインターフェイスは、多くの場合、コントロールパネルと呼ばれます
  28. ゼロ入力インターフェイスは、入力ダイアログでユーザーにクエリを実行する代わりに、センサーのセットから入力を取得します。[27]
  29. ズーミングユーザーインターフェイスは、情報オブジェクトがさまざまなレベルのスケールと詳細で表され、ユーザーが表示領域のスケールを変更して詳細を表示できるグラフィカルユーザーインターフェイスです。

ギャラリー

も参照してください

参考文献

  1. ^ コーエン、フィリップR.(1992)。「マルチモーダルインターフェースにおける自然言語の役割」。ユーザーインターフェイスソフトウェアとテクノロジーに関する第5回ACMシンポジウムの議事録-UIST'92pp。143–149。土井10.1145 /142621.142641ISBN 0897915496S2CID  9010570
  2. ^ グリフィン、ベン; バストン、ローレル。「インターフェース」(プレゼンテーション):5。2014年7月14日のオリジナルからアーカイブ検索された7年6月2014機械システム、車両、または産業設備のユーザーインターフェイスは、ヒューマンマシンインターフェイス(HMI)と呼ばれることもあります。 引用ジャーナルには|journal=ヘルプが必要です
  3. ^ a b c d 「ユーザーインターフェイスの設計と人間工学」(PDF)コース引用811ナイジェリアの国立オープン大学:科学技術学校:19。2014年7月14日のオリジナルからアーカイブ(PDF)検索された7年6月2014実際には、MMIという略語は今でも頻繁に使用されていますが、MMI​​は現在は別の何かを表していると主張する人もいます。
  4. ^ 「紹介セクション」。経営学の最近の進歩[Sl]:Wseas。2010.p。190. ISBN 978-960-474-161-8使用される他の用語は、オペレーターインターフェースコンソール(OIC)およびオペレーターインターフェースターミナル(OIT)です。
  5. ^ チプリアーニ、クリスチャン;セギル、ジェイコブ;バードウェル、ジェイ;堰、リチャード(2014)。「対象となる外因性筋肉の細いワイヤーの筋肉内電極を使用した義手の器用な制御」ニューラルシステムとリハビリテーション工学に関するIEEEトランザクション22(4):828–36。土井10.1109 /TNSRE.2014.2301234ISSN 1534から4320までPMC 4501393PMID 24760929神経の共活性化が存在し、それが次に有意なEMGレベルを生成し、したがって現在のヒューマンマシンインターフェース(HMI)の場合には意図しない動きを生成します。   
  6. ^ シティ、ルカ(2009)。「ロボットの手を制御するための神経インターフェースの開発」(PDF)。 Scuola Superiore Sant'Anna、ピサ、イタリア:IMT高等研究所ルッカ:5 。検索された7年6月2014 引用ジャーナルには|journal=ヘルプが必要です
  7. ^ ジョーダン、ジョエル。「没入型仮想環境における存在の調査のための視線方向分析」(哲学博士号のために提出された論文)。ロンドン大学:コンピュータサイエンス学部:5。2014年7月14日のオリジナルからアーカイブ(PDF)。検索された7年6月2014この論文の目的は、視線の方向が、状況によっては没入型仮想環境(IVE)の存在感を検出するためのデバイスとして使用できるという考えを調査することです。 引用ジャーナルには|journal=ヘルプが必要です
  8. ^ Ravi(2009年8月)。「HMIの紹介」2014年7月14日にオリジナルからアーカイブされました検索された7年6月2014状況によっては、コンピューターがユーザーを監視し、特定のコマンドなしでユーザーのアクションに従って反応する場合があります。体の一部を追跡する手段が必要であり、頭の位置や視線の方向などを記録するセンサーが実験的に使用されています。これは、没入型インターフェースに特に関係があります。
  9. ^ 「HMIガイド」2014年6月20日にオリジナルからアーカイブされました。
  10. ^ リチャード、ステファン。「テキストユーザーインターフェイス開発シリーズパート1-TUIの基本」2014年11月16日にオリジナルからアーカイブされました検索された13年6月2014
  11. ^ a b c マッカウン、フランク。「グラフィカルユーザーインターフェイス(GUI)の歴史」ハーディング大学。2014年11月8日にオリジナルからアーカイブされました。 引用ジャーナルには|journal=ヘルプが必要です
  12. ^ 「ゼロックスPARC訪問」web.stanford.edu 2019-02-08を取得しました
  13. ^ 「apple-history.com/グラフィカルユーザーインターフェイス(GUI)」apple-history.com 2019-02-08を取得しました
  14. ^ レイモンド、エリックスティーブン(2003)。「11」Unixプログラミングの芸術ThyrsusEnterprises。2014年10月20日にオリジナルからアーカイブされました検索された13年6月2014
  15. ^ CA D'H Gough; R.グリーン; M.ビリングハースト。「ユーザーインターフェイスにおけるユーザーの習熟度の説明」(PDF)検索された13年6月2014 引用ジャーナルには|journal=ヘルプが必要です
  16. ^ 甘い、デビッド(2001年10月)。「9-レスポンシブユーザーインターフェイスの構築」KDE2.0開発サムズ出版。2013年9月23日にオリジナルからアーカイブされました検索された13年6月2014
  17. ^ ジョン・W・サッツィンガー; ローンオルフマン(1998年3月)。「エンドユーザーアプリケーション間のユーザーインターフェイスの一貫性:メンタルモデルへの影響」経営情報システムジャーナル仮想職場の管理と情報技術によるテレワーク。ニューヨーク州アーモンク。14(4):167–193。土井10.1080 /07421222.1998.11518190
  18. ^ a b Raskin、Jef(2000)。ヒューマンインターフェース:インタラクティブシステムを設計するための新しい方向性(1.印刷編)。マサチューセッツ州レディング[ua]:アディソンウェスリー。ISBN 0-201-37937-6
  19. ^ Udell、ジョン(2003年5月9日)。「インターフェースは習慣を形成している」Infoworld2017年4月4日にオリジナルからアーカイブされました2017年4月3日取得
  20. ^ a b c d e f g h "ユーザーインターフェイスとユーザーエクスペリエンスデザイン| Oryzo |スモールビジネスUI / UX"Oryzo 20191119日取得
  21. ^ a b c ウェソルコ、デーン(2016-10-27)。「PeterMorvilleのユーザーエクスペリエンスハニカム」ミディアム20191119日取得
  22. ^ エレット、ジョシュア。「アプリの疲労が始まると、トロントのエンジニアはチャットボットに移行します」CBCCBC /ラジオ-カナダ。2016年6月22日にオリジナルからアーカイブされました2016年7月4日取得
  23. ^ マルチネス、ウェンディL.(2011-02-23)。「グラフィカルユーザーインターフェイス:グラフィカルユーザーインターフェイス」ワイリー学際的レビュー:計算統計3(2):119–133。土井10.1002 /wics.150
  24. ^ ラム、ゴルダナ(2001)。「オブジェクト指向技術でUIデザインプロセスを改善する」Visual BasicDeveloperマガジン2013年8月14日にオリジナルからアーカイブされまし表1.UI設計に対する従来のアプリケーション指向アプローチとオブジェクト指向アプローチの違い。
  25. ^ appleinsider.comはWaybackMachineで 2009年6月19日にアーカイブされました
  26. ^ ヤコブニールセン(1993年4月)。「非コマンドユーザーインターフェイス」ACMの通信ACMプレス。36(4):83–99。土井10.1145 /255950.153582S2CID 76849222006年11月10日にオリジナルからアーカイブされました。 
  27. ^ シャロン、タリー、ヘンリーリーバーマン、テッドセルカー。閲覧ウェブでのグループの経験を活用するためのゼロ入力インターフェイス アーカイブで2017年9月8日にウェイバックマシン。」インテリジェントユーザーインターフェイスに関する第8回国際会議の議事録。ACM、2003年。

外部リンク