ISO/IEC 30113-60:2020 情報技術—デバイスとメソッド間のジェスチャベースのインターフェイス—パート60:スクリーンリーダーのジェスチャに関する一般的なガイダンス | ページ 2

※一部、英文及び仏文を自動翻訳した日本語訳を使用しています。

序文

ISO (国際標準化機構) と IEC (国際電気標準会議) は、世界標準化のための専門システムを形成しています。 ISO または IEC のメンバーである国家機関は、技術活動の特定の分野を扱うために、それぞれの組織によって設立された技術委員会を通じて、国際規格の開発に参加しています。 ISO と IEC の技術委員会は、相互に関心のある分野で協力しています。 ISO および IEC と連携して、政府および非政府の他の国際機関もこの作業に参加しています。

この文書の作成に使用された手順と、今後の維持を意図した手順は、ISO/IEC 指令で説明されています。 1. 特に、さまざまなタイプの文書に必要なさまざまな承認基準に注意する必要があります。この文書は、ISO/IEC 指令の編集規則に従って作成されました。 2 ( www.iso.org/directives を参照)

このドキュメントの要素の一部が特許権の対象となる可能性があることに注意してください。 ISO および IEC は、そのような特許権の一部またはすべてを特定する責任を負わないものとします。ドキュメントの開発中に特定された特許権の詳細は、序論および/または受信した特許宣言の ISO リスト ( www.iso.org/patents を参照) または受信した特許宣言の IEC リスト ( http://patents.iec.ch )

このドキュメントで使用されている商号は、ユーザーの便宜のために提供された情報であり、保証を構成するものではありません。

規格の自発的な性質の説明、適合性評価に関連する ISO 固有の用語と表現の意味、および技術的貿易障壁 (TBT) における世界貿易機関 (WTO) の原則への ISO の準拠に関する情報については、以下を参照してください。 www.iso.org/iso/foreword.html .

このドキュメントは、合同技術委員会 ISO/IEC JTC 1, 情報技術、小委員会 SC 35, ユーザー インターフェイスによって作成されました。

ISO/IEC 30113 シリーズのすべての部品のリストは、ISO Web サイトで見つけることができます。

序章

視覚障害のあるユーザーが晴眼者と同じハードウェアを使用している場合でも、異なるジェスチャを使用したり、同じジェスチャを晴眼者とは異なる方法で実行したりすることを好む可能性があります。また、目の見えるユーザーは、視覚的なフィードバックがない場合、ジェスチャーを異なる方法で実行できます。

目の不自由なユーザーにとって、ICT デバイスのジェスチャの形や輪郭は、目の見えるユーザーにとっては単純に見えても、理解するのに問題があります。重要な問題は、基本的に視覚情報と ICT デバイスからのフィードバックです。したがって、視覚障害を持つユーザーに特別なジェスチャーを提供する必要があります。

スクリーン リーダーは、ユーザーが ICT デバイスの画面に表示されるコンテンツを識別して理解するのをサポートします。コンテンツに関する情報は、テキスト読み上げまたは点字出力デバイスを利用するスクリーン リーダーによってユーザーに読み上げられます。目の見えるユーザーは画面の内容を視覚的にスキャンして理解しますが、視覚障害のあるユーザーはスクリーン リーダーを使用して内容を理解します。画面は通常、ページ領域、見出し、ナビゲーション要素、テキスト リンク、画像などで構成されます。スクリーン リーダーのユーザーは、要素を識別してページを移動する必要があります。したがって、特別に設計されたスクリーン リーダーのジェスチャが必要です。ジェスチャーは、スクリーン リーダーのユーザー向けに標準化する必要があります。

このドキュメントでは、さまざまな ICT デバイスで実行されるスクリーン リーダーの標準的なジェスチャに関する一般的なガイダンスを提供します。ジェスチャは、主にスクリーン リーダーのユーザーが ICT デバイスを操作するときに使用します。付録 A では、スクリーン リーダーのジェスチャの特定のインスタンスについて説明しています。

1 スコープ

このドキュメントでは、さまざまな ICT デバイスで実行されるスクリーン リーダーのジェスチャに関する一般的なガイダンスを提供します。このドキュメントでは、ジェスチャを認識するための特定のテクノロジを定義したり、要求したりすることはありません。 ICT デバイスで動作するスクリーン リーダーのジェスチャと機能の説明に焦点を当てています。

2 参考文献

このドキュメントには規範的な参照はありません。

3 用語と定義

このドキュメントでは、次の用語と定義が適用されます。

ISO と IEC は、次のアドレスで標準化に使用する用語データベースを維持しています。

3.1

ジェスチャーコマンド

選択、移動、削除など、ユーザーによるジェスチャ入力から生じるシステムへの命令

[出典: ISO/IEC 30113-1:2015, 3.3]

3.2

スクリーンリーダー

画面を見なくても画面上の情報にアクセスできるように、画面上の文字やその他の情報をユーザーに読み上げる機能

[出典: ISO/IEC 24786:2009, 4.11]

3.3

興味のあるポイント

興味がある点

ユーザーがジェスチャを作成するために使用する特定のポイント位置

注記 1: POI は、ユーザーが画面上のオブジェクトと対話するために使用され、オブジェクト上の特定の場所である必要はありません。オブジェクトのどこにでも配置できます。

[出典: ISO/IEC 30113-11:2017, 3.1, 修正 — エントリに注 1 を追加]

3.4

閉じたジェスチャー

始点と終点が一致する身振り

3.5

学習可能性

特定のユーザーが製品またはシステムを使用して、特定の使用状況において有効性、効率性、リスクからの自由、および満足感を持って製品またはシステムを使用することを学習するという特定の目標を達成できる程度

注記 1製品またはシステムを有効性、効率性、リスクから解放された状態で使用することを学習するという指定された目標を達成するために、指定されたユーザーが製品またはシステムを使用できる程度として指定または測定することができます。特定の使用状況、または ISO 9241-110 で定義されている学習への適合性に対応する製品特性によって。

[出典: ISO/IEC 25010:2011, 4.2.4.2]

3.6

アクセシビリティ

製品、システム、サービス、環境、および施設が、特定された使用状況で特定された目標を達成するために、幅広いユーザー ニーズ、特徴、および能力を備えた集団の人々によってどの程度使用できるか

注記1:使用のコンテキストには、直接使用または支援技術によってサポートされる使用が含まれます。

[出典: ISO 9241-112:2017, 3.15]

3.7

パスベースのジェスチャ

始点から始まり、終点に到達する前に少なくとも 1 つの中間点を通過してジェスチャを完了するジェスチャ

3.8

長さ

ジェスチャのパスの隣接ポイント間のユークリッド距離 (ピクセル単位) の累積合計

参考文献

[1]ISO 9241-110, 人間とシステムの相互作用のエルゴノミクス — 110: 相互作用の原則
[2]ISO 9241-112:2011, 人間とシステムの相互作用のエルゴノミクス — 112: 情報の提示に関する原則
[3]ISO 9241-171, 人間とシステムの相互作用のエルゴノミクス — 171: ソフトウェアアクセシビリティに関するガイダンス
[4]ISO/IEC 24786:2009, 情報技術 — ユーザー インターフェイス — アクセシビリティ設定用のアクセス可能なユーザー インターフェイス
[5]ISO/IEC 25010:2011, システムおよびソフトウェア工学 — システムおよびソフトウェアの品質要件と評価 (SQuaRE) — システムおよびソフトウェアの品質モデル
[6]ISO/IEC 30113-1, 情報技術 — デバイスおよび方法全体にわたるジェスチャーベースのインターフェース — 1: フレームワーク
[7]ISO/IEC 30113-11, 情報技術 — デバイスおよび方法全体にわたるジェスチャーベースのインターフェース — 11: 一般的なシステム アクションのシングルポイント ジェスチャ
[8]Dim NK, Ren X, 視覚障害者向け携帯電話のモーション ジェスチャ インターフェイスの設計、 Journal of Computer Science and Technology 29, (5)、pp.812–824, 2014 年 9 月
[9]Johnson Jeff, Finn Kate, ユニバーサル デザインに向けた高齢化人口のためのユーザー インターフェイスの設計、Morgan Kaufmann, 2017
[10]Schibelsky L. et al.、タッチ スクリーン モバイル デバイス用のアクセシブルな相互作用モデルの開発: 暫定結果、IHC+CLIHC '11 Proceedings of the 10th Brazil Symposium on Human Factors in Computing Systems and the 5th Latin American Conference on Human-Computer Interaction, 222-226ページ
[11]Buzzi Maria Caludia 他、視覚障害者のスマートフォンでのタッチ ジェスチャの分析、マルチメディア ツールとアプリケーション、2017 年 2 月、第 76 巻、第 4 号、pp 5141-5169
[12]Mi Na 他、アクセシブルなスマートフォン インターフェイス設計のためのヒューリスティック チェックリスト、情報社会におけるユニバーサル アクセス、2014 年 11 月、第 13 巻、第 4 号、pp 351-365
[13]Kane SK et al., Usable Gestures for Blind people: Understanding Preference and performance , CHI 2011
[14]Kane SK, 視覚障害者のためのアクセシブルなタッチ スクリーン インタラクションの理解と作成 (博士論文)、2011 年
[15]Luthra V et al.、モバイル環境における視覚障害のあるユーザーのタッチ スクリーン ジェスチャの理解、評価、分析、ヒューマン コンピュータ インタラクションにおけるユニバーサル アクセスに関する国際会議 UAHCI 2015: ヒューマン コンピュータ インタラクションにおけるユニバーサル アクセス。インタラクションへのアクセス pp 25-36
[16]Kavaklo Manolya et al., Impacts of Culture on Gesture Based Interfaces: A Case Study on Anglo-Celtics and Latin Americans, International Journal on Advances in Life Sciences , vol 4 no 3 & 4, 2012, http://www.iariajournals. org/life_sciences/
[17]Uran Oh et al.、タッチスクリーン ジェスチャを教えるための音声ベースのフィードバック手法、 ACM Transactions on Accessible Computing 、Vol. 3, 第 9 条、2015 年 11 月
[18]W3C ウェブ アクセシビリティ イニシアチブ (WAI)、ウェブ コンテンツ アクセシビリティ ガイドライン (WCAG) 2.1, 2018
[19]Chêne Denis, Petit Éric, Zijp-Rouzier Sophie, すべての人にデザインを実現する方法: 「リスト」、「フォーカス」、および「マルチモダリティ」を最小限の要件として、Proceedings of Universal Access in Human-Computer Interaction, UAHCI 2016

Foreword

ISO (the International Organization for Standardization) and IEC (the International Electrotechnical Commission) form the specialized system for worldwide standardization. National bodies that are members of ISO or IEC participate in the development of International Standards through technical committees established by the respective organization to deal with particular fields of technical activity. ISO and IEC technical committees collaborate in fields of mutual interest. Other international organizations, governmental and non-governmental, in liaison with ISO and IEC, also take part in the work.

The procedures used to develop this document and those intended for its further maintenance are described in the ISO/IEC Directives, 1. In particular, the different approval criteria needed for the different types of document should be noted. This document was drafted in accordance with the editorial rules of the ISO/IEC Directives, 2 (see www.iso.org/directives ).

Attention is drawn to the possibility that some of the elements of this document may be the subject of patent rights. ISO and IEC shall not be held responsible for identifying any or all such patent rights. Details of any patent rights identified during the development of the document will be in the Introduction and/or on the ISO list of patent declarations received (see www.iso.org/patents ) or the IEC list of patent declarations received (see http://patents.iec.ch ).

Any trade name used in this document is information given for the convenience of users and does not constitute an endorsement.

For an explanation of the voluntary nature of standards, the meaning of ISO specific terms and expressions related to conformity assessment, as well as information about ISO's adherence to the World Trade Organization (WTO) principles in the Technical Barriers to Trade (TBT), see www.iso.org/iso/foreword.html .

This document was prepared by Joint Technical Committee ISO/IEC JTC 1, Information technology, Subcommittee SC 35, User interfaces.

A list of all parts in the ISO/IEC 30113 series can be found on the ISO website.

Introduction

Even if users with visual impairments utilize the same hardware as sighted users, it is possible that they will prefer to use different gestures, or to perform the same gestures differently from the sighted users. Sighted users can also perform gestures differently when they lack visual feedback.

Users with visual impairments experience problems in understanding shapes or outlines of gestures for ICT devices, even though they appear simple to sighted users. The critical problem is basically visual information and feedback from ICT devices. Therefore, it is necessary to provide special gestures for users with visual impairments.

Screen readers support their users in identifying and understanding content displayed on a screen of an ICT device. The information about the content is read back to the users out loud by the screen readers which might utilize text–to–speech or braille output devices. While sighted users visually scan and understand the content of the screen, the users with visual impairments utilize screen readers to understand the content. The screen is generally composed of page regions, headings, navigation elements, text links, images, etc. It is necessary for users of screen readers to identify the elements and navigate the pages. Therefore, specially designed gestures of screen readers are required. The gestures need to be standardized for the users of screen readers.

This document provides a general guidance on the standard gestures for screen readers running on various ICT devices. The gestures are primarily utilized by the users of screen readers when they interact with ICT devices. Annex A provides descriptions about specific instances of the gestures for screen readers.

1 Scope

This document provides general guidance on gestures for screen readers running on various ICT devices. The document does not define or require specific technologies for recognizing the gestures. It focuses on descriptions of gestures and functions for screen readers running on ICT devices.

2 Normative references

There are no normative references in this document.

3 Terms and definitions

For the purposes of this document, the following terms and definitions apply.

ISO and IEC maintain terminological databases for use in standardization at the following addresses:

3.1

gesture command

instruction to the system resulting from a gesture input by the user, e.g. select, move, delete

[SOURCE: ISO/IEC 30113-1:2015, 3.3]

3.2

screen reader

function that reads the characters and other information on the screen aloud to the user to allow access to the information on screen without viewing the screen

[SOURCE: ISO/IEC 24786:2009, 4.11]

3.3

point of interest

POI

specific point location that a user utilizes to formulate a gesture

Note 1 to entry: A POI is used by a user to interact with an object on a screen and does not need to be a specific location on an object. It could be located anywhere on an object.

[SOURCE: ISO/IEC 30113-11:2017, 3.1, modified — Note 1 to entry added.]

3.4

closed gesture

gesture of which its starting point and its ending point coincides

3.5

learnability

degree to which a product or system can be used by specified users to achieve specified goals of learning to use the product or system with effectiveness, efficiency, freedom from risk and satisfaction in a specified context of use

Note 1 to entry: Can be specified or measured either as the extent to which a product or system can be used by specified users to achieve specified goals of learning to use the product or system with effectiveness, efficiency, freedom from risk and satisfaction in a specified context of use, or by product properties corresponding to suitability for learning as defined in ISO 9241-110.

[SOURCE: ISO/IEC 25010:2011, 4.2.4.2]

3.6

accessibility

extent to which products, systems, services, environments and facilities can be used by people from a population with the widest range of user needs, characteristics and capabilities to achieve identified goals in identified contexts of use

Note 1 to entry: Context of use includes direct use or use supported by assistive technologies.

[SOURCE: ISO 9241-112:2017, 3.15]

3.7

path-based gesture

gesture which starts from a start point and goes through at least one intermediate point before arriving at an end point to complete the gesture

3.8

length

cumulative sum of Euclidean distance (in pixels) between adjacent points of the path of a gesture

Bibliography

[1]ISO 9241-110, Ergonomics of human-system interaction — 110: Interaction principles
[2]ISO 9241-112:2011, Ergonomics of human-system interaction — 112: Principles for the presentation of information
[3]ISO 9241-171, Ergonomics of human-system interaction — 171: Guidance on software accessibility
[4]ISO/IEC 24786:2009, Information technology — User interfaces — Accessible user interface for accessibility settings
[5]ISO/IEC 25010:2011, Systems and software engineering — Systems and software Quality Requirements and Evaluation (SQuaRE) — System and software quality models
[6]ISO/IEC 30113-1, Information technology — Gesture-based interfaces across devices and methods — 1: Framework
[7]ISO/IEC 30113-11, Information technology — Gesture-based interfaces across devices and methods — 11: Single-point gestures for common system actions
[8]Dim NK, Ren X, Designing motion gesture interfaces in mobile phones for blind people, Journal of Computer Science and Technology 29(5), p.812–824, Sept. 2014
[9]Johnson Jeff, Finn Kate, Designing user interfaces for an aging population towards universal design, Morgan Kaufmann, 2017
[10]Schibelsky L. et al., Developing an accessible interaction model for touch screen mobile devices: preliminary results, IHC+CLIHC '11 Proceedings of the 10th Brazilian Symposium on Human Factors in Computing Systems and the 5th Latin American Conference on Human-Computer Interaction, pages 222–226
[11]Buzzi Maria Caludia et al., Analyzing visually impaired people’s touch gestures on smartphones, Multimedia Tools and Applications, February 2017, Volume 76, Issue 4, pp 5141–5169
[12]Mi Na et al., A heuristic checklist for an accessible smartphone interface design, Universal Access in the Information Society, November 2014, Volume 13, Issue 4, pp 351–365
[13]Kane S.K. et al., Usable Gestures for Blind people: Understanding Preference and performance, CHI 2011
[14]Kane S.K., Understanding and creating accessible touch screen interaction for blind people (Doctoral Dissertation), 2011
[15]Luthra V. et al., Understanding, evaluating and analyzing touch screen gestures for visually impaired users in mobile environment, International Conference on Universal Access in Human-Computer Interaction UAHCI 2015: Universal Access in Human-Computer Interaction. Access to Interaction pp 25–36
[16]Kavaklo Manolya et al., Impacts of Culture on Gesture Based Interfaces: A Case Study on Anglo-Celtics and Latin Americans, International Journal on Advances in Life Sciences, vol 4 no 3 & 4, 2012, http://www.iariajournals.org/life_sciences/
[17]Uran Oh et al., Audio-based feedback techniques for teaching touchscreen gestures, ACM Transactions on Accessible Computing, Vol. 7, No. 3, Article 9, November 2015
[18]W3C Web Accessibility Initiative (WAI), Web Content Accessibility Guidelines (WCAG) 2.1, 2018
[19]Chêne Denis, Petit Éric, Zijp-Rouzier Sophie, How to Achieve Design for All: “List”, “Focus”, and “Multimodality” as Minimal Requirements, Proceedings of Universal Access in Human-Computer Interaction, UAHCI 2016