この規格 プレビューページの目次
※一部、英文及び仏文を自動翻訳した日本語訳を使用しています。
3 用語、定義および略語
3.1 用語と定義
このドキュメントの目的のために、ISO/IEC 18039 および以下に記載されている用語と定義が適用されます。
ISO と IEC は、次のアドレスで標準化に使用する用語データベースを維持しています。
3.1.1
拡張オブジェクト
拡張されたオブジェクト
3.1.2
地理座標系
LAE (3.1.4) の位置を定義するためにセンサー デバイスによって提供される座標系
3.1.3
ヘッドマウントディスプレイ
HMD
仮想現実のステレオ ビューを表示するデバイス
注記 1:左右の目に適応できるレンズと半透明ミラーを備えた 2 つの小型ディスプレイがあります。
3.1.4
実在の俳優と実体
ラエ
MAR コンテンツまたはシステムにおける、人間、動物、鳥などの生きている物理的または現実のオブジェクトの表現
注記 1:ライブ アクターは、カメラからジェスチャーをキャプチャすることにより、MAR シーン内の仮想オブジェクトとアニメーション化、移動、および対話することができます。エンティティとは、MAR コンテンツに存在する 3D オブジェクトおよびエンティティを指します。
3.1.5
LAE レコグナイザー
LAE キャプチャー (3.1.6) と LAE センサーからの出力を認識し、コンテンツ作成者が指定した条件に基づいて MAR イベントを生成する MAR コンポーネント
3.1.6
LAE キャプチャー
仮想世界と物理世界で LAE (3.1.4) をキャプチャする MAR コンポーネントには、深度カメラ、一般的なカメラ、360° カメラなどが含まれます。
注記 1: LAE の情報は、LAE レコグナイザーおよび LAE トラッカーによって処理され、背景または骨格を抽出することができます。
3.1.7
LAEトラッカー
LAE キャプチャー (3.1.6) とセンサーからの信号を分析し、追跡された LAE (3.1.4) のいくつかの特性 (位置、向き、振幅、プロファイルなど) を提供する MAR コンポーネント (ハードウェアとソフトウェア)
3.1.8
物理カメラ座標系
物理世界で LAE (3.1.4) をキャプチャするためにカメラによって提供される座標系
3.1.9
物理座標系
LAE (3.1.4) での位置特定を可能にし、地理空間座標系センシング デバイスによって制御される座標系。
3.1.10
仮想アクターとエンティティ
アラブ首長国連邦
LAE の仮想現実表現 (3.1.4)
注記 1:仮想俳優および実体は、3D キャプチャ技術によって取得され、MAR シーンで再構成、送信、または圧縮することができます。バーチャル アクターとエンティティは、ホログラフィ テクノロジを使用して、ある場所でキャプチャしたり、別の場所にリアルタイムで送信したりできます。
3.1.11
ワールド座標系
モデル座標系が相互に作用することを可能にするコンピュータ グラフィックスのユニバーサル システム
3.2 略語
このドキュメントの目的のために、ISO/IEC 18039 および以下に記載されている略語が適用されます。
| 東ドイツ | ダンスダンスレボリューション |
| 誓い | イベント識別子 |
| 視界 | 視野 |
| GNSS | 全地球航法衛星システム |
| ラエマール | 複合現実と拡張現実におけるライブの俳優とエンティティの表現 |
| RGB | 赤、緑、青 |
| SDK | ソフトウェア開発キット |
| シド | センサー識別子 |
| UI | ユーザーインターフェース |
| UTM | ユニバーサル横メルカトル図法 |
| VR | バーチャルリアリティ |
参考文献
| [1] | ミルグラム P, 竹村 H, 内海 A, 岸野F of Telemanipulator and Telepresence Technologies 、1995, 2351, pp.282–292 |
| [2] | 東R.、拡張現実の調査、プレゼンス:遠隔操作者と仮想環境、1997, 6(4)、p355-385 |
| [3] | Jolesz F.、画像誘導手術と未来の手術室、 Radiology 、1997 年、204, (3)、pp.601-12 |
| [4] | Fuchs H, Livingston M, Raskar R, Colucci D, Keller K, State A et al. 腹腔鏡手術のための拡張現実の視覚化Proc.インターナショナルのConference on Medical Image Computing and Computer Assisted Intervention 、1998年、1496年、pp.934–943 |
| [5] | Mixed Reality VR テスト — ボウスリンガーとホロボール https://www.youtube.com/watch?v=Kw5yPyv9O9E |
| [6] | 加藤H, ビリングハーストM, ビデオベースの拡張現実会議システムのマーカー追跡とHMDキャリブレーション、 Proインターナショナルの拡張現実に関するワークショップ、1999 年、85 ~ 9 ページ |
| [7] | マイクロソフト ホロポーテーション — https://www.microsoft.com/en-us/research/project/holoportation-3/ |
| [8] | クロマキーイング 、 https://en.wikipedia.org/wiki/Chroma_key#/media/File:GreenscreenCompare.png |
| [9] | WebXR デバイス API, 2019 年、 https: //immersive-web.github.io/webxr/ |
| [10] | Vuthea Chheang, Ga-Ae Ryu, Sangkwon Jeong, Gookhwan Lee, および Kwan-Hee Yo A Web-based System for Embedding a Live Actor and Entity using X3DOM, 韓国放送技術者協会、 2016, 11 pp. 1–3 |
| [11] | Jeon S.、Choi S.、触覚拡張現実のためのリアル剛性増強、 Presence: Teleoperators and Virtual Environments 、2011, 20, (4)、pp.337–370 |
| [12] | Klein G, Murray D, 小さな AR ワークスペースの並列追跡とマッピング、 Proc.インターナショナルの複合現実と拡張現実に関するシンポジウム、2007 年、1 ~ 10 ページ |
| [13] | Thomas C, Close B, Donoghue J, Squires J, De Bondi P, Morris M et al ARQuake: 屋外/屋内拡張現実の一人称アプリケーション、Proc.インターナショナルのウェアラブル コンピューティングに関するシンポジウム、2000 年、pp. 139–146 |
| [14] | Johanna H.、ダンス ダンス レボリューション ゲームに関する国際調査、エンターテインメントにおける理論的および実用的なコンピュータ アプリケーション、2006 年、4(2) |
| [15] | Kim Jong-Oh, Kim Mihye, Yoo Kwan-Hee, Real-Time Hand Gesture-Based Interaction with Objects in 3D Virtual Environments, International Journal of Multimedia and Ubiquitous Engineering , 2013, 8(6), pp. 339-348 |
| [16] | Open Geospatial Consortiu, Keyhole Markup Languag, 2017 年、 www.opengeospatial.org/standards/kml |
| [17] | Hill A, MacIntyre B, Gandy M, Davidson B, Rouzati H KHARMA: モバイル拡張現実アプリケーション用のオープン KML/HTML アーキテクチャ、 Proc.インターナショナルの複合現実と拡張現実に関するシンポジウム、2010 年、pp. 233–234 |
| [18] | Billinghurst M, Kato H, Poupyev I, The Magic Book: A transitional AR interface, Computers and Graphics , 2001, 25 (5), pp. 745-753 |
3 Terms, definitions and abbreviated terms
3.1 Terms and definitions
For the purposes of this document, the terms and definitions given in ISO/IEC 18039 and the following apply.
ISO and IEC maintain terminological databases for use in standardization at the following addresses:
3.1.1
augmented object
object with augmentation
3.1.2
geographic coordinate system
coordinate system which is provided by sensor devices for defining a location of LAE (3.1.4)
3.1.3
head mounted display
HMD
device which displays stereo views of virtual reality
Note 1 to entry: It has two small displays with lenses and semi-transparent mirrors which can adapt to the left and right eyes.
3.1.4
live actor and entity
LAE
representation of a living physical or real object, such as a human being, animal or bird, in the MAR content or system
Note 1 to entry: A live actor can be animated, moved and interacted with virtual objects in an MAR scene by capturing gesture from a camera. Entity refers to 3D objects and entities that exist in MAR content.
3.1.5
LAE recognizer
MAR component that recognizes the output from an LAE capturer (3.1.6) and an LAE sensor, then generates MAR events based on conditions indicated by the content creator
3.1.6
LAE capturer
MAR component that captures an LAE (3.1.4) in a virtual world and a physical world, which includes depth cameras, general cameras, 360° cameras and so on
Note 1 to entry: LAE’s information can be processed by an LAE recognizer and an LAE tracker to extract background or skeleton.
3.1.7
LAE tracker
MAR component (hardware and software) that analyses signals from LAE capturers (3.1.6) and sensors and provides some characteristics of a tracked LAE (3.1.4) (for example position, orientation, amplitude, profile)
3.1.8
physical camera coordinate system
coordinate system which is provided by a camera for capturing LAE(s) (3.1.4) in physical world
3.1.9
physical coordinate system
coordinate system that enables locating an LAE (3.1.4) and is controlled by a geospatial coordinate system sensing device
3.1.10
virtual actor and entity
VAE
virtual reality representation of an LAE (3.1.4)
Note 1 to entry: The virtual actor and entity is obtained by a 3D capturing technique and can be reconstructed, transmitted or compressed in the MAR scene. A virtual actor and entity can be captured in one place or transmitted to another place in real time using holography technology.
3.1.11
world coordinate system
universal system in computer graphics that allows model coordinate systems to interact with each other
3.2 Abbreviated terms
For the purposes of this document, the abbreviated terms given in ISO/IEC 18039 and the following apply.
| DDR | dance dance revolution |
| EID | event identifier |
| FOV | field of view |
| GNSS | global navigation satellite system |
| LAE-MAR | live actor and entity representation in mixed and augmented reality |
| RGB | red, green, blue |
| SDK | software development kit |
| SID | sensor identifier |
| UI | user interface |
| UTM | universal transverse mercator |
| VR | virtual reality |
Bibliography
| [1] | Milgram P., Takemura H., Utsumi A., Kishino F., Augmented reality: A class of displays on the reality-virtuality continuum, Proc. of Telemanipulator and Telepresence Technologies, 1995, 2351, pp. 282–292 |
| [2] | Azuma R., A survey of augmented Reality, Presence: Teleoperators and Virtual Environments, 1997, 6(4), pp. 355–385 |
| [3] | Jolesz F., Image-guided procedures and the operating room of the future, Radiology, 1997, 204(3), pp. 601–12 |
| [4] | Fuchs H., Livingston M., Raskar R., Colucci D., Keller K., State A. et al., Augmented reality visualization for laparoscopic surgery, Proc. of Intl. Conference on Medical Image Computing and Computer Assisted Intervention, 1998, 1496, pp. 934–943 |
| [5] | Mixed Reality VR testing — Bowslinger & Holoball https://www.youtube.com/watch?v=Kw5yPyv9O9E |
| [6] | Kato H., Billinghurst M., Marker tracking and HMD calibration for a video-based augmented reality conferencing system, Proc. of Intl. Workshop on Augmented Reality, 1999, pp. 85–9 |
| [7] | Microsoft Holoportation — https://www.microsoft.com/en-us/research/project/holoportation-3/ |
| [8] | Chroma-keying, https://en.wikipedia.org/wiki/Chroma_key#/media/File:GreenscreenCompare.png |
| [9] | WebXR device API, 2019, https://immersive-web.github.io/webxr/ |
| [10] | Vuthea Chheang, Ga-Ae Ryu, Sangkwon Jeong, Gookhwan Lee, Kwan-Hee Yoo. A Web-based System for Embedding a Live Actor and Entity using X3DOM, Korean society of broadcast engineers, 2016, 11 pp. 1–3 |
| [11] | Jeon S., Choi S., Real stiffness augmentation for haptic augmented reality, Presence: Teleoperators and Virtual Environments, 2011, 20(4), pp. 337–370 |
| [12] | Klein G., Murray D., Parallel tracking and mapping for small AR workspaces, Proc. of Intl. Symposium on Mixed and Augmented Reality, 2007, pp. 1–10 |
| [13] | Thomas C., Close B., Donoghue J., Squires J., De Bondi P., Morris M. et al., ARQuake: An outdoor/indoor augmented reality first person application, Proc. of Intl. Symposium on Wearable Computing, 2000, pp. 139–146 |
| [14] | Johanna H., International Survey on the dance dance revolution game, Theoretical and practical computer applications in entertainment, 2006, 4(2) |
| [15] | Kim Jong-Oh, Kim Mihye, Yoo Kwan-Hee, Real-Time Hand Gesture-Based Interaction with Objects in 3D Virtual Environments, International Journal of Multimedia and Ubiquitous Engineering, 2013, 8(6), pp. 339–348 |
| [16] | Open Geospatial Consortium (OGC), Keyhole Markup Language (KML), 2017, www.opengeospatial.org/standards/kml |
| [17] | Hill A., MacIntyre B., Gandy M., Davidson B., Rouzati H., KHARMA: An open KML/HTML architecture for mobile augmented reality applications, Proc. of Intl. Symposium on Mixed and Augmented Reality, 2010, pp. 233–234 |
| [18] | Billinghurst M., Kato H., Poupyrev I., The MagicBook: A transitional AR interface, Computers and Graphics, 2001, 25 (5), pp. 745–753 |