この規格 プレビューページの目次
※一部、英文及び仏文を自動翻訳した日本語訳を使用しています。
序章
自動化されたシステム (バイオメトリクスを含む) は、意思決定プロセスでますます使用されています。近年、いくつかの自動決定システムに反映された体系的なパフォーマンスの違いが報告され、熱く議論されています。このレポートのコンテキストでは、パフォーマンスの差を示すアルゴリズムは、性別、年齢、人種/民族などに基づいて、さまざまなグループの個人に対して統計的に異なる結果または決定を生成します。生体認証のコンテキストでは、これは偽陽性および/または偽陰性の確率が人口統計グループ間で異なる可能性があることを意味します。影響を受ける個人に対するこのようなパフォーマンスの違いの影響は、協調アクセス制御システムにおける単なる不便から、顔認識システムによって生成される決定に基づいて特定の人口統計グループの逮捕率が変化するなどの結果的な害にまで及ぶ可能性があります。
このようなシステムは、どのグループに対しても明示的に差別化するように設計されていないことはほぼ確実ですが、システム設計者の意図とは関係なく、暗黙的な相違が発生する可能性があります。それらは、トレーニング データ自体やデータ処理を含むがこれらに限定されない、意思決定パイプラインの多くの段階で提示および伝播できます。このようなシステムのスケーラビリティにより、典型的な人間ベースのプロセスよりも大量の誤った、または不正確な決定が生成される可能性があります。その結果、近年、このようなシステムの公平性 (つまり、パフォーマンスの差の欠如) を測定して保証することが、メディアや政界でしばしば議論され、それに応じて研究や商業的関心が高まっています。テクノロジーの展開が増えるにつれて、すべてのユーザーに対して同じように機能するかどうかを検討することが重要です。このドキュメントは、人口統計学的要因に関連する認識パフォーマンスの違いが生体認証システムのどこに存在するかを特定するのに役立ちます。
Introduction
Automated systems (including biometrics) are increasingly used in decision-making processes. In recent years, systemic performance differentials reflected in several automated decision systems have been reported and hotly debated. In the context of this report, an algorithm exhibiting performance differentials produces statistically different outcomes or decisions for different groups of individuals, for example, based on gender, age and race/ethnicity. In the context of biometric recognition, this means that probabilities of false positives and/or false negatives can differ among the demographic groups. The impacts of such performance differentials on the affected individuals can range from mere inconvenience in cooperative access control systems, to consequential harms such as varying arrest rates for certain demographic groups based on decisions produced by facial recognition systems.
Although such systems are almost certainly not designed to be explicitly differential against any group, implicit differences can occur independently of the intentions of the system designers. They can be exhibited and propagated at many stages of the decision-making pipeline, including but not limited to training data itself as well as the data processing. Due to the scalability of such systems, a higher quantity of erroneous or inaccurate decisions can be generated than in the typical, human-based processes. Consequently, in recent years, measuring and ensuring the fairness (i.e. lack of differential performance) of such systems has often been discussed in the media and political circles, with research and commercial interest increasing accordingly. With increasing deployments of the technology, it is important to consider whether it performs similarly for all users. This document helps to identify where recognition performance differences related to demographic factors can exist in biometric systems.