JP6467112B2 - センサシステムのコミッショニング - Google Patents

センサシステムのコミッショニング Download PDF

Info

Publication number
JP6467112B2
JP6467112B2 JP2018522146A JP2018522146A JP6467112B2 JP 6467112 B2 JP6467112 B2 JP 6467112B2 JP 2018522146 A JP2018522146 A JP 2018522146A JP 2018522146 A JP2018522146 A JP 2018522146A JP 6467112 B2 JP6467112 B2 JP 6467112B2
Authority
JP
Japan
Prior art keywords
sensor
data
area
position data
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018522146A
Other languages
English (en)
Other versions
JP2019501482A (ja
Inventor
フェルナンデス ダヴィッド リカルド カイセドー
フェルナンデス ダヴィッド リカルド カイセドー
アシシュ ヴィジェイ パンダハリパンデ
アシシュ ヴィジェイ パンダハリパンデ
ロージェル ペーテル アンナ デルノイ
ロージェル ペーテル アンナ デルノイ
マルコ ハーヴェルラーグ
マルコ ハーヴェルラーグ
ペーテル ダイクスラー
ペーテル ダイクスラー
ヒューゴ ヨセ クラインツ
ヒューゴ ヨセ クラインツ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Publication of JP2019501482A publication Critical patent/JP2019501482A/ja
Application granted granted Critical
Publication of JP6467112B2 publication Critical patent/JP6467112B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Program-control systems
    • G05B19/02Program-control systems electric
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25068Check correct configuration of device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2642Domotique, domestic, home control, automation, smart house
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、コミッショニングされたセンサシステムにおける、コミッショニングエラーの検出に関する。
センサシステムは、センサ区域をカバーするよう構成される、複数のセンサを備え得る。例えば、複数の照明器具を備える照明システムでは、センサは、各照明器具内に組み込まれる場合もあり、又は、各照明器具と並設される場合もある。
センサシステムとの関連では、「コミッショニング」とは、センサシステムが、その意図された機能を実行することができるように、運用可能にされる、初期プロセスを指す。このコミッショニング段階は、例えば、センサの取り付け又は配置、配線、センサに対する物理的調節などを含み得る、センサシステムの物理的な設置、並びに、該センサの任意のコンフィギュレーション、例えば、関連ソフトウェア、関連データベースなどのコンフィギュア、の双方を含む。例えば、各センサは、デバイス識別子(ID)と関連付けされる場合がある。デバイスIDは、例えば、そのセンサを一意に特定するセンサID、及び/又は、(該当する場合)該センサが並設されている照明器具を特定する、照明器具IDとすることができ、あるいは、これらIDを含み得る。例えば、位置サービスを提供するために、デバイスIDのそれぞれが、データベース内の、その位置を特定する位置識別子と関連付けされる場合があり、この場合には、データベースに位置IDを追加することは、センサシステムのコミッショニング段階の一部と見なされる。
米国特許出願公開第2014/0235269(A1)号からは、区域内でセンサをコミッショニングする方法が知られている。この目的のために、当該方法は、区域内でコンピューティングデバイスの位置を追跡し、コンピューティングデバイスを、複数のセンサユニットのうちの少なくとも1つと結合することを提案している。次に、コンピューティングデバイスは、コンピューティングデバイスの追跡された位置、及び、複数のセンサユニットのうちの少なくとも1つの識別子に基づいて、複数のセンサユニットのうちの少なくとも1つの位置を特定し、記録する。
センサシステムは、例えば数百、ましては数千のセンサを有する、大規模かつ複雑なものであり得る。特に、大規模システムでは、コミッショニング段階でエラーが発生しやすいが、これは特に、コミッショニング段階の全てではないにせよ大部分が、本質的に手動のプロセスであるためである。コミッショニングエラーは、多くの状況で、例えば、設置の間のセンサの不正確な配置により、又は、(該当する場合)データベースに位置情報を追加する際のエラーにより、生じる可能性がある。更には、コミッショニングエラーを検出するための既存のメカニズムは、一般に、例えば各センサを個々にチェックすることによって実行される、本質的に手動のチェックに依存しているため、チェックプロセス自体でエラーが発生しやすい。
本発明は、センサから経時的に収集されたデータ(すなわち、履歴センサデータ)を使用する、コミッショニングエラーの検出に関する。センサは、例えば、本明細書では「視覚センサ」とも称される、画像キャプチャリングデバイス、又は、例えばレーダ、ソナー、若しくは超音波センサデバイスなどの、他のセンサデバイスであってもよい。履歴データは、少なくとも1つの移動エンティティが、センサによってカバーされている区域を通って移動する間に、ある時間間隔にわたって収集された、位置データのセットの形態である。
本発明の第1の態様は、コミッショニングされたセンサシステムにおける、コミッショニングエラーを検出する方法であって、センサシステムが、区域をカバーするよう設置された複数のセンサデバイスを備え、当該方法は、少なくとも1つのエンティティが、区域を通って移動する間に、センサデバイスによって、区域からセンサデータをキャプチャリングするステップと、位置データのセットを生成するため、センサシステムのコンピュータシステムによって、センサデータを処理するステップであって、位置データのセットは、少なくとも1つの移動エンティティによって横断された位置を特定する、ステップと、センサデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた不一致(discrepancy)を、位置データのセット内で検出するステップと、検出するステップに基づいて、少なくとも1つのセンサデバイスの不正確なコミッショニングを補正又は訂正するためセンサシステムに修正を行うステップと、を含む、方法を対象とする。
すなわち、不一致は、センサデータ(例えば、画像)からは直接検出されない。むしろ、不一致は、センサデータ(例えば、画像)から抽出された位置データを使用して検出されるものであり、位置データは、そのより少ない情報量により、該位置データが抽出されたセンサデータ(例えば、画像データ)よりも、少ないビットを使用して表され得る。このことは、位置データが抽出された後、センサデータ(例えば、画像データ)が記憶又は送信される必要がないため、メモリ及び帯域幅が節約されることを可能にする。すなわち、関連する位置情報のみが、センサデータ(例えば、画像)から抽出されるように、位置データを生成する際に、センサデータ(例えば、画像データ)から、(余分な)情報が破棄され得るため、メモリ及び帯域幅が節約され得る。このことはまた、特に、センサデータが、画像キャプチャリングデバイスであり得るセンサデバイスによってキャプチャリングされた画像の、画像データである場合に、画像内に存在する任意の人々に対する、更なるプライバシーも提供する。
好ましい実施形態では、センサデバイスは、少なくとも1つのエンティティが、区域を通って移動する間に、区域から画像データをキャプチャリングする、画像キャプチャリングデバイスである。すなわち、位置データが生成されるセンサデータは、少なくとも1つのエンティティが、区域を通って移動する間に、画像キャプチャリングデバイスによって、区域からキャプチャリングされる、画像データとすることができる。換言すれば、センサデータは、画像キャプチャリングデバイスによってキャプチャリングされた、区域の画像の、画像データとすることができる。
画像キャプチャリングデバイスのうちの少なくとも1つは、可視光カメラを含み得るものであり、及び/又は、画像キャプチャリングデバイスのうちの少なくとも1つは、熱画像センサ(例えば、熱電対アレイ、又はマイクロボロメータ)を含み得る。
しかしながら、センサデバイスは、例えば、レーダデータ、ソナーデータ、及び超音波データの形態のセンサデータをそれぞれ生成する、レーダ、ソナー、又は超音波デバイスなどの、他の形態を取ることもできる。
ある実施形態では、位置データのセットは、例えば、グローバル基準フレーム内での、すなわち、共通の空間的原点に対しての、位置ベクトル(2次元又は3次元の位置ベクトル)のセットとすることができる。
コミッショニングエラーは、適切に訂正又は考慮されない場合には、アプリケーションエラー、例えば、より高いレベルのアプリケーションエラー、又はシステムの誤作動をもたらす恐れがある。
例えば、本発明の特定の実施形態では、センサシステムは、人数計測を実行するために使用される場合がある。すなわち、センサデータ(例えば、画像)から抽出された位置情報に基づいて、区域内の総人数を推定することである。
例として、本発明の説明される実施形態では、センサシステムは、視覚センサと、視覚センサによってキャプチャリングされた画像を処理することによって抽出/生成された、位置データに基づいて、(区域内の推定総人数を示す)人数計数(people count)を生成し、人数計数に基づくデータ対応アプリケーションを提供するよう構成される、中央プロセッサとを備える、コネクテッド照明システム(connected lighting system)である。そのようなシステムでは、センサの誤配置によるセンサコミッショニングのエラー、又は他のコミッショニングエラーが、より高いレベルのアプリケーションエラー、若しくはシステムの誤作動をもたらす恐れがある。
人数計数はまた、人数計測(people counting)に基づくデータ対応アプリケーションを提供するために、使用され得る。本発明の発明者らは、コミッショニングエラーが、適切に訂正又は考慮されない場合には、エラーをもたらす恐れ、例えば、システムが人数計測のために使用される場合に、より高いシステムレベルで、デスクなどの対象地点の、特定の空間又は位置にわたる推定人数のエラーをもたらす恐れがある点を、認識している。このことはまた、人数計数に依存する任意のアプリケーションの、望ましくない挙動をもたらす恐れがある。
ある実施形態では、当該方法は、それぞれがセンサ(例えば、画像キャプチャリング)デバイスのうちの対応の1つにローカルな、コンピュータシステムの複数のローカルプロセッサ(例えば、画像プロセッサ)のそれぞれによって、当該デバイスによってキャプチャリングされたセンサデータ(例えば、画像データ)を処理し、該デバイスの視界の範囲内の、少なくとも1つのエンティティによって横断された位置を特定する、位置データの個々のセットを生成するステップと、各ローカルプロセッサ(例えば、ローカル画像プロセッサ)によって、位置データの個々のセットを、コンピュータシステムの中央プロセッサに通信するステップであって、当該セットを生成するために使用されたセンサ(例えば、画像)データが、中央プロセッサに通信されず、中央プロセッサが、不一致を検出するために使用される位置データのセットを生成するためローカルプロセッサ(例えば、ローカル画像プロセッサ)から受信された位置データの個々のセットを集約するステップと、を含み得る。
例えば、ある実施形態では、各センサ(例えば、画像キャプチャリング)デバイスによってキャプチャリングされた、位置データの個々のセットは、当該デバイスに対する、1つ以上の位置ベクトル(2次元又は3次元)のセットとすることができる。より全般的には、位置データの個々のセットは、異なる基準フレーム内で、すなわち、異なる空間的原点に対して、表現され得る。位置データの個々のセットを集約することは、個々のセットのうちの少なくとも1つに、位置データのセット内の位置ベクトルが全てグローバル基準フレーム内に、すなわち共通の空間的原点に対して存在するように、空間変換(例えば、並進変換及び/又は回転変換)を適用することを含み得る。
このことは、帯域幅を節約するものであり、また、センサ(例えば、画像キャプチャリング)デバイスの視界内の任意の人々に対して、プライバシーが維持されることも確実にする。
検出ステップは、コンピュータシステムが、位置データのセットに経路検出アルゴリズムを適用することによって、実行され得る。すなわち、コンピュータ実施経路検出アルゴリズムは、コンピュータシステムのプロセッサ上で、アルゴリズムを具現化するコードを実行することによって、実施され得る。
代替的に、当該方法は、位置データのセットの視覚的表現を、ユーザに対して表示するため、コンピュータシステムによって、ディスプレイを制御するステップを含み、検出ステップが、表示された表現を使用して、ユーザによって実行され得る。
説明される実施形態では、コミッショニングエラーは、(i)コミッショナ又はロボットが歩行試験を実行することによって生成された、位置データ(第1の説明実施形態)、又は(ii)位置データの、センサ境界を横断するユーザ軌跡及び/又はヒストグラムのパターン(第2の説明実施形態)を使用して検出されるエラーである。
第1の説明実施形態では、各センサデバイスは、当該デバイスにローカルな対応のプロセッサに接続されている、画像キャプチャリングデバイス(視覚センサ)であり、
i.各ローカルプロセッサは、その視覚センサデバイスによってキャプチャリングされた画像を処理し、画像内の、任意の人物の位置を抽出する。
ii.各ローカルプロセッサは、各人物の位置を、視覚センサ識別子(ID)及びタイムスタンプ(例えば、カウンタ)と共に、中央プロセッサに通信する。
iii.コミッショナは、自身が、空間において唯一の存在である場合に、歩行試験(すなわち、所定の軌跡に従った、部屋又は他の区域にわたる歩行)を実行する。代替的に、視覚センサによって検出可能な構成で、同様に規定の軌跡を辿るように、ロボットが作製される。
iv.中央プロセッサは、空間にわたるコミッショナの軌跡の編集物(compilation)を提示する。
v.コミッショナ、又は中央プロセッサ上で実行される経路検出アルゴリズムが、報告された軌跡と予想される軌跡との間の、不一致を検出する。
区域の画像(又は、他のセンサデータ)は、区域を通って複数の人々が移動している、ある時間間隔にわたってキャプチャリングされ得るものであり、位置データのセットは、人々によって横断された、区域内の位置を特定し得る。
当該方法は、複数の人々によって横断された複数の位置のそれぞれに関して、時間間隔内で当該位置が横断された相対頻度を伝える、関連する値を、コンピュータシステムによって生成するステップを含み得るものであり、頻度値は、不一致を検出するために使用され得る。
例えば、視覚的表現は、複数の位置に関連付けられている頻度値についての情報を、例えば、この情報を伝えるための色(色度、及び/又は輝度)及び/又は陰影付けなどを使用して、ユーザに視覚的に伝えることができる。代替的に、閾値を上回る相対頻度で横断された位置のみが、表示されてもよい。視覚的表現は、例えば、区域の表示マップ上に重ね合わせられることにより、壁を通過しているように見える経路などの不一致の検出を、可能にすることができる。
第2の説明実施形態では、各センサデバイスは、当該デバイスにローカルな対応のプロセッサに接続されている、画像キャプチャリングデバイス(視覚センサ)であり、
i.各ローカルプロセッサは、その視覚センサデバイスによってキャプチャリングされた画像を処理し、画像内の、任意の人物の位置を抽出する。
ii.各ローカルプロセッサは、各人物の位置(及び、動きの大きさ)を、視覚センサID及びタイムスタンプ(例えば、カウンタ)と共に、中央プロセッサに通信する。
iii.中央プロセッサは、長期間(例えば、数時間、又は好ましくは、少なくとも1日)にわたって、全ての視覚センサから位置情報を収集する。
iv.中央処理ユニットは、特定の閾値を上回る動きに対応する位置の、ヒートマップ(又は、他の視覚的表現)を構築する。
v.管理者、又は中央プロセッサ上で実行される経路検出アルゴリズムが、位置のヒートマップと、予想される有効な位置との間の、不一致を検出する。無効な位置の軌跡は、構成におけるエラーを示し得る(例えば、壁を通って交差する軌跡は、無効である)。
少なくとも1つのエンティティは、ユーザ又はロボットとすることができる。ロボットは、区域を通る経路を、自動化された方法で(例えば、ビーコン、内部加速度計、又は何らかの種類の屋内測位に従って)決定することができ、又は、ユーザによって遠隔制御されてもよい。
検出ステップは、例えば、センサ(例えば、画像キャプチャリング)デバイスのうちの少なくとも1つが、不正確な向きに設置されていることによる、又は、デバイス識別子が、センサシステムのデバイスデータベース内で、少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスと不正確に関連付けられていることによる、位置データのセット内での不連続性を検出するステップを含み得る。
代替的に又は付加的に、検出ステップは、位置データのセットを、区域のマップと比較することによって、区域を通る横断不可能な経路に対応する、位置データの部分を検出するステップを含み得る。
修正ステップは、
・少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスを物理的に調節するステップ、及び/又は、
・コンピュータシステムにアクセス可能なメモリ内に訂正データを記憶することによってエラーを補正するステップであって、訂正データは、少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスを、不正確に設置されているものとして特定し、これにより、コンピュータシステムが、当該エラーにもかかわらず、少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスによってキャプチャリングされたセンサデータ(例えば、画像)から、正確に情報を抽出することを可能にする、ステップ、及び/又は、
・少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスの、位置を特定する位置識別子、及び/又は向きを特定する向き識別子に関連して、不正確なデバイス識別子が記憶されている、センサシステムのデバイスデータベースを、少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスを正確に特定するデバイス識別子で、不正確なデバイス識別子を置き換えるよう、修正するステップを含み得る。
それぞれがセンサ(例えば、画像キャプチャリング)デバイスのうちの対応の1つに関連して、当該センサ(例えば、画像キャプチャリング)デバイスの位置を特定する、複数のデバイス位置識別子が、センサシステムのデバイスデータベース内に記憶され得るものであり、デバイス位置識別子は、位置データのセットを生成するために使用される。
本発明の第2の態様によれば、センサシステムは、少なくとも1つのエンティティが、区域を通って移動する間に、区域からセンサデータをキャプチャリングするよう設置されている、複数のセンサデバイスと、位置データのセットを生成するためにセンサデータを処理するよう構成される処理ロジックであって、位置データのセットは、少なくとも1つの移動エンティティによって横断された位置を特定する、処理ロジックと、位置データのセットに、経路検出アルゴリズムを適用することにより、センサデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた、位置データのセット内の不一致を検出し、これにより、少なくとも1つのセンサデバイスを、不正確にコミッショニングされているものとして特定するよう構成される、経路検出モジュールとを備える。
「処理ロジック」(例えば、「画像処理ロジック」)とは、処理(例えば、画像処理)を実施するよう構成された、ハードウェア(局在型又は分散型)及び/又はソフトウェアの任意の適した組み合わせを意味する。
例えば、好ましくは、(例えば、画像)処理ロジックは、それぞれが、画像キャプチャリングデバイスのうちの対応の1つにローカルであり、当該デバイスによってキャプチャリングされた(例えば、画像)データを処理し、該デバイスの視界内の、少なくとも1つのエンティティによって横断された位置を特定する、位置データの個々のセットを生成するよう構成される、複数のローカルプロセッサ(例えば、画像プロセッサ)によって形成され、センサシステムは、個々のセットを集約し、不一致を検出するために使用される位置データのセットを生成するよう構成される、(例えば、中央プロセッサで実行されるコードによって実装される)集約モジュールを含む。
ある実施形態では、経路検出モジュールは、検出された不一致に基づいて、例えば、少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスを不正確にコミッショニングされているものとして特定する、少なくとも1つのデバイスの識別子を、システムのメモリ内に自動的に記憶することによって、及び/又は、センサシステムの出力デバイス(例えば、ディスプレイ)を自動的に制御し、少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスを不正確にコミッショニングされているものとして特定する情報を、出力デバイスのユーザに対して出力する(例えば、表示する)ことによって、少なくとも1つのセンサ(例えば、画像キャプチャリング)デバイスを特定することができる。
センサシステムは、好ましくは、複数の照明器具を備える照明システムの、中に組み込まれている/一部である。より好ましくは、各照明器具は、センサ(例えば、画像キャプチャリング)デバイスのうちの、対応の1つと並設される。
本発明の第3の態様は、センサシステムにおけるコミッショニングエラーを検出するための、コンピュータプログラムであって、センサシステムは、区域をカバーするよう設置された複数のセンサデバイスを備え、当該コンピュータプログラムは、コンピュータ可読記憶媒体上に記憶されているコードを含み、コードは、実行された場合に、区域からセンサデバイスによってキャプチャリングされたセンサデータを処理し、これにより、少なくとも1つの移動エンティティによって横断された、区域内の位置を特定する、位置データのセットを生成するステップ、及び、センサデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた不一致を、位置データのセット内で検出し、これにより、少なくとも1つのセンサデバイスを、不正確にコミッショニングされているものとして特定するステップを、実施するよう構成される、コンピュータプログラムを対象とする。
本発明の第4の態様は、コミッショニングされたセンサシステムにおける、コミッショニングエラーを検出する方法であって、センサシステムは、区域をカバーするよう設置された複数の画像キャプチャリングデバイスを備え、当該方法は、少なくとも1つのエンティティが、区域を通って移動する間に、画像キャプチャリングデバイスによって、区域の画像をキャプチャリングするステップと、画像の画像データを、センサシステムのコンピュータシステムによって処理し、少なくとも1つの移動エンティティによって横断された位置を特定する、位置データのセットを生成するステップと、画像キャプチャリングデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた不一致を、位置データのセット内で検出するステップと、検出ステップに基づいて、少なくとも1つの画像キャプチャリングデバイスの不正確なコミッショニングを補正又は訂正するように、センサシステムに修正を行うステップとを含む、方法を対象とする。
本発明の第5の態様によれば、センサシステムは、少なくとも1つのエンティティが、区域を通って移動する間に、区域の画像をキャプチャリングするよう設置されている、複数の画像キャプチャリングデバイスと、画像の画像データを処理し、少なくとも1つの移動エンティティによって横断された位置を特定する、位置データのセットを生成するよう構成される、画像処理ロジックと、位置データのセットに、経路検出アルゴリズムを適用することにより、画像キャプチャリングデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた、位置データのセット内の不一致を検出するように構成される、経路検出モジュールとを備える。
本発明の第6の態様は、センサシステムにおけるコミッショニングエラーを検出するための、コンピュータプログラムであって、センサシステムは、区域をカバーするよう設置された複数の画像キャプチャリングデバイスを備え、当該コンピュータプログラムは、コンピュータ可読記憶媒体上に記憶されているコードを含み、コードは、実行された場合に、画像キャプチャリングデバイスによってキャプチャリングされた画像の画像データを処理し、これにより、少なくとも1つの移動エンティティによって横断された、区域内の位置を特定する、位置データのセットを生成するステップ、及び、画像キャプチャリングデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた不一致を、位置データのセット内で検出するステップを、実施するよう構成される、コンピュータプログラムを対象とする。
上記の態様のうちの任意の1つに関連して説明される任意の特徴は、上記の態様のうちの任意の他の実施形態で実施され得ることに留意されたい。
本発明を、より良好に理解するために、及び、本発明の実施形態が、どのように遂行され得るかを示すために、以下の図が参照される。
照明システムの概略図である。 照明器具の概略ブロック図である。 一対の隣接する照明器具の斜視図である。 照明システムの一部の平面図である。 照明システムを動作させるための中央処理ユニットの概略ブロック図である。 照明システムの例示的な制御アーキテクチャを示す、概略ブロック図である。 ローカル画像プロセッサが、人数計測機能を提供するために、どのように中央処理ユニットと協働するかを示す。 1つ以上の人物位置識別子の形態で個々の位置データを生成するために使用され得る、視覚センサによってキャプチャリングされた例示的画像を示す。 正確にコンフィギュレーションされるセンサシステムによって生成された、位置データのセットを示す。 視覚センサが不正確に向けられている、センサシステムによって生成されたことにより、位置データのセット内に第1のタイプの内部不一致を引き起こしている、位置データのセットを示す。 視覚センサに関して位置データが不正確に記録されている、センサシステムによって生成されたことにより、位置データのセット内に第2のタイプの内部不一致を引き起こしている、位置データのセットを示す。 センサグリッド内のセンサの列全体に関して位置データが不正確に記録されている、センサシステムによって生成されたことにより、センサによってカバーされている区域の、位置データと物理的レイアウトとの間に不一致を引き起こしている、位置データのセットを示す。 専用のコミッショニング検証プロシージャの一部として、単一のユーザ又はロボットの動きに基づいて、センサシステムによって生成された位置データのセット内の不一致を検出するためのプロセスを示す。 センサによってカバーされている区域を通過する複数の人々の動きを感知することに基づいて、センサシステムが動作している間に、長い時間間隔にわたって収集された位置データのセット内の不一致を検出するためのプロセスを示す。 正確に構成されるセンサシステムが、人数計測を実施するために、どのように使用され得るかを示す。
本発明の実施形態は、視覚センサシステムを提供する。そのようなシステムは、各照明器具内に視覚センサを有するか、又は照明器具のグループに関連付けられた視覚センサを有する、コネクテッド照明システムとすることができる。コスト及び複雑性に関して最適化されている視覚センサは、依然として、照明システムにおいて一般に使用されている従来のPIR(passive infrared;受動型赤外線)センサよりも、遥かに豊富なデータを提供することができる。プライバシー保護のために、各視覚センサは、リアルタイムで動作している場合、中央処理ユニットに画像全体を提供することはなく、それらの画像から抽出された情報、具体的には、位置データ(及び、任意選択的に、ブロック画素情報、例えば、存在判定及び/又は光レベルなどの、他の情報)のみを提供する。このことはまた、システムにおいて必要とされる、メモリの量及び通信帯域幅も低減する。視覚センサは、センサカバレッジ内での間隙を防止するために、重複する視界(field-of-view;FoV)及び感知区域を有する。
位置データは、視覚センサにローカルな画像プロセッサによって、ローカルで生成され、視覚センサから、中央プロセッサ(例えば、ローカルサーバなどのローカルのコンピュータデバイス、又はクラウドコンピューティングプラットフォームの)で一元的に収集され、中央プロセッサ上で実行される経路検出アルゴリズムによって、及び/又は手動で、データの軌跡若しくはヒストグラムのパターンの観点から分析される。
視覚センサシステムは、複数の照明器具、視覚センサ、及び中央プロセッサを備える、コネクテッド照明システムである。視覚センサは、レート制限通信リンクによって、対応のローカル画像プロセッサを介して、中央プロセッサに接続されている。中央処理ユニットは、照明システムと同じ位置、又は近傍の位置に存在している場合もあり、あるいは、クラウド、又は(例えば)インターネットの何らかの他のサーバ内に配置されている場合もある。
レート制限通信リンクの使用は、画像データが、このリンクを介して通信可能ではなく、より限定された抽出情報(具体的には、ローカルで生成された位置データ)のみが通信可能である場合に、可能なものとされる。
図1は、コミッショニングされた照明システム1の形態の、コミッショニングされた例示的な視覚センサシステムを示す。すなわち、このシステムは、既にコミッショニングされているものである。
照明システム1は、既にコミッショニングされているが、必ずしも、後続の専用のコミッショニング検証プロシージャを経ているわけではなく、この専用のコミッショニング検証プロシージャは、場合により、システムに通常運用を開始させる前に、コミッショニングエラーを検出する具体的意図の下で実行されるものである。この場合には、以下で説明される第1の実施形態におけるように、本発明の技術が適用されることにより、コミッショニング検証プロシージャを実施することができる。
代替的に、コミッショニングされた照明システム1は、既に運用されている、すなわち「稼働中(live)」の場合もある。この場合には、専用のコミッショニング検証プロシージャが実行されている場合もあれば、又は実行されていない場合もある。すなわち、必ずしも、全てのコミッショニングされた照明システムが、通常運用に入る前に専用の検証を経ているわけではない。この場合には、以下で説明される第2の実施形態におけるように、本発明の技術が使用されることにより、システムが運用されている間に、すなわち、人数計測などの、その意図された機能を実行している間に、コミッショニングエラーを検出することができる。
照明システム1は、環境2内に設置され、環境2を照明するための光を放射するように構成される、複数の照明器具4を備える。照明器具4のそれぞれが接続されている、ゲートウェイ10が示されている。ゲートウェイ10は、照明システム1内部での照明器具4の制御を遂行するものであり、照明ブリッジと称される場合もある。
この実施例では、環境2は、1つ以上の部屋及び/又は廊下(又は、それらの一部)などの、屋内空間、あるいは、スタジアム又は展望台(又は、その一部)などの、部分的に覆われた空間である。照明器具4は、それらの下方の地面(例えば、床)を照明することが可能であるように、天井に取り付けられている。照明器具は、天井の平面内で相互に直交する2つの方向に沿った、グリッドとして配されることにより、2つの実質的に平行な、照明器具4の列を形成し、各列は、複数の照明器具4によって形成されている。これらの列は、各列内の個々の照明器具4と同様に、ほぼ等しい間隔を有する。
照明器具4の真下の床の上に立っている、複数の人々8が、この環境内に示されている。
図2は、照明システム1内の各照明器具4の個々の構成を表す、照明器具4のブロック図を示す。照明器具4は、LEDベースのランプ(1つ以上のLED)、ガス放電ランプ、又はフィラメント電球などの、少なくとも1つのランプ5に加えて、任意の関連ハウジング又は支持体を備える。照明器具4はまた、ランプ5と並設されている、カメラの形態の視覚センサ6と、ローカルプロセッサ11(1つ以上の処理ユニット、例えば、CPU、GPUなどで形成されているもの)と、ネットワークインターフェース7と、ローカルプロセッサ11に接続されているローカルメモリ13(DMAユニット及び/又はRAMユニットなどの、1つ以上のメモリユニットで形成されているもの)とを備える。カメラ6は、環境を照明している際の照明器具4からの、放射を検出することが可能であり、好ましくは可視光カメラである。しかしながら、熱カメラの使用も排除されるものではない。
視覚センサ6は、ローカルプロセッサ11上で実行されるローカル画像処理コード12aによって、ローカル人物検出アルゴリズムが適用される、視覚センサ6によってキャプチャリングされた生の画像データを、ローカルプロセッサ11に供給するように接続されている。ローカル人物検出アルゴリズムは、多くのやり方で動作し得るものであり、それらの実施例が、以下で詳細に説明される。ローカル人物検出アルゴリズムは、センサ自体の位置に対する、センサ自体の視界内の任意の検出可能なエンティティの位置を伝える、1つ以上の(個々の、すなわちローカルの)「エンティティ位置識別子」の形態で、ローカル存在メトリックを生成する。エンティティは、以下で詳細に論じられるように、人物又はロボットとすることができる。これらは、例えば、センサ自体に対する、2次元位置ベクトル(x、y)又は3次元位置ベクトル(x、y、z)とすることができる。すなわち、個々の位置ベクトルは、異なる基準フレーム内で、すなわち、異なる空間的原点に対して表現され得る。
ローカルプロセッサ11は、少なくともランプ5によって放射される照明のレベルを、ローカルプロセッサ11上で実行されるローカル制御コード12bが制御することを可能にするように、ランプ5に接続されている。色などの他の照明特性もまた、制御可能とすることができる。照明器具4が、複数のランプ5を備える場合、それらランプは、少なくともある程度まで、ローカルプロセッサ11によって個別に制御可能とすることができる。例えば、異なる色のランプ5が設けられる場合があり、これにより、それらの個々の照明レベルを別個に制御することによって、全体的な色バランスが制御され得る。
ネットワークインターフェース7は、無線(例えば、ZigBee、Wi−Fi、Bluetooth)又は有線(例えば、Ethernet)のネットワークインターフェースとすることができ、ネットワーク接続性を提供することにより、照明システム4内の照明器具4は、照明ネットワークを形成し、これにより、ゲートウェイ10に接続することが可能となる。ネットワークは、任意の好適なネットワークトポロジ、例えば、メッシュトポロジ、スタートポロジ、又は、各照明器具4とゲートウェイ10との間で、信号が送信及び受信されることを可能にする、任意の他の好適なトポロジを有し得る。ネットワークインターフェース7は、ネットワークを介して、ローカルプロセッサ11が外部の制御信号を受信することを可能にするように、ローカルプロセッサ11に接続されている。これらの信号が、ローカル制御コード12aの動作を制御することにより、ランプ5の照明が外部から制御されることを可能にする。この接続はまた、ローカル画像処理コード12aによって画像量子化が適用されている、視覚センサ6によってキャプチャリングされた画像を、ローカルプロセッサ11が、ネットワークを介して外部宛先に送信することも可能にする。
図3は、上述のような、第1の光源5a及び第1の視覚センサ6aを備える、第1の照明器具4a、並びに、第2の光源5b及び第2の視覚センサ6bを備える、第2の照明器具4bの、斜視図を示す。第1の照明器具4aと第2の照明器具4bとは、隣り合う照明器具であり、すなわち、グリッドの方向の一方に沿って、又はグリッドの対角線の一方に沿って、グリッド内で互いに隣接している。
照明器具4a、4bのそれぞれの、対応のランプ5a、5bは、表面29(この実施例では、床)に向けて照明を放射するように構成されることにより、照明器具4の下方の表面29を照明する。環境を照明することに加えて、照明器具4によって提供される照明は、人々8を、視覚センサ6によって検出可能にさせる。
各照明器具4a、4bの、対応の視覚センサ6a、6bは、限定された視界を有する。視界は、その内部で、可視の構造体が視覚センサ6a、6bによって検出可能な、図4の点線によって示される空間体積を画定している。各視覚センサ6a、6bは、その対応の照明器具4a、4bの真下の、その視界(「感知区域」)の範囲内に存在する表面29の対応の位置(すなわち、区域)30a、30bの、画像をキャプチャリングするように位置決めされている。図3に見られ得るように、第1の視覚センサ4aの視界と、第2の視覚センサ4bの視界とは、その内部で双方の視覚センサ6a、6bによって構造体が検出可能な、空間領域が存在しているという意味で、重複している。結果として、第1のセンサ6aの感知区域30aの、境界30Rのうちの1つは、第2のセンサ6bのセンサ区域30b(「第2の感知区域」)の内部に存在している。同様に、第2のセンサ6bのセンサ区域32bの、境界30Lのうちの1つは、第1のセンサ6aのセンサ区域30a(「第1の感知区域」)の内部に存在している。第1のセンサ区域30aと第2のセンサ区域30bとの共通部分である、区域Aが示されている。区域Aは、第1のセンサ6a及び第2のセンサ6bの双方に対して可視(「センサ重複」)である、表面29の一部である。
図3Aは、照明システム1の一部の平面図を示すものであり、この図では、9個の照明器具4a、...、4hの、3×3グリッドが示され、それぞれが、上述のように、その対応の視覚センサのセンサ区域である、対応のセンサ区域30a、...、30hを有する。各照明器具の感知区域は、図示のように、グリッドに沿った双方向で、及びグリッドに対して斜めの双方向で、隣り合う照明器具のそれぞれの感知区域と重複している。それゆえ、隣り合う照明器具の全ての対(4a、4b)、(4a、4c)、(4a、4d)、(4b、4c)、...が、重複するセンサ区域を有する。視覚センサの重複するFoV/感知区域は、不感知領域が存在しないことを確実にするものである。
図3Aでは9個の照明器具が示されているが、本発明の技術は、より少ない照明器具、又はより多くの照明器具を備える照明システムに適用され得る。
図4は、中央処理ユニット20のブロック図を示す。中央処理ユニットは、照明システム1を動作させるための、サーバ(例えば、ローカルサーバ、又はクラウドの一部)などのコンピュータデバイス20である。中央処理ユニット20は、例えば1つ以上のCPUで形成されているプロセッサ21(中央プロセッサ)、及びネットワークインターフェース23を備える。ネットワークインターフェース22は、中央プロセッサ21に接続されている。中央処理ユニット21は、DMAデバイス及び/又はRAMデバイスなどの、1つ以上のメモリデバイスで形成されている、メモリへのアクセスを有する。メモリ22は、コンピュータ20の外部又は内部のものとすることができ、あるいは双方の組み合わせとすることもでき(すなわち、メモリ22は、場合によっては、内部メモリデバイスと外部メモリデバイスとの組み合わせを示し得る)、後者の場合、ローカルのもの、又はリモートのもの(すなわち、ネットワークを介してアクセスされる)とすることができる。プロセッサ20は、例えば、コンピュータデバイス20内に組み込まれるか、又は外部ディスプレイとすることが可能な、ディスプレイ25に接続されている。
プロセッサ21は、照明システム管理コード24(より一般的には、センサ管理コード)を実行するように示されている。特に、照明管理は、集約アルゴリズムを適用して、異なる照明器具4から受信された、複数のエンティティ位置識別子を集約することにより、これらセンサによってカバーされている区域の全体をカバーする、位置データの(集約)セットを生成する。
ネットワークインターフェース23は、有線(例えば、Ethernet、USB、FireWire)又は無線(例えば、Wi−Fi、Bluetooth)のネットワークインターフェースとすることができ、照明システム1のゲートウェイ10に、中央処理ユニット20が接続することを可能にする。ゲートウェイ10は、中央処理ユニット20と照明ネットワークとのインターフェースとして動作し、それゆえ、中央処理ユニット20が、照明ネットワークを介して、照明器具4のそれぞれと通信することを可能にする。具体的には、このことは、中央処理ユニット20が、照明器具4のそれぞれに制御信号を送信し、照明器具4のそれぞれから画像を受信することを可能にする。ゲートウェイ10は、中央処理ユニット20と照明ネットワークとの通信を可能にするために、いずれかの必要なプロトコル変換を提供する。
図2及び図4は、双方とも非常に図式的であることに留意されたい。具体的には、矢印は、照明器具4及び中央コンピュータ20の、構成要素間の高レベルの相互作用を示すものであり、ローカルの接続又は物理的な接続の、いずれかの特定の構成を示すものではない。
図4Aは、例示的な照明システム制御アーキテクチャを示すものであり、中央処理ユニット20は、この実施例ではTCP/IPネットワークである、パケットベーシックネットワーク42を介して、ゲートウェイ10に接続されている。中央処理ユニット20は、TCP/IPプロトコルを使用して、パケットベースネットワーク42を介してゲートウェイ10と通信するが、これは、例えば、Ethernetプロトコル、Wi−Fiプロトコル、又は双方の組み合わせを使用して、リンク層で遂行され得る。ネットワーク42は、例えば、ローカルエリアネットワーク(ビジネスネットワーク又はホームネットワーク)、インターネット、又は単純に、中央処理ユニット20とゲートウェイ10との間での、直接的な有線(例えば、Ethernet)又は無線(例えば、Wi−Fi)接続とすることができる。照明ネットワーク44は、この実施例ではZigBeeネットワークであり、照明器具4a、4b、4c、...は、ZigBeeプロトコルを使用してゲートウェイ10と通信する。ゲートウェイ10は、中央コンピュータ20が、パケットベースネットワーク42、ゲートウェイ10、及び照明ネットワーク44を介して、照明器具4a、4b、4cと通信することができるように、TCP/IPプロトコルとZigBeeプロトコルとの間のプロトコル変換を実行する。
このことは例示的なものであり、中央コンピュータ20と照明器具4との通信を遂行する、多くの方法が存在していることに留意されたい。例えば、コンピュータ20とゲートウェイ10との通信は、Bluetoothなどの何らかの他のプロトコルを介したもの、又は、USB、FireWire、若しくは特注の接続などの、何らかの他の直接接続を介したものとすることができる。
メモリ22は、デバイスのデータベース22aを記憶する。データベース22aは、照明システム1内の各視覚センサ6(又は、各照明器具4)の、当該視覚センサ6を照明システム1内部で一意に特定する対応の識別子(ID)と、当該視覚センサ6の、関連するデバイス位置識別子、例えば、2次元の位置識別子(x、y)、又は(例えば、視覚センサが、種々の高さで設置されている場合には)3次元の位置識別子(x、y、z)とを含む。位置識別子は、グリッド内での対応する照明器具の位置を示す、グリッド基準、例えば、n番目の列内のm番目の照明器具に関する(m、n)などの、比較的基本的な位置情報のみを伝えることができ、あるいは、視覚センサ6(又は、照明器具4)自体の、より正確な位置を、例えば、メートル又はフィートの単位で、任意の所望の精度で伝えることもできる。照明器具/視覚センサのID、及びそれらの位置は、それゆえ、中央処理ユニット20には既知である。
データベース22aは、照明システム1のコミッショニング段階の間に、データが追加されている。例えば、コミッショニング段階の間に、画像キャプチャリングデバイスの位置を特定するデバイス位置識別子が、画像キャプチャリングデバイスに手動で割り当てられる、すなわち、データベース22a内で、画像キャプチャリングデバイス自体のデバイス識別子と関連付けられ得る。
例えば、センサシステムのコミッショニング段階の間に、画像キャプチャリングデバイスの位置を特定するデバイス位置識別子が、画像キャプチャリングデバイスに割り当てられる、すなわち、データベース22a内で、画像キャプチャリングデバイス自体のデバイス識別子と関連付けられ得る。画像自体が、キャプチャリングデバイスに対する位置を伝えるものであり、この位置は、デバイス位置識別子を使用して、共通の基準フレームに変換され得る。すなわち、デバイス位置識別子を使用して、個々の位置ベクトルのうちの少なくとも一部に、空間的(並進及び/又は回転)変換が適用され得ることにより、変換されたベクトルは、同じ基準フレーム内に、すなわち、共通の原点に対して存在する。
図5は、中央プロセッサ20及び照明器具4が、システム1内部でどのように協働するかを示す。第1の照明器具4a、第2の照明器具4b、及び第3の照明器具4cが示されているが、これは純粋に例示的なものである。
各照明器具の視覚センサ6a、6b、6cは、その対応の感知区域の、少なくとも1つの画像60a、60b、60cをキャプチャリングする。照明器具のローカルプロセッサ11a、11b、11cは、画像に、ローカル人物検出アルゴリズムを適用する。すなわち、ローカル人物検出アルゴリズムは、並行して、照明器具4a、4b、4cのそれぞれで別個に適用されることにより、対応のローカル存在メトリック62a、62b、62cを生成する。ローカル存在メトリック62a、62b、62cのそれぞれは、ネットワーク42、42、及びゲートウェイ10を介して、中央処理ユニット20に送信される。画像60a、60b、60c自体は、中央処理ユニット20に送信されない。一部の場合には、センサ重複メタデータ22bが、ローカル存在メトリックを生成するために、照明器具4a、4b、4cでローカルに使用され、代替的に又は付加的に、そのような情報は、中央コンピュータ20で使用されることも可能であるが、必要な場合には、位置データ自体から、あらゆる重複FoVが検出され得るため(以下を参照)、いずれも本質的なものではない。
図6は、第1の照明器具4aの視覚センサ6aによってキャプチャリングされた、例示的な画像60を示す。
この実施例では、単一のエンティティ61が、画像60内で検出可能である。この実施例では、エンティティ61は人物であるが、代替的には、ロボットとすることも可能であり、その場合、人物に関連する全ての説明は、ロボットにも等しく適用される。
論じられたように、視覚センサ6aは、その真下の、表面29の一部の画像をキャプチャリングするため、画像60は、人物61の見下ろし図であることにより、それら人物の頭部及び肩の上部が可視である。人物61が、センサ重複区域A内に存在している場合、それらは、第2の照明器具4bによってキャプチャリングされた画像内で、同様に検出可能となることに留意されたい。すなわち、同じ人物61が、第1の照明器具4a及び第2の照明器具4bの双方からの画像内で、それら画像内の異なる対応の位置で、同時に可視となる。
各視覚センサ6は、そのID及びタイムスタンプと共に、占有者の、同じ視覚センサに関する相対位置を、例えば位置ベクトルの形態の存在メトリックとして、中央処理ユニット20に通信する。
画像60をキャプチャリングする第1の視覚センサ6aに対する、単一の人物61の位置を示す、単一の位置ベクトル62(x、y)が、どのように生成され、人物61がその位置(x、y)に存在していた時間を少なくとも近似的に示す、対応するタイムスタンプと、当該画像をキャプチャリングしたセンサのセンサ識別子とに、どのように関連付けられているかを示す、実施例が図6に示される。
中央処理ユニット20は、そのような位置ベクトルを、複数の視覚センサから収集する。中央ユニット20は、データベース22aからの、各視覚センサの位置の知識を有しているため、各視覚センサ内での各占有者の相対位置を、データベース22a内のデバイス位置識別子を使用して、それらの相対位置に、好適な空間変換を、とりわけ、並進変換(すなわち、数学的意味での平行移動)を適用することによって、例えば、所望の時間間隔にわたって、共通の基準フレームへと、すなわち、共通の空間的原点に対するものへと、変換することができる。変換された、複数の視覚センサから収集された位置ベクトルは、その時間間隔にわたる、集約位置データのセットを構成する。
変換された位置ベクトルからは、センサによってカバーされている区域を通って人物61が移動する際に、人物61によって横断された経路を、複数の視覚センサの感知区域を通じて、判定することが可能である。
このことの実施例が、図7A〜図7Dに示される。ローカル画像プロセッサ11から経時的に収集された、変換されたベクトル(62'で示されるもの)は、これらの図では点で表されており、視覚センサのセンサ区域が、説明を補助するために示されている。
図7Aは、センサシステム1が正確に構成される場合に、すなわち、コミッショニングエラーがない場合に生成された、位置データの実施例を示す。この場合には、区域を通って人物61が移動する際に経時的に収集された、変換された位置ベクトル62'は、意図されているように、人物61によって辿られた実際の経路を反映する、実質的に連続的な、すなわち、途切れのない経路を伝えることが可能である。
対照的に、図7B〜図7Dは、照明システム1におけるコミッショニングエラーにより、変換された位置ベクトル62'において、どのように様々なタイプの不一致が生じ得るかを示す。すなわち、変換された位置ベクトル62'によって示される経路と、区域を通って人物62'によって横断された予想経路(すなわち、実際の物理的経路)との、不一致である。
このことは、位置データの集約セットの範囲内での、「内部」不一致("internal" discrepancy)である可能性がある。すなわち、変換された位置ベクトル62'によって伝えられた経路内での不連続性などの、位置データ自体の諸部分間の不一致である。そのような不連続性は、例えば、図7Bに示されるように、画像キャプチャリングデバイスのうちの1つが、不正確に方向付けされている場合に生じ得る。この実施例では、向きエラーは、第2の視覚センサ6bによって生成された、その感知区域30b内の位置に対応するローカル位置ベクトル62内に、またそれゆえ、それらのベクトルの変換バージョン内に伝搬することが理解され得る。
別の実施例として、エンティティによって横断された位置が、データベース20a内の、予め記憶されたデバイス位置情報を使用して判定される場合、そのような不連続性は、データベース22a内の予め記憶された位置情報内に、エラーが存在している場合に生じ得る。すなわち、データベース22aが、コミッショニングの間に、不正確にデータを追加されていた場合である。図7Cの実施例では、第2の視覚センサ6bに対して(この実施例で)ローカルで生成された位置ベクトルは正確であるが、第2の視覚センサの位置は、コミッショニングの間に、データベース22a内に不正確に記録されており、具体的には、データベース22a内で第2の視覚センサ6bと関連付けられている位置は、実際には、第4の視覚センサ6dの位置である。このデータベースエラーは、図7Cに示されるように、第2のセンサ30bからの個々の位置ベクトルに空間変換が適用されると、第2のセンサ30bに関する変換された位置ベクトル62'内に伝搬する。
いずれの種類の内部不一致も、手動で、例えば、不一致をユーザ自身が検出することができるように、変換された位置ベクトル62'を、ディスプレイ25上で、2次元平面上の点としてユーザに表示することによって、検出することができ、又は、プロセッサ21上で実行され、受信されたローカル位置ベクトル62に適用される、好適な経路検出アルゴリズムによって、自動的に検出することもできる。
代替的に、これは、図7Dにおけるように、「外部」不一致("external" discrepancy)である可能性がある。すなわち、位置データのセットが、明白な不連続性のない、内部的に一貫性がある場合であっても、区域の物理的現実と矛盾する場合がある。外部不一致は、変換された位置ベクトル62'を、間取り図などの、センサ6によってカバーされている区域のマップ70と比較することによって検出され得る。例えば、位置データが、図7Dの実施例におけるように壁を通過しているか、又は現実には横断不可能な、明白な経路を伝えている場合である。この比較は、手動又は自動とすることができ、自動の場合には、電子的に記憶されたマップデータが、経路検出アルゴリズムによって、位置データのセットと比較される。
様々な情報要素が含まれている、視覚感知システムが、図1に示されている。
図8Aは、本発明の第1の実施形態を示す。
第1の実施形態では、各視覚センサは、各人物8の位置を、視覚センサID及びタイムスタンプ/カウンタと共に、中央処理ユニット20に通信する。各人物8の位置は、例えば、視覚センサ6に関するものであり得るため、中央処理ユニット20は、それらの位置をグローバル基準に変換する。代替的に、ロボットが、視覚センサ6によって検出可能な構成で、規定の軌跡を辿る。ロボットは、例えば、ビーコン、内部加速度計、又は何らかの種類の屋内測位に従って、ロボット自身の経路を自動的に決定することができる。代替的に、ロボットは、例えば制御室から、遠隔制御機構を使用して、ユーザによって遠隔制御されてもよい。
コミッショナは、例えば専用のコミッショニング検証プロシージャの間に、歩行試験を実行し、すなわち、空間に他の人物8が存在していない場合に、所定の軌跡に従って、部屋の中を歩行する。
中央処理ユニット22は、各視覚センサ6から報告された全ての位置62を、受信及び収集して、それらを、センサ6によってカバーされている区域のxy平面上の経路(「軌跡」)へと編集する。
この軌跡情報は、報告された軌跡と予想される軌跡との間の、いずれかの不一致を検出するために、ディスプレイ25上でコミッショナに対して表示されるか、又は、プロセッサ21上で実行される経路検出アルゴリズムによって分析される。
論じられたように、不一致は、コンフィギュレーションの誤り又は他のコミッショニングエラー、例えば、データベース22a内で視覚センサに割り当てられている誤ったID、設置の間にセンサが誤って配置及び/又は方向付けされていることを示し得る。
図8Aでは、視覚システム1が正確に構成されることにより、第1の編集された軌跡63(i)が予想された軌跡を辿る、実施例が示される。対照的に、図7Bの実施例におけるように、第2の視覚センサ6bが、誤った向きに設置されている、第2の編集された軌跡63(ii)が示されている。
図8Bは、本発明の第2の実施形態を示す。
第2の実施形態では、各視覚センサ6は、各人物8(例示的な画像60内の人物62など)の位置を、視覚センサID及びタイムスタンプ(カウンタ、又は他のタイムスタンプなど)と共に、中央処理ユニット20に通信する。各人物8の位置は、例えば、その視覚センサ6に関するものであり得るため、中央処理ユニットは、それらの位置をグローバル基準に変換する。付加的に、視覚センサ6(すなわち、当該センサ6に接続されているローカル画像プロセッサ11)は、検出された各人物8の動きの大きさを、例えば、2つ以上の画像にわたって判定された速度値又は速度ベクトルとして、報告することもできる。
中央処理ユニット20は、長期間(例えば、1日以上)にわたって、全ての視覚センサ6から位置情報62を収集する。中央処理ユニットは、特定の閾値を上回る(例えば、速度(スカラー)又は速度(ベクトル)を有する)動きに対応する、位置の分布を構築する。
これらの値は、例えば、図8Bに示されるような「ヒートマップ」の形態で、ディスプレイ25上に表示され得るものであり、この図では、第1のヒートマップ72(i)及び第2のヒートマップ72(ii)が示されている。
ヒートマップ72(i)/72(ii)を生成するために、センサによってカバーされている区域は、例えばサブ領域のグリッドへと、細分化される。サブ領域は、例えば、各サブ領域が事実上区域内部の点であるように、極めて小さい(例えば、個々の画素、又は少数の視覚センサ画素に対応する)ものとすることができる。各サブ領域は、メモリ22内に記憶される、区域に関して生成された値と関連付けられる。それらの値は、それぞれが、そのサブ領域が横断された相対頻度を伝えるものであるため、本明細書では頻度値と称される。しかしながら、頻度値は、それ自体が頻度である必要はなく、例えば、各頻度値は、そのサブ領域を横断した人々の計数とすることができる。
次いで、図8Bに示されるように、種々の頻度値が、種々の色(例えば、種々の色度及び/又は輝度)、及び/又は強度、及び/又は陰影付けを使用して、表示されているヒートマップ72(i)/72(ii)内に表される。図8Bでは、より暗い強度は、より明るい強度よりも、頻繁に横断された位置を示す。ヒートマップから、管理者は、区域を通る最も頻繁に横断された経路を、直感的に推測することが可能であり、また、それらに関して、いずれかの不一致を検出することも可能である。
管理者、又は、プロセッサ21上で実行される経路検出アルゴリズムは、ヒートマップ内の位置に関する相対頻度を分析して、それら位置のヒートマップと、予想される有効な位置との間の、不一致を検出する。無効な位置の軌跡は、コンフィギュレーションにおけるエラーを示し得る。コンフィギュレーションにおけるエラーによる、無効な軌跡の例としては、(図7Dにおけるような)壁を通って交差する軌跡、(図7B及び図7Cにおけるような)隣接する視覚センサ間での軌跡の不連続性がある。図8Bでは、第1のヒートマップ72(i)は、視覚システムの正確な構成に対応するものであるが、その一方で、第2のヒートマップ72(ii)は、第2の視覚センサ72(ii)の向きエラーを反映している。すなわち、第2のヒートマップ72(ii)は、視覚センサが、誤った向きに設置されている状況を反映している。
ヒートマップは、好適な視覚的表現の、単なる一実施例に過ぎない。例えば、別のタイプの視覚的表現は、閾値を上回る相対頻度で(例えば、時間間隔の50%超にわたって)横断されている位置のみを表示している。
動きの大きさは、視覚センサ6から報告されてもよく、又は、中央処理ユニット20が、各人物8の継続的な報告位置に基づいて、動きの大きさを算出してもよい。
上記の実施形態のいずれかでは、経路検出アルゴリズムは、例えば、集約位置データ62'における内部不一致を自動的に検出するために、領域間での移行の確率を計算することができ、空間的及び/又は時間的な軌跡の連続性における不一致を検出するために使用され得る。
上述の実施形態では、画像60自体は、上述のプロセスで、中央処理ユニット20に送信されることも、又は、中央処理ユニット20によって使用されることもなく、画像を処理するローカルプロセッサ11によって、画像から抽出された位置データ62のみが、中央処理ユニット20に通信されることに留意されたい。このことは、より少ない帯域幅を使用するものであり、このプロセスが実行される第2の実施形態では、センサシステムが使用されている場合に、空間内の人々に対するプライバシーを保護するものである。すなわち、不一致は、画像60から直接検出されず、それら画像から抽出された、位置データ62からのみ検出される。
上述のように、センサ重複Aは、必要に応じて、位置ベクトル自体から特定され得るものであり、センサ重複区域内の任意の人々に関しては、ローカル位置ベクトルのうちの2つ以上が、共通の原点に対して同じ位置、かつ同じ時間に(対応の半径閾値及び時間閾値の範囲内で)対応することになる。このことは、コード24が実行される中央処理ユニット20によって検出され得るため、同じ物理的位置に対応している、異なるセンサ6からの複数の位置ベクトルは、人物/人々/ロボットによって横断された経路を検出する際に、1回のみ考慮される。代替的に、重複は、それらの位置がディスプレイ25上に表示される場合に、ユーザによって手動で検出され得る。
コミッショニングエラーが検出されると、それらは、様々なやり方で、訂正又は補正され得る。例えば、不正確に方向付けされたセンサは、物理的に調節されてもよく、又は代替的に、視覚センサシステム1のソフトウェアをリコンフィギュレーションすることにより、例えば、ローカルプロセッサ11若しくは中央プロセッサ21の一方で実行される場合に、ソフトウェアが、不正確な物理的向きを考慮に入れるべく、当該センサによってキャプチャリングされた画像に(関連のローカルプロセッサ11で)、又は、それら画像から抽出された位置ベクトルに(関連のローカルプロセッサで、又は中央プロセッサ21で)、回転変換を適用するように構成されることによって、補正されてもよい。エラーが、データベース22a内のエラーである場合には、該エラーは、データベース22a内の情報を訂正することによって、訂正され得る。別の例として、データベース22a内にセンサ6の位置を記録することに加えて、更に、それらの向きが記録される可能性があり、この場合には、並進変換及び(必要な場合)回転変換の双方を、画像及び/又は抽出された情報に適用することによって、変換された位置ベクトル62'を生成するために、使用されてもよい。明らかとなるように、この場合、データベース22a内の、向きの不正確な記録は、図7Bに示されるタイプの不一致をもたらすことになる。検出されると、この不一致は、例えば、データベース22a内の向き情報を訂正することによって、訂正され得る。
多くのアプリケーションでは、特定の区域にわたる人々の計数が必要とされる。人数計測情報は、空間の最適化、計画及び保守、HVAC(heating, ventilation and air conditioning;暖房、換気、及び空調)制御、並びにデータ分析駆動型マーケティングなどのアプリケーションを可能にするために使用される場合がある。例えば、マーケティング分析では、人数計数は、分析のための入力データのうちの1つとして必要とされる。空間の最適化に関しては、(疑似)リアルタイムでの人々の計数が、時間的及び空間的な使用パターンを特定するために必要とされる。コンフィギュレーションエラーは、不正確な計測人数をもたらし得るものであり、このことはまた、正確な人数計数に依存するプロセスを混乱させる。
コミッショニングエラーが、上記の技術に従って検出され、是正されると、システム1は、システムが使用されている間にローカル画像プロセッサ11によって生成された、位置識別子62を使用して、正確な人数計数66を提供するように使用され得る(図9を参照)。
上記は、画像キャプチャリングデバイスであるセンサデバイスを参照して説明されているが、センサデバイスは、例えば、レーダデータ、ソナーデータ、及び超音波データの形態のセンサデータをそれぞれ生成する、レーダ、ソナー、又は超音波デバイス、あるいは、位置情報を検出して提供することが可能な、すなわち、エンティティ(ロボット、人々、他の物体など)を検出して位置を特定するように処理され得るセンサデータを生成することが可能な、任意の他のセンサなどの、他の形態を取ることもできる。「画像キャプチャリングデバイス」又は「画像データ」に関連する全ての説明は、それぞれ、そのような他のタイプのセンサデバイス及びセンサデータに等しく適用される。例えば、センサシステムは、複数のマルチモダリティセンサデバイスを備え得る。すなわち、これらの(又は、他の)タイプのセンサの、2つ以上の組み合わせである。
上記は、天井に取り付けられた照明器具が、グリッドとして配される、屋内照明システムを参照して説明されているが、明らかとなるように、それらの技術は、一般に、視覚センサが配備されている任意の照明システム(屋内、屋外、又は双方の組み合わせ)に適用され得る。例えば、公園又は庭園などの、屋外空間においてである。論じられた理由により、センサを照明器具と並設することが好都合であり得るが、このことは決して本質的なものではなく、同じ数の照明器具及びセンサを有する必要性も全くない。更には、これらの技術が、照明システムに適用される必要は全くない。
更には、誤解を避けるために、上述のアーキテクチャは、例示的なものであることに留意されたい。例えば、本開示の技術は、より分散型の方式で、例えば、ゲートウェイ10又は中央処理ユニット20を使用せずに、実装される場合がある。この場合には、上述のような中央処理ユニット20の機能性は、視覚センサ6(一般に、照明器具4と並設されている場合もあれば、並設されていない場合もある)のうちの1つに取り付けられている、ローカルプロセッサ13によって実装される場合もあれば、又は、複数のローカルプロセッサ13全体にわたって、分散される場合もある。
開示された実施形態に対する他の変更は、図面、本開示、及び添付の「特許請求の範囲」の研究から、特許請求された発明を実施する際の当業者によって理解され、実施され得る。「特許請求の範囲」では、用語「含む(comprising)」は、他の要素又はステップを排除するものではなく、不定冠詞「a」又は「an」は、複数を排除するものでない。単一のプロセッサ又は他のユニットが、「特許請求の範囲」に列挙される、いくつかの項目の機能を果たすことができる。特定の手段が、互いに異なる従属請求項内に列挙されているという単なる事実は、これらの手段の組み合わせが、有利に使用され得ないことを示すものではない。コンピュータプログラムは、他のハードウェアと共に、若しくは他のハードウェアの一部として供給される、光学記憶媒体又は半導体媒体などの、好適な媒体上に記憶/分散される場合があるが、また、インターネット、又は他の有線若しくは無線の電気通信システムなどを介して、他の形態で分散される場合もある。「特許請求の範囲」内のいずれの参照符号も、その範囲を限定するものとして解釈されるべきではない。

Claims (15)

  1. コミッショニングされたセンサシステムにおける、コミッショニングエラーを検出する方法であって、前記センサシステムが、区域をカバーするよう設置された複数のセンサデバイスを備え、当該方法は、
    少なくとも1つのエンティティが、前記区域を通って移動する間に、前記センサデバイスによって、前記区域からセンサデータをキャプチャリングするステップと、
    位置データのセットを生成するため、前記センサシステムのコンピュータシステムによって、前記センサデータを処理するステップであって、前記位置データのセットは、少なくとも1つの移動エンティティによって横断された位置を特定する、ステップと、
    前記センサデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた不一致を、前記位置データのセット内で検出するステップと、を含む、方法。
  2. 前記検出するステップに基づいて、前記少なくとも1つのセンサデバイスの不正確なコミッショニングを補正又は訂正するため前記センサシステムに修正を行うステップを含む、
    請求項1に記載の方法。
  3. 前記センサデバイスが、画像キャプチャリングデバイスであり、前記位置データが生成される前記センサデータが、前記少なくとも1つのエンティティが前記区域を通って移動する間に、前記画像キャプチャリングデバイスによって前記区域からキャプチャリングされる、画像データである、請求項1又は2に記載の方法。
  4. 前記検出するステップが、前記コンピュータシステムが前記位置データのセットに経路検出アルゴリズムを適用することによって、実行される、請求項1又は2に記載の方法。
  5. 前記位置データのセットの視覚的表現を、ユーザに対して表示するため、前記コンピュータシステムによって、ディスプレイを制御するステップを含み、前記検出するステップが、表示された前記表現を使用して、前記ユーザによって実行される、請求項1又は2に記載の方法。
  6. 前記区域からの前記センサデータが、前記区域を通って複数の人々が移動している、ある時間間隔にわたってキャプチャリングされ、前記位置データのセットが、前記人々によって横断された、前記区域内の位置を特定する、請求項1、2、3、4、又は5に記載の方法。
  7. 前記人々によって横断された複数の前記位置のそれぞれに関して、前記時間間隔内で前記位置が横断された相対頻度を伝える、関連する値を、前記コンピュータシステムによって生成するステップを含み、頻度値が、前記不一致を検出するために使用される、
    請求項6に記載の方法。
  8. 前記視覚的表現が、前記複数の位置に関連付けられている前記頻度値についての情報を、前記ユーザに視覚的に伝える、請求項5に従属する請求項7に記載の方法。
  9. 前記少なくとも1つのエンティティが、ユーザ又はロボットである、請求項1又は2に記載の方法。
  10. それぞれが前記センサデバイスのうちの対応の1つにローカルな、前記コンピュータシステムの複数のローカルプロセッサのそれぞれによって、当該デバイスによってキャプチャリングされたセンサデータを処理し、該デバイスの視界内の、前記少なくとも1つのエンティティによって横断された位置を特定する、位置データの個々のセットを生成するステップであって、前記視界が、前記センサがセンサデータを生成することが可能な空間体積である、ステップと、
    各ローカルプロセッサによって、前記位置データの個々のセットを、前記コンピュータシステムの中央プロセッサに通信するステップであって、当該セットを生成するために使用された前記センサデータが、前記中央プロセッサに通信されず、前記中央プロセッサは、前記不一致を検出するために使用される前記位置データのセットを生成するため前記ローカルプロセッサから受信された前記位置データの個々のセットを集約するステップと、
    を含む、請求項3又は請求項3に従属する請求項のいずれか一項に記載の方法。
  11. 前記検出するステップが、
    前記位置データのセット内での不連続性を検出するステップ、及び/又は、
    前記位置データのセットを、前記区域のマップと比較することによって、前記区域を通る横断不可能な経路に対応する、前記位置データの部分を検出するステップを含む、請求項1乃至10のいずれか一項に記載の方法。
  12. 前記修正を行うステップが、
    前記少なくとも1つのセンサデバイスを物理的に調節するステップ、及び/又は、
    前記コンピュータシステムにアクセス可能なメモリ内に訂正データを記憶することによって前記エラーを補正するステップであって、前記訂正データは、前記少なくとも1つのセンサデバイスを、不正確に設置されているものとして特定し、これにより、前記コンピュータシステムが、前記エラーにもかかわらず、前記少なくとも1つのセンサデバイスによってキャプチャリングされたセンサデータから、正確に情報を抽出することを可能にする、ステップ、及び/又は、
    前記少なくとも1つのセンサデバイスの、位置を特定する位置識別子、及び/又は向きを特定する向き識別子に関連して、不正確なデバイス識別子が記憶されている、前記センサシステムのデバイスデータベースを、前記少なくとも1つのセンサデバイスを正確に特定するデバイス識別子で、前記不正確なデバイス識別子を置き換えるよう、修正するステップを含む、請求項2又は請求項2に従属する請求項のいずれか一項に記載の方法。
  13. それぞれが前記センサデバイスのうちの対応の1つに関連して、前記センサデバイスの位置を特定する、複数のデバイス位置識別子が、前記センサシステムのデバイスデータベース内に記憶され、前記デバイス位置識別子が、前記位置データのセットを生成するために使用される、請求項1乃至12のいずれか一項に記載の方法。
  14. センサシステムであって、
    少なくとも1つのエンティティが、区域を通って移動する間に、前記区域からセンサデータをキャプチャリングするよう設置されている、複数のセンサデバイスと、
    位置データのセットを生成するために前記センサデータを処理するよう構成される処理ロジックであって、前記位置データのセットは、前記少なくとも1つの移動エンティティによって横断された位置を特定する、処理ロジックと、
    前記位置データのセットに、経路検出アルゴリズムを適用することにより、前記センサデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた、前記位置データのセット内の不一致を検出し、これにより、前記少なくとも1つのセンサデバイスを、不正確にコミッショニングされているものとして特定するよう構成される、経路検出モジュールと、を備える、センサシステム。
  15. コンピュータ可読記憶媒体上に記憶されているコードを含む、コンピュータプログラムであって、前記コードが、実行された場合に、
    区域からセンサデバイスによってキャプチャリングされたセンサデータを処理し、これにより、少なくとも1つの移動エンティティによって横断された、前記区域内の位置を特定する、位置データのセットを生成するステップと、
    前記センサデバイスのうちの少なくとも1つが不正確にコミッショニングされていることによって引き起こされた不一致を、前記位置データのセット内で検出し、これにより、前記少なくとも1つのセンサデバイスを、不正確にコミッショニングされているものとして特定するステップと、を実施するよう構成される、コンピュータプログラム。
JP2018522146A 2015-10-30 2016-10-14 センサシステムのコミッショニング Active JP6467112B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15192249 2015-10-30
EP15192249.9 2015-10-30
PCT/EP2016/074699 WO2017071969A1 (en) 2015-10-30 2016-10-14 Commissioning of a sensor system

Publications (2)

Publication Number Publication Date
JP2019501482A JP2019501482A (ja) 2019-01-17
JP6467112B2 true JP6467112B2 (ja) 2019-02-06

Family

ID=54477850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018522146A Active JP6467112B2 (ja) 2015-10-30 2016-10-14 センサシステムのコミッショニング

Country Status (6)

Country Link
US (1) US11347192B2 (ja)
EP (1) EP3368953B1 (ja)
JP (1) JP6467112B2 (ja)
CN (1) CN108431702B (ja)
ES (1) ES2759369T3 (ja)
WO (1) WO2017071969A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6467112B2 (ja) * 2015-10-30 2019-02-06 フィリップス ライティング ホールディング ビー ヴィ センサシステムのコミッショニング
GB2553566B (en) * 2016-09-09 2021-02-03 Ambx Uk Ltd Control of output devices
US10606814B2 (en) * 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
US10742940B2 (en) 2017-05-05 2020-08-11 VergeSense, Inc. Method for monitoring occupancy in a work area
US11044445B2 (en) 2017-05-05 2021-06-22 VergeSense, Inc. Method for monitoring occupancy in a work area
EP3425324B2 (de) * 2017-07-04 2022-11-16 Sick Ag Verfahren zur parametrierung eines sensors
US11039084B2 (en) 2017-11-14 2021-06-15 VergeSense, Inc. Method for commissioning a network of optical sensors across a floor space
US10825337B2 (en) 2018-04-12 2020-11-03 Carrier Corporation Autonomous commissioning and inspection of alarm systems
JP7286916B2 (ja) * 2018-04-20 2023-06-06 東芝ライテック株式会社 照明装置および照明システム
US10860642B2 (en) * 2018-06-21 2020-12-08 Google Llc Predicting topics of potential relevance based on retrieved/created digital media files
WO2020182719A1 (en) * 2019-03-12 2020-09-17 Signify Holding B.V. A mobile device, system and method
EP3938975A4 (en) 2019-03-15 2022-12-14 Vergesense, Inc. ARRIVAL DETECTION FOR BATTERY OPERATED OPTICAL SENSORS
US11137770B2 (en) * 2019-04-30 2021-10-05 Pixart Imaging Inc. Sensor registering method and event identifying method of smart detection system
US11373318B1 (en) 2019-05-14 2022-06-28 Vulcan Inc. Impact detection
JP7096449B1 (ja) 2019-07-01 2022-07-05 シグニファイ ホールディング ビー ヴィ 存在検出のための1つ以上のパラメータを決定するための可視光信号の使用
US11620808B2 (en) 2019-09-25 2023-04-04 VergeSense, Inc. Method for detecting human occupancy and activity in a work area
EP3879945A1 (en) * 2020-03-11 2021-09-15 Tridonic GmbH & Co KG Grid of a plurality of building technology sensor modules
CN115113531B (zh) * 2021-03-17 2025-04-22 深圳绿米联创科技有限公司 检测和控制方法、装置及系统、复合传感器、设备及介质
CN117615490B (zh) * 2023-11-10 2024-11-12 深圳市卡能光电科技有限公司 主控氛围灯与从控氛围灯的控制参数调节方法及系统

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US6970183B1 (en) * 2000-06-14 2005-11-29 E-Watch, Inc. Multimedia surveillance and monitoring system including network configuration
CN2497276Y (zh) * 2001-08-09 2002-06-26 宝山钢铁股份有限公司 具有故障自诊断的编码式位置检测装置
US6950767B2 (en) * 2002-11-15 2005-09-27 Renesas Technology Corp. Quality monitoring system for building structure, quality monitoring method for building structure and semiconductor integrated circuit device
US7502068B2 (en) * 2004-06-22 2009-03-10 International Business Machines Corporation Sensor for imaging inside equipment
JP5404042B2 (ja) * 2005-09-07 2014-01-29 コーニンクレッカ フィリップス エヌ ヴェ 照明作動装置及び方法
DE102007001649A1 (de) 2007-01-11 2008-07-17 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zur Selbstkalibrierung einer Überwachungskamera
US20090201375A1 (en) * 2008-02-08 2009-08-13 Kelsey-Hayes Company Fail safe test for motion sensors
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US9807849B2 (en) * 2008-09-10 2017-10-31 Enlighted, Inc. Automatically commissioning lighting controls using sensing parameters of the lighting controls
JP2010117880A (ja) * 2008-11-13 2010-05-27 Ricoh Elemex Corp ガス警報器
JP5230793B2 (ja) 2009-02-24 2013-07-10 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
US8159156B2 (en) * 2009-08-10 2012-04-17 Redwood Systems, Inc. Lighting systems and methods of auto-commissioning
EP2481035A1 (en) * 2009-09-21 2012-08-01 Checkpoint Systems, Inc. Retail product tracking system, method, and apparatus
US9872271B2 (en) 2010-09-02 2018-01-16 Enlighted, Inc. Tracking locations of a computing device and recording locations of sensor units
US9288878B2 (en) 2011-10-17 2016-03-15 Koninklijke Philips N.V. Commissioning lighting systems
EP2600611A1 (de) * 2011-11-29 2013-06-05 Xovis AG Verfahren und Vorrichtung zur überwachung eines Überwachungsbereichs
US8774556B2 (en) 2011-11-30 2014-07-08 Microsoft Corporation Perspective correction using a reflection
US9165190B2 (en) 2012-09-12 2015-10-20 Avigilon Fortress Corporation 3D human pose and shape modeling
US9585228B2 (en) * 2012-11-30 2017-02-28 Enlighted, Inc. Associating information with an asset or a physical space
CN103063250A (zh) * 2012-12-25 2013-04-24 苏州长菱测试技术有限公司 振动试验设备故障监测系统及方法
AU2014318427B2 (en) 2013-09-13 2018-09-27 Eaton Intelligent Power Limited System and method for auto-commissioning based on smart sensors
US9747196B2 (en) * 2014-01-31 2017-08-29 General Electric Company Automatic commissioning of digital addressable lighting control systems
US10134064B2 (en) * 2014-06-27 2018-11-20 Ledvance Llc Lighting audit and LED lamp retrofit
JP6725901B2 (ja) * 2014-09-29 2020-07-22 シグニファイ ホールディング ビー ヴィSignify Holding B.V. 環境条件を管理するためのシステム及び方法
WO2017025854A1 (en) * 2015-08-07 2017-02-16 Tridonic Gmbh & Co Kg Commissioning device for commissioning installed building technology devices
WO2017062846A1 (en) * 2015-10-08 2017-04-13 Terralux, Inc. Provisioning and commissioning retrofitted devices
JP6467112B2 (ja) * 2015-10-30 2019-02-06 フィリップス ライティング ホールディング ビー ヴィ センサシステムのコミッショニング

Also Published As

Publication number Publication date
US20180321645A1 (en) 2018-11-08
ES2759369T3 (es) 2020-05-08
EP3368953B1 (en) 2019-09-25
CN108431702B (zh) 2021-11-30
EP3368953A1 (en) 2018-09-05
WO2017071969A1 (en) 2017-05-04
US11347192B2 (en) 2022-05-31
CN108431702A (zh) 2018-08-21
JP2019501482A (ja) 2019-01-17

Similar Documents

Publication Publication Date Title
JP6467112B2 (ja) センサシステムのコミッショニング
US10448006B2 (en) People sensing system
CN108292357B (zh) 图像处理系统
CN111213073B (zh) 占用传感器校准和占用估计
CN108029180B (zh) 用于照明灯具位置映射的系统和方法
US11026318B2 (en) Lighting sensor analysis
US11907988B2 (en) Systems and methods for providing geolocation services in a mobile-based crowdsourcing platform
US20240242505A1 (en) Visual analytics
EP3332392B1 (en) Commissioning device for commissioning installed building technology devices
US20230130008A1 (en) Method for commissioning a network of optical sensors across a floorspace
WO2017108374A1 (en) Sensor system.
WO2017076715A1 (en) People sensing system
CN110366875A (zh) 检测重新入网初始化
US20180054876A1 (en) Out of plane sensor or emitter for commissioning lighting devices
WO2017108408A1 (en) Sensor system.
JP2024167751A (ja) 機器異常推定システム、管理システム、機器異常推定方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180907

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180907

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190110

R150 Certificate of patent or registration of utility model

Ref document number: 6467112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250