ES2955472T3 - Detección de ocupación - Google Patents
Detección de ocupación Download PDFInfo
- Publication number
- ES2955472T3 ES2955472T3 ES16873664T ES16873664T ES2955472T3 ES 2955472 T3 ES2955472 T3 ES 2955472T3 ES 16873664 T ES16873664 T ES 16873664T ES 16873664 T ES16873664 T ES 16873664T ES 2955472 T3 ES2955472 T3 ES 2955472T3
- Authority
- ES
- Spain
- Prior art keywords
- occupant
- camera
- luminaire
- processor
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F21—LIGHTING
- F21V—FUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
- F21V33/00—Structural combinations of lighting devices with other articles, not otherwise provided for
- F21V33/0004—Personal or domestic articles
- F21V33/0052—Audio or video equipment, e.g. televisions, telephones, cameras or computers; Remote control devices therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
- H05B47/125—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
- Image Analysis (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
Un sistema para determinar la ocupación incluye una primera luminaria que tiene una primera cámara para detectar un primer ocupante y una segunda luminaria que tiene una segunda cámara para detectar un segundo ocupante. El sistema incluye además un procesador para determinar si la primera cámara y la segunda cámara tienen un campo visual común y para determinar si el primer ocupante y el segundo ocupante son el mismo ocupante en respuesta a determinar que la primera cámara y la segunda cámara tienen un campo visual común. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Detección de ocupación
Campo técnico
La presente divulgación se refiere, en general, a la detección de ocupación, en particular, mayor precisión en detección del recuento de ocupantes.
Antecedentes
Las luminarias LED de estado sólido brindan una plataforma eléctrica amplia, uniforme y alimentada para la integración de equipos de detección tales como sensores de imagen (p. ej., cámaras). Los sensores no sólo pueden usarse para ver y rastrear la actividad, sino también para establecer la ocupación. Es decir, los sensores pueden usarse para establecer si uno o más ocupantes están presentes en un espacio y el número de ocupantes en el espacio, tanto si está ocupado/desocupado como el número de ocupantes. Si bien algunos sensores de imagen pueden reconocer y contar, por ejemplo, humanos y/u objetos, dentro de sus respectivos campos visuales, tales múltiples sensores de imagen que se encuentran muy cerca de la misma zona monitorizada pueden contar todos a la misma persona. Por ejemplo, cada uno de los múltiples sensores de cámara que tienen campos de visión superpuestos puede contar la misma entidad, lo que puede dar lugar a un cómputo total de ocupantes superior al número real de ocupantes. Debido a que es posible que los sensores no tengan campos de visión completamente superpuestos, usar el recuento de solo uno de los sensores puede dar lugar a un cómputo total de ocupantes menor que el número real de ocupantes. Por tanto, mientras que los sensores de imagen individuales pueden contar objetos o humanos en su propio campo visual, varios sensores de imagen que ven la misma zona pueden dar lugar un recuento erróneo de objetos y/o humanos.
Por tanto, en algunas aplicaciones, son deseables sistemas y métodos que mejoren la detección de ocupación determinando si múltiples sensores de imagen tienen un campo visual común.
Se llama la atención sobre el documento US 2014 152763 A1 que muestra un dispositivo de recuento de personas, que genera una única imagen panorámica usando una pluralidad de imágenes capturadas respectivamente por una pluralidad de cámaras, inserta una línea imaginaria en la imagen panorámica individual y cuenta el número de personas que pasan por la línea imaginaria. Además, el documento US 2012 113646 A1 muestra una cámara de seguridad encubierta, en donde una luminaria incluye una carcasa de lámpara que tiene una superficie exterior y una cubierta que se extiende una altura por encima de la superficie exterior. Una cámara está oculta dentro de la cubierta.
La presente divulgación se refiere generalmente a la detección de ocupación, en particular, mayor precisión en detección del recuento de ocupantes. De acuerdo con la presente invención, se proporciona un sistema y un método para determinar la ocupación de una zona por uno o más ocupantes como se establece en las reivindicaciones 1 y 9, respectivamente. En las reivindicaciones dependientes se divulgan, entre otras, realizaciones adicionales.
En un ejemplo de realización, un sistema para determinar la ocupación, entre otros, incluye una primera luminaria que tiene una primera cámara para detectar un primer ocupante y una segunda luminaria que tiene una segunda cámara para detectar un segundo ocupante. El sistema incluye además un procesador para determinar si la primera cámara y la segunda cámara tienen un campo visual común y para determinar si el primer ocupante y el segundo ocupante son el mismo ocupante en respuesta a determinar que la primera cámara y la segunda cámara tienen el campo visual común.
En otro ejemplo de realización, un método para determinar la ocupación, entre otros, incluye determinar si una primera cámara de una primera luminaria y una segunda cámara de una segunda luminaria tienen un campo visual común. El método incluye además detectar, mediante la primera cámara de la primera luminaria, un primer ocupante en el campo visual común, y detectar, mediante la segunda cámara de la segunda luminaria, un segundo ocupante en el campo visual común. El método también incluye determinar, mediante un procesador, si el primer ocupante y el segundo ocupante son el mismo ocupante en respuesta a determinar que la primera cámara y la segunda cámara tienen el campo visual común.
Estos y otros aspectos, objetos, características y realizaciones serán evidentes a partir de la siguiente descripción y las reivindicaciones adjuntas.
Breve descripción de las figuras
A continuación, se hará referencia a los dibujos adjuntos, que no están dibujados necesariamente a escala y en donde:
La Figura 1 ilustra un sistema de detección de ocupantes que usa cámaras integradas en luminarias de acuerdo con un ejemplo de realización;
La Figura 2 ilustra una imagen capturada con una cámara del sistema de la Figura 1 de acuerdo con un ejemplo de realización;
La Figura 3 ilustra un sistema de detección de ocupantes de acuerdo con otro ejemplo de realización;
La Figura 4 ilustra un sistema de detección de ocupantes de acuerdo con otro ejemplo de realización;
La Figura 5 ilustra un diagrama de flujo de un método de detección de ocupantes de acuerdo con un ejemplo de realización; y la Figura 6 ilustra un diagrama de flujo de un método de detección de ocupantes de acuerdo con otro ejemplo de realización.
Los dibujos ilustran únicamente ejemplos de realización de la divulgación y, por lo tanto, no deben considerarse limitantes de su alcance, ya que la divulgación puede admitir otras realizaciones igualmente efectivas. Los elementos y características mostrados/as en los dibujos no están necesariamente a escala, sino que se hace hincapié en ilustrar claramente los principios de los ejemplos de realización. En los dibujos, los números de referencia designan elementos similares o correspondientes, pero no necesariamente idénticos.
Descripción detallada de los ejemplos de realización
En los siguientes párrafos, se describirán con mayor detalle realizaciones particulares a modo de ejemplo con referencia a las figuras. En la descripción, los componentes, métodos y/o técnicas de procesamiento bien conocidos se omiten o se describen brevemente. Además, la referencia a varias características de las realizaciones no ha de sugerir que todas las realizaciones deban incluir la o las características a las que se hace referencia.
Pasando ahora a los dibujos, la Figura 1 ilustra un sistema de detección de ocupantes 100 que usa cámaras integradas en luminarias de acuerdo con un ejemplo de realización. En algunos ejemplos de realización, el sistema 100 incluye una primera luminaria 102 y una segunda luminaria 106. La primera luminaria 102 incluye una cámara 104. La segunda luminaria 106 incluye una cámara 108. Por ejemplo, las luminarias 102, 106 pueden instalarse en una sala de conferencias, un pasillo, una oficina, etc. En algunos ejemplos de realización, el sistema 100 puede incluir una tercera luminaria 114 que incluye una cámara 116.
En algunos ejemplos de realización, se puede determinar si la cámara 104 tiene un campo visual común con la cámara 108 para establecer si las imágenes capturadas por las cámaras 104, 108 pueden ser imágenes del mismo campo visual o imágenes de campos visuales al menos parcialmente superpuestos de las cámaras 104, 108. También se puede determinar si la cámara 116 tiene la misma zona visual que las cámaras 104, 108. Un campo visual de la cámara 104 se refiere a una zona de la cual la cámara 104 puede capturar una imagen. Un campo visual de la cámara 108 se refiere a una zona de la cual la cámara 108 puede capturar una imagen. Un campo visual de la cámara 116 se refiere a una zona de la cual la cámara 116 puede capturar una imagen. Se considera que un campo visual de cada luminaria 102, 106, 114 con respecto a la iluminación es el mismo que el campo visual de la cámara 104, 108, 116 respectiva con respecto a la captura de una imagen. Por ejemplo, las cámaras 104, 108, 116 pueden colocarse de manera que el área iluminada por cada una de las luminarias 102, 106, 114 también pueda ser capturada por la cámara 104, 108, 116 respectiva.
A modo de ilustración, se considera que la cámara 104 tiene el mismo campo visual que la luminaria 102, se considera que la cámara 108 tiene el mismo campo visual que la luminaria 106 y se considera que la cámara 116 tiene el mismo campo visual que la luminaria 114. Debido a que las cámaras 104, 108, 106 están fijadas o ubicadas en o dentro de las luminarias, la proximidad o relación espacial entre las cámaras 104, 108, 106 se puede establecer estableciendo la proximidad o relación espacial entre las luminarias 102, 106, 114. Por ejemplo, la proximidad o relación espacial entre las luminarias 102, 106, 114 que se establece durante la puesta en servicio de las luminarias 102, 106, 114 puede usarse para determinar si cualquiera de las cámaras 104, 108, 106 tiene campos visuales al menos parcialmente superpuestos. En algunos ejemplos de realización, un campo visual común se refiere a una combinación de campos visuales de dos cámaras (p. ej., campos visuales de las cámaras 104 y 108), incluso cuando la superposición de los campos visuales de las cámaras es parcial. Como alternativa, un campo visual común puede referirse a la zona superpuesta de los campos visuales de las cámaras.
Durante o tras la puesta en servicio, el sistema 100 puede determinar si las cámaras 104, 108, 116 tienen una zona visual común de una de varias maneras. Por ejemplo, cada luminaria 102, 106, 114 puede indicar su presencia en una zona particular emitiendo una luz en un patrón que es exclusivo de la luminaria particular. A modo de ilustración, cada luminaria 102, 106, 114 puede emitir una luz que se modula con datos identificadores que identifican la luminaria particular. Cualquiera de las otras luminarias que reciben la luz emitida puede determinar a partir de la luz recibida que la luminaria particular que emitió la luz está en el mismo campo visual que la luminaria que recibió la luz. La luz emitida puede ser una luz visible o una luz no visible (p. ej., luz infrarroja).
En algunos ejemplos de realización, primero se puede hacer una inspección visual para determinar que las cámaras 104, 108 tienen el mismo campo visual o uno común. La detección de movimientos por ambas cámaras 104, 108 o por los procesadores que reciben datos de imágenes de las cámaras 104, 108 también se puede hacer antes de que se inicie el funcionamiento normal de las cámaras.
A modo de ilustración, la luminaria 102 puede determinar que está en el mismo campo visual que la luminaria 104 y la luminaria 104 puede determinar que está en el mismo campo visual que la luminaria 102. Las luminarias 102, 104 pueden determinar que están en un campo visual diferente al de la luminaria 114 porque la luz emitida por la luminaria
114 no llega a las luminarias 102, 104. De forma similar, la luminaria 114 puede determinar que las luminarias 102, 104 están en un campo visual diferente. Por ejemplo, un campo visual 112 y un campo visual 120 pueden estar separados por una pared 122. Como alternativa, la tercera luminaria 114 puede instalarse en las mismas zonas que la primera y segunda luminarias 102, 106, pero puede ubicarse de manera que la luminaria 114 no tenga un campo visual común con las luminarias 102, 106. En la solicitud de Patente Estadounidense N.° 14/215.758, se describen ejemplos de determinación de campos visuales de luminarias.
En algunos ejemplos de realización, cada luminaria 102, 106, 114 puede determinar si las otras luminarias tienen el mismo campo visual o uno diferente, por ejemplo, usando un procesador que pueda realizar dicha función. Por ejemplo, un procesador en la luminaria 102 puede determinar que la luminaria 106 tiene un campo visual común con la luminaria 102 procesando la información extraída de una luz recibida por la luminaria 102. A modo de ilustración, se puede recibir una luz, por ejemplo, mediante la cámara 104 y el procesador puede procesar (p. ej., demodular y/o decodificar, etc.) una señal eléctrica generada a partir de/basándose en la luz recibida. El procesador en la luminaria 102 puede determinar que la luminaria 102 tiene un campo visual común con la luminaria 106, si el procesador determina que la información incluye el identificador de la luminaria 106. Cada luminaria 106, 114 puede realizar una operación similar para determinar si una o más luminarias distintas tienen un campo visual común con la luminaria 104, 106 particular.
De manera alternativa o adicional, en lugar de que cada luminaria procese la información extraída de una respectiva luz recibida, las luminarias 102, 106, 114 pueden transmitir la información extraída de una luz recibida a un procesador externo que identifica las luminarias que tienen un campo visual común y las luminarias que tienen campos visuales diferentes. Como se indicó anteriormente en algunos ejemplos de realización, se puede realizar una determinación de los campos visuales de las luminarias 102, 106, 114 antes del funcionamiento normal de las cámaras para detectar ocupantes (p. ej., durante la puesta en marcha de las luminarias).
En algunos ejemplos de realización, la cámara 104 y la cámara 108 pueden detectar a un ocupante (p. ej., una persona) 110 en un campo visual 112. La cámara 104 y la cámara 108 pueden detectar al ocupante 110 usando métodos conocidos por aquellas personas normalmente versadas en la materia con el beneficio de esta divulgación. Por ejemplo, las cámaras 104, 108 pueden detectar al ocupante 110 basándose en la representación de píxeles del ocupante 110. A modo de ilustración, la representación en píxeles del ocupante 100 puede corresponder a una representación en píxeles esperada de una persona. Por ejemplo, el número de píxeles, la intensidad de píxeles, etc., pueden usarse para detectar al ocupante 110 en el campo visual 112. En algunas realizaciones alternativas, pueden usarse métodos conocidos para aquellas personas normalmente versadas en la materia que no usan el mapeo de píxeles (es decir, representación en píxeles de una imagen), para detectar al ocupante 110.
En algunos ejemplos de realización, la cámara 116 de la tercera luminaria 114 puede detectar un ocupante 118 en un campo visual 120. La cámara 116 puede detectar al ocupante 118 usando métodos iguales o similares a los usados por las cámaras 104, 108. Por ejemplo, la cámara 116 puede detectar al ocupante 118 basándose en la representación en píxeles del ocupante 118 con respecto a una representación en píxeles esperada de una persona. El número de píxeles, la intensidad de píxeles, etc., pueden usarse para detectar al ocupante 118 en el campo visual 118. Como alternativa, se pueden usar métodos que no usan mapeo de píxeles conocidos por aquellas personas normalmente versadas en la materia para detectar al ocupante 118.
En algunos ejemplos de realización, un procesador remoto puede recibir datos de imagen desde la cámara 104 y detectar al ocupante 110 procesando los datos de imagen. El procesador remoto también puede recibir datos de imágenes de la cámara 108 y detectar al ocupante 110 procesando los datos de imágenes. El procesador remoto también puede recibir datos de imágenes de la cámara 116 y detectar al ocupante 118 procesando los datos de imágenes.
En algunas realizaciones alternativas, un procesador que está en una de las luminarias 102, 106, 114 puede recibir datos de imagen de la cámara 104 y detectar al ocupante 110 procesando los datos de imagen de la cámara 104. El procesador que está en una de las luminarias 102, 106, 114 también puede recibir datos de imagen de la cámara 108 y detectar al ocupante 110 procesando los datos de imagen de la cámara 108. El procesador que está en una de las luminarias 102, 106, 114 también puede recibir datos de imagen de la cámara 116 y detectar al ocupante 118 procesando los datos de imagen de la cámara 116. Por ejemplo, un procesador que está integrado en la luminaria 102 puede recibir datos de imagen de las cámaras 104, 108, 116 y detectar al ocupante 110 y al ocupante 118 procesando los datos de imagen recibidos.
Tras la detección del ocupante 110 y del ocupante 118 mediante las cámaras 104, 108, 116, el procesador remoto (p. ej., el procesador mostrado en la Figura 3) o el procesador en una de las luminarias 102, 106, 114, (p. ej., el procesador mostrado en la Figura 4), un procesador (p. ej., el procesador mostrado en las Figuras 3 o 4) puede determinar si las cámaras 104, 108 detectan uno o dos ocupantes. A modo de ilustración, el procesador puede determinar primero si las cámaras 104, 108 tienen un campo visual común. Por ejemplo, el procesador puede recuperar información que indica si las cámaras 104, 108 tienen una zona visual común. La información puede establecerse durante o después de la puesta en servicio de las luminarias 102, 106, 114. Como alternativa, el procesador puede procesar además la información para determinar si las cámaras 104, 108 tienen una zona visual
común. Tras determinar que las cámaras 104, 108 tienen un campo visual común, el procesador puede determinar si el ocupante 110 en la imagen capturada por la cámara 104 es el mismo ocupante que el ocupante en la imagen capturada por la cámara 108.
Tras la detección del ocupante 110 y del ocupante 118 mediante las cámaras 104, 108, 116, el procesador remoto (p. ej., el procesador mostrado en la Figura 3) o el procesador en una de las luminarias 102, 106, 114, (p. ej., el procesador mostrado en la Figura 4), el procesador también puede determinar si el ocupante 110 en la imagen capturada por la cámara 104 y el ocupante 110 en la imagen capturada por la cámara 108 son iguales o diferentes del ocupante 118. Para hacerlo, el procesador puede determinar primero, de la misma manera que se ha descrito anteriormente con respecto a las cámaras 104, 108, si cada una de las cámaras 104, 108 tiene un campo visual común con la cámara 116. Tras determinar que las cámaras 104, 108 no tienen un campo visual común con la cámara 116, el procesador puede determinar que el ocupante 118 es distinto del ocupante 110.
En algunos ejemplos de realización, se puede comparar una dirección de movimiento del ocupante 110 capturada por la cámara 104 con la dirección de movimiento del ocupante 110 capturada por la cámara 108 para determinar si las cámaras 104, 108 capturan al mismo ocupante o a diferentes ocupantes.
En algunos ejemplos de realización, la cámara 104 puede determinar una dirección de movimiento del ocupante 110 basándose en las imágenes capturadas por la cámara 104. Por ejemplo, la cámara 104 puede determinar la dirección de movimiento del ocupante 110 comparando mapeos de píxeles de dos o más imágenes capturadas por la cámara 104. A modo de ilustración, la posición relativa del ocupante 110 en múltiples imágenes capturadas por la cámara 104 puede indicar la dirección de movimiento del ocupante 110. La cámara 104 puede proporcionar la información de dirección a un procesador remoto (p. ej., el procesador mostrado en la Figura 3) o a un procesador que se encuentra en una de las luminarias 102, 106, 114, (p. ej., el procesador mostrado en la Figura 4).
En algunos ejemplos de realización, la cámara 108 puede determinar una dirección de movimiento del ocupante 110 basándose en las imágenes capturadas por la cámara 108, por ejemplo, comparando mapeos de píxeles de dos o más imágenes capturadas por la cámara 108. La cámara 108 puede proporcionar la información de dirección a un procesador remoto (p. ej., el procesador mostrado en la Figura 3) o a un procesador que está en una de las luminarias 102, 106, 114 (p. ej., el procesador mostrado en la Figura 4).
En algunos ejemplos de realización, el procesador (p. ej., el procesador mostrado en la Figura 3 o 4), puede recibir la información de dirección de las cámaras 104, 108 y comparar la dirección de movimiento del ocupante 110 determinada por la cámara 104 con la dirección de movimiento del ocupante 110 determinada por la cámara 108 para determinar si el mismo ocupante o diferentes ocupantes están en las imágenes capturadas por las cámaras 104, 108. Por ejemplo, si la comparación indica la misma dirección de movimiento, el procesador puede concluir que el mismo ocupante 110 fue capturado por las cámaras 104, 108. Si la comparación indica diferentes direcciones de movimiento, el procesador puede concluir que el ocupante 110 capturado por las cámaras 104, 108 son dos ocupantes diferentes.
En algunos ejemplos de realización, el procesador (p. ej., el procesador mostrado en la Figura 3 o 4), en lugar o además de las cámaras 104, 108, puede determinar las direcciones de los movimientos del ocupante 110 detectados por o basándose en imágenes de las cámaras 104, 108. A modo de ilustración, un procesador remoto (p. ej., el procesador mostrado en la Figura 3), puede recibir múltiples imágenes desde la cámara 104 y determinar la dirección de movimiento del ocupante 110 en las imágenes, por ejemplo, comparando mapeos de píxeles de dos o más imágenes. El procesador remoto también puede recibir múltiples imágenes desde la cámara 108 y determinar la dirección de movimiento del ocupante 110 en las imágenes basándose en las imágenes, por ejemplo, comparando mapeos de píxeles de dos o más imágenes. El procesador puede comparar las direcciones de movimiento del ocupante 110 a partir de las imágenes capturadas por las cámaras 104, 108 para determinar si uno o dos ocupantes están presentes. Si la comparación indica la misma dirección de movimiento, el procesador puede concluir que el mismo ocupante 110 fue capturado por las cámaras 104, 108. Si la comparación indica diferentes direcciones de movimiento, el procesador puede concluir que el ocupante 110 capturado por las cámaras 104, 108 son dos ocupantes diferentes.
En algunos ejemplos de realización, un procesador (p. ej., el procesador mostrado en la Figura 3 o 4), puede determinar si el ocupante 110 en las imágenes capturadas por la cámara 104 y el ocupante 110 en las imágenes capturadas por la cámara 104 son el mismo ocupante basándose en un movimiento del ocupante 110 en las imágenes capturadas por la primera cámara 104 y un movimiento del ocupante 110 en las imágenes capturadas por la segunda cámara 108.
A modo de ilustración, el procesador puede determinar un cambio o cambios en el mapeo de píxeles del ocupante 110 en las imágenes capturadas por la cámara 104 comparando múltiples imágenes del ocupante 110 capturadas por la cámara 104. El procesador también puede determinar un cambio o cambios en el mapeo de píxeles del ocupante 110 en las imágenes capturadas por la cámara 108 comparando múltiples imágenes del ocupante 110 capturadas por la cámara 108. Si los cambios en las imágenes capturadas por la cámara 104 y los cambios en las imágenes capturadas por la segunda cámara 108 se correlacionan bien entre sí, el procesador puede determinar que las cámaras 104 y 108 capturaron al mismo ocupante, el ocupante 110. En tales casos, el ocupante 110 capturado/detectado por la cámara
104 y el ocupante 110 capturado/detectado por la segunda cámara 108 cuentan como un único ocupante.
Si los cambios en las imágenes capturadas por la cámara 104 y los cambios en las imágenes capturadas por la segunda cámara 108 no se correlacionan bien entre sí, el procesador puede determinar que el ocupante 110 detectado por la cámara 104 y el ocupante 110 detectado por la cámara 108 son ocupantes diferentes y, por tanto, cuentan como dos ocupantes. El procesador puede usar un valor umbral de un parámetro de correlación para determinar si el ocupante 110 capturado/detectado por la cámara 104 y el ocupante 110 capturado/detectado por la cámara 108 son el mismo ocupante.
En algunos ejemplos de realización, el procesador puede realizar tanto la comparación de direcciones de movimiento como la determinación de la correlación de movimiento de los ocupantes capturados en imágenes de diferentes cámaras para determinar si los mismos ocupantes o diferentes ocupantes son capturados en las imágenes de las diferentes cámaras.
Al determinar que dos o más cámaras no tienen un campo visual común, se puede determinar que los ocupantes capturados/detectados por las cámaras son ocupantes distintos. Cuando dos o más cámaras tienen un campo visual común, realizar una comparación de direcciones de movimiento y/o determinar la correlación de movimiento de los ocupantes capturados/detectados por las cámaras permite determinar si las cámaras capturan/detectan los mismos o diferentes ocupantes. Al integrar cámaras con luminarias, la información sobre la proximidad o relación espacial entre las luminarias que se establece, por ejemplo, durante la puesta en servicio de las luminarias, se puede usar para determinar si las respectivas cámaras tienen un campo visual común.
En algunos ejemplos de realización, el sistema 100 puede incluir más o menos luminarias que las que se muestran en la Figura 1. En algunos ejemplos de realización, se pueden usar sensores de imagen distintos a las cámaras. En algunos ejemplos de realización, cada cámara puede incluir un procesador. Las cámaras mostradas en la Figura 1 se pueden disponer en ubicaciones diferentes a las mostradas y se puede incluir diferentes tipos de luminarias en el sistema 100. En algunas realizaciones alternativas, las cámaras 104, 108, 116 pueden colocarse externas a las luminarias 102, 106, 114.
La Figura 2 ilustra una imagen 200 capturada con una cámara del sistema de la Figura 1 de acuerdo con un ejemplo de realización. Haciendo referencia a las Figuras 1 y 2, la imagen 200 puede ser capturada, por ejemplo, por la cámara 104 de la Figura 1. En la imagen 200, hay dos ocupantes 202, 204 presentes, donde el primer ocupante 202 está al otro lado de una mesa del segundo ocupante 204. Tal y como se ha descrito anteriormente con respecto a la Figura 1, en algunos ejemplos de realización, el número de píxeles, la intensidad de píxeles y otros parámetros relacionados con los ocupantes 202, 204 en la imagen 200 se pueden usar para detectar la presencia de los ocupantes 202, 204.
En algunos ejemplos de realización, la cámara 108 de la luminaria 106 también puede capturar una imagen que incluye a los ocupantes 202, 204 y los ocupantes 202, 204 en la imagen capturada por la cámara 108 también pueden detectarse basándose en el número de píxeles, la intensidad de píxeles y otros parámetros relacionados con los ocupantes 202, 204 en la imagen.
En algunos ejemplos de realización, sin determinar si los ocupantes 202, 204 detectados por un sensor de imagen (p. ej., la cámara 104), son los mismos ocupantes o unos diferentes detectados por otro sensor de imagen (p. ej., la cámara 108 o la cámara 116), determinar el número total de ocupantes puede resultar complicado. Por ejemplo, se puede determinar erróneamente que el número total de ocupantes es cuatro si no se tiene en cuenta un campo visual común de las cámaras 104, 108. Determinando si las cámaras 104, 108 tienen un campo visual común, se pueden realizar análisis adicionales para determinar con mayor precisión el número total de ocupantes. Por ejemplo, los movimientos de los ocupantes 202, 204 en la imagen 200 capturada por la cámara 104 y los movimientos de los ocupantes en la imagen capturada por la cámara 108 pueden analizarse para determinar el nivel de correlación, por ejemplo, con respecto a un valor umbral de un parámetro de correlación como se ha descrito anteriormente. Por tanto, determinando primero si las cámaras 104, 108, 116 tienen un campo visual común, el número de ocupantes en una zona se puede determinar con mayor precisión.
La Figura 3 ilustra un sistema 300 de detección de ocupantes de acuerdo con un ejemplo de realización. Como se ilustra en la Figura 3, el sistema incluye una luminaria 302, una luminaria 304 y un procesador 306. La luminaria 302 puede incluir la cámara 308, y la luminaria 304 puede incluir la cámara 312. La cámara 308 puede incluir un almacenamiento de datos 310 y la cámara 312 puede incluir un almacenamiento de datos 314. Los almacenamientos de datos 310, 314 pueden ser dispositivos de memoria tales como SRAM integrados en las cámaras 308, 312, respectivamente. Como alternativa, los almacenamientos de datos 310, 314 pueden ser dispositivos de memoria tales como memorias flash que son desconectables o fácilmente extraíbles.
En algunos ejemplos de realización, los almacenamientos de datos 310, 314 pueden usarse para almacenar imágenes capturadas por las cámaras 308, 312. Los datos de imagen correspondientes a imágenes capturadas por la cámara 308 pueden transferirse al procesador 306 a través de una conexión 316 almacenándose o no en el almacenamiento de datos 310. Los datos de imagen correspondientes a imágenes capturadas por la cámara 312 también pueden transferirse al procesador 306 a través de una conexión 320 almacenándose o no en el almacenamiento de datos 314.
En algunos ejemplos de realización, cada cámara 308, 312 puede detectar ocupantes y transferir la información de detección al procesador 306. De manera alternativa o adicional, el procesador 306 puede procesar los datos de imagen de cada una de las cámaras para detectar ocupantes en los datos de imagen respectivos. Por ejemplo, la luminaria 302 puede ser una de las luminarias 102, 106, 114 y la luminaria 304 puede ser otra de las luminarias 102, 106, 114, y las luminarias 302, 304 pueden funcionar de la misma manera que se ha descrito anteriormente con respecto a las luminarias 102, 106, 114. Como se ha descrito anteriormente con respecto a las cámaras en la Figura 1, cada cámara 308, 312 puede no solo detectar ocupantes, sino que también puede determinar las direcciones de movimiento de los ocupantes detectados por la cámara particular.
De manera alternativa o adicional, el procesador 306 puede determinar las direcciones de los movimientos de los ocupantes detectados por las cámaras 308, 312 o por el procesador 306. Por ejemplo, el procesador 306 puede determinar si las cámaras 308 y 312 tienen una zona visual común como se describe con respecto a la Figura 1. Por ejemplo, el procesador 306 puede determinar si una luz (codificada con información de identificador de la luminaria 302), emitida por la luminaria 302 es recibida por la luminaria 304. A modo de ilustración, la cámara 312 puede recibir la luz emitida y transferir la información al procesador 306. El procesador 306 también puede determinar si una luz (codificada con información de identificador de la luminaria 304), emitida por la luminaria 304 es recibida por la luminaria 302. A modo de ilustración, la cámara 308 puede recibir la luz emitida y transferir la información al procesador 306.
En algunos ejemplos de realización, un procesador 306 puede determinar si uno o más ocupantes en las imágenes capturadas por la cámara 308 y en las imágenes capturadas por la cámara 312 son los mismos ocupantes basándose en los movimientos de los ocupantes determinados a partir de las imágenes capturadas. A modo de ilustración, el procesador 306 puede determinar un cambio o cambios en el mapeo de píxeles de un ocupante detectado en las imágenes capturadas por la cámara 308 comparando múltiples imágenes del ocupante capturadas por la cámara 104. El procesador 306 también puede determinar uno o más cambios en el mapeo de píxeles de un ocupante en las imágenes capturadas por la cámara 312 comparando múltiples imágenes del ocupante capturadas por la cámara 312. Si los cambios en las imágenes capturadas por la cámara 308 y los cambios en las imágenes capturadas por la segunda cámara 312 se correlacionan bien entre sí, el procesador 306 puede determinar que las cámaras 308, 312 habían capturado al mismo ocupante. De lo contrario, el procesador 306 puede determinar que las cámaras 308, 312 habían capturado a múltiples ocupantes, como se ha descrito anteriormente.
El sistema 300 puede determinar un número total de ocupantes determinando si diferentes cámaras tienen un campo visual común y realizando un procesamiento adicional de las imágenes capturadas para evitar el recuento múltiple de los mismos ocupantes.
La Figura 4 ilustra un sistema 400 de detección de ocupantes de acuerdo con otro ejemplo de realización. Como se ilustra en la Figura 4, el sistema 400 puede incluir una luminaria 402 y una luminaria 404. La luminaria 402 puede incluir una cámara 406 con un almacenamiento de datos 408. La luminaria 404 puede incluir una cámara 410 con un almacenamiento de datos 412. Los almacenamientos de datos 408, 412 pueden ser dispositivos de memoria tales como SRAM integrados en las cámaras 406, 410, respectivamente. Como alternativa, los almacenamientos de datos 408, 412 pueden ser dispositivos de memoria tales como memorias flash que son desconectables o fácilmente extraíbles.
En algunos ejemplos de realización, la luminaria 402 puede ser una de las luminarias 102, 106, 114, de la Figura 1 y la luminaria 404 puede ser otra de las luminarias 102, 106, 114 y las luminarias 402, 404 pueden funcionar de la misma manera que se ha descrito anteriormente con respecto a las luminarias 102, 106, 114.
En algunos ejemplos de realización, la luminaria 404 puede incluir un procesador 414 que puede realizar la detección de ocupantes y determinar direcciones de movimientos de ocupantes basándose en datos de imágenes capturadas por las cámaras 406, 410. Por ejemplo, la cámara 406 puede proporcionar datos de imagen de la imagen capturada por la cámara 406 al procesador 414 a través de la conexión 416. La cámara 410 puede proporcionar datos de imagen al procesador 414 a través de conexiones internas de la luminaria 404. El procesador 414 también puede determinar si las cámaras 406 y 410 tienen una zona visual común como se describe con respecto a la Figura 1.
En algunas realizaciones alternativas, las cámaras 406, 410 pueden realizar la detección de ocupantes a partir de las imágenes capturadas por la cámara respectiva 406, 410 y proporcionar la información de detección al procesador 414. Las cámaras 406, 410 también pueden determinar direcciones de movimientos de objetos/ocupantes detectados y proporcionar la información de dirección al procesador 414, que puede realizar una comparación de la información para determinar el número de ocupantes de una manera similar como se ha descrito anteriormente.
En algunos ejemplos de realización, un procesador 414 puede determinar si uno o los ocupantes en las imágenes capturadas por la cámara 406 y en las imágenes capturadas por la cámara 410 son el o los mismos ocupantes basándose en los movimientos de los ocupantes determinados a partir de las imágenes capturadas como se ha descrito anteriormente.
El sistema 400 puede determinar un número total de ocupantes determinando si diferentes cámaras tienen un campo visual común y realizando un procesamiento adicional de las imágenes capturadas para evitar el recuento múltiple de los mismos ocupantes.
La Figura 5 ilustra un diagrama de flujo de un método 500 de detección de ocupantes de acuerdo con un ejemplo de realización. El método 500 puede usarse con los sistemas 100, 300 y 400 de las Figuras 1, 3 y 4, respectivamente. Haciendo referencia a las Figuras 1 y 3 a 5, en la etapa 502, el método 500 incluye determinar si la primera cámara 104, 308, 406 de la primera luminaria 102, 302, 402 y la segunda cámara 108, 312, 410 de la segunda luminaria 104, 304, 404 tienen un campo visual común. Por ejemplo, la etapa 502 puede ser realizada por el procesador 306, 414. En la etapa 504, el método 500 puede incluir detectar, mediante la primera cámara 104, 308, 406 de la primera luminaria 102, 302, 402, un primer ocupante en el campo visual común. En la etapa 506, el método 500 puede incluir detectar, mediante la segunda cámara 108, 312, 410 de la segunda luminaria 104, 304, 404, un segundo ocupante en el campo visual común. En la etapa 508, el método puede incluir determinar, mediante el procesador 306, 414, si el primer ocupante y el segundo ocupante son el mismo ocupante en respuesta a determinar que la primera cámara y la segunda cámara tienen el campo visual común.
En algunos ejemplos de realización, el método 500 puede incluir determinar, mediante el procesador 306, 414, que el primer ocupante y el segundo ocupante son ocupantes diferentes en respuesta a determinar que la primera cámara y la segunda cámara tienen campos visuales diferentes entre sí. El método 500 también puede incluir determinar, mediante el procesador 306, 414, una dirección de movimiento del primer ocupante basándose en imágenes capturadas por la primera cámara 104, 308, 406 y una dirección de movimiento del segundo ocupante basándose en imágenes capturadas por la segunda cámara 108, 312, 410.
En algunos ejemplos de realización, el método 500 puede incluir determinar, mediante el procesador 306, 414, si el primer ocupante y el segundo ocupante son el mismo ocupante lo cual se realiza determinando un nivel de correlación entre un movimiento del primer ocupante y un movimiento del segundo ocupante.
Aunque en la Figura 6 se muestra un orden particular de las etapas, en algunas realizaciones alternativas, las etapas se pueden realizar en diferentes órdenes sin desviarse del alcance de esta divulgación. En algunas realizaciones alternativas, algunas etapas del método 500 pueden omitirse sin desviarse del alcance de esta divulgación.
La Figura 6 ilustra un diagrama de flujo de un método 600 de detección de ocupantes de acuerdo con otro ejemplo de realización. El método 600 puede usarse con los sistemas 100, 300 y 400 de las Figuras 1, 3 y 4, respectivamente. Haciendo referencia a las Figuras 1, 3, 4 y 6, en la etapa 602, el método 600 incluye determinar si la primera cámara 104, 308, 406 de la primera luminaria 102, 302, 402 y la segunda cámara 108, 312, 410 de la segunda luminaria 104, 304, 404 tienen un campo visual común. El método 600 también incluye detectar, mediante la primera cámara 104, 308, 406, un movimiento de un primer ocupante en el campo visual común, en la etapa 604, y detectar, mediante la segunda cámara 108, 312, 410, un movimiento de un segundo ocupante en el campo visual común, en la etapa 606. En la etapa 608, el método 600 incluye determinar si el primer ocupante y el segundo ocupante son el mismo ocupante comparando el movimiento del primer ocupante y el movimiento del segundo ocupante. En algunos ejemplos de realización, comparar el movimiento del primer ocupante y el movimiento del segundo ocupante incluye determinar cambios en un mapeo de píxeles del primer ocupante, determinar cambios en un mapeo de píxeles del segundo ocupante y determinar si los cambios en el mapeo de píxeles del primer ocupante y los cambios en el mapeo de píxeles del segundo ocupante se correlacionan entre sí, por ejemplo, dentro de un valor umbral.
Aunque en la Figura 6 se muestra un orden particular de las etapas, en algunas realizaciones alternativas, las etapas se pueden realizar en diferentes órdenes sin desviarse del alcance de esta divulgación. En algunas realizaciones alternativas, algunas etapas del método 600 pueden omitirse sin desviarse del alcance de esta divulgación.
Aunque en el presente documento se han descrito realizaciones particulares, las descripciones son a modo de ejemplo. La invención está definida por las reivindicaciones adjuntas.
Claims (13)
1. Un sistema (100; 300; 400) para determinar la ocupación de una zona por uno o más ocupantes, comprendiendo el sistema:
una primera luminaria (102; 302; 402) que tiene una primera cámara (104; 308; 406) colocada de manera que una zona iluminada por la primera luminaria (102; 302; 402) sea capturada por la primera cámara (104; 308; 406), estando la primera cámara (104; 308; 406) configurada para detectar un primer ocupante (110);
una segunda luminaria (106; 304; 404) que tiene una segunda cámara (108; 312; 410) colocada de manera que una zona iluminada por la segunda luminaria (106; 304; 404) sea capturada por la segunda cámara (108; 312; 410), estando la segunda cámara (108; 312; 410) configurada para detectar un segundo ocupante (110, 118); y un procesador (306; 414) configurado para determinar si la primera cámara (104; 308; 406) y la segunda cámara (108; 312; 410) tienen un campo visual común determinando que la luz emitida por la primera luminaria (102; 302; 402) es recibida por la segunda cámara (108; 312; 410) y la luz emitida por la segunda luminaria (106; 304; 404) es recibida por la primera cámara (104; 308; 406) para establecer que las imágenes capturadas por la primera y la segunda cámara (104; 308; 406, 108; 312; 410) son imágenes del mismo campo visual o imágenes de campos visuales al menos parcialmente superpuestos de la primera y la segunda cámara (104; 308; 406, 108; 312; 410) y para determinar que el primer ocupante (110) y el segundo ocupante (110, 118) son un mismo ocupante en respuesta a determinar que la primera cámara (104; 308; 406) y la segunda cámara (106; 304; 404) tienen el campo visual común.
2. El sistema (100; 300; 400) de la reivindicación 1, en donde el procesador (306; 414) está configurado para determinar una dirección de movimiento del primer ocupante (110) basándose en imágenes capturadas por la primera cámara (104; 308; 406) y en donde el procesador (306; 414) está configurado para determinar una dirección de movimiento del segundo ocupante (110, 118) basándose en imágenes capturadas por la segunda cámara (108; 312; 410).
3. El sistema (100; 300; 400) de la reivindicación 2, en donde el procesador (306; 414) está configurado para determinar si el primer ocupante (110) y el segundo ocupante (110, 118) son el mismo ocupante basándose en la dirección de movimiento del primer ocupante (110) y la dirección de movimiento del segundo ocupante (110, 118).
4. El sistema (100; 300; 400) de la reivindicación 1, en donde el procesador (306; 414) está configurado para determinar si el primer ocupante (110) y el segundo ocupante (110, 118) son el mismo ocupante basándose en un movimiento del primer ocupante (110) y un movimiento del segundo ocupante (110, 118).
5. El sistema (100; 300; 400) de la reivindicación 1, en donde el procesador (306; 414), está configurado para determinar si la primera cámara (104; 308; 406) y la segunda cámara (108; 312; 410) tienen el campo visual común durante la puesta en servicio de la primera luminaria (102; 302; 402) y la segunda luminaria (106; 304; 404).
6. El sistema (100; 300; 400) de la reivindicación 1, en donde el procesador (306; 414) está configurado para determinar que el primer ocupante (110) y el segundo ocupante (110, 118) son ocupantes diferentes en respuesta a determinar que la primera cámara (104; 308; 406) y la segunda cámara (108; 312; 410) tienen campos visuales diferentes entre sí.
7. El sistema (100; 300; 400) de la reivindicación 1, en donde la primera cámara (104; 308; 406) está configurada para transmitir un mensaje que indica una detección del primer ocupante (110) al procesador (306; 414) y en donde la segunda cámara (108; 312; 410) incluye el procesador (306; 414).
8. El sistema (100; 300; 400) de la reivindicación 1, en donde la primera cámara (104; 308; 406) está integrada en la primera luminaria (102; 302; 402) y en donde la segunda cámara (108; 312; 410) está integrada en la segunda luminaria (106; 304; 404).
9. Un método para determinar la ocupación de una zona por uno o más ocupantes, comprendiendo el método:
determinar si una primera cámara (104; 308; 406) de una primera luminaria (102; 302; 402), estando la primera cámara (104; 308; 406) colocada de manera que una zona iluminada por la primera luminaria (102; 302; 402) sea capturada por la primera cámara (104; 308; 406) y una segunda cámara (108; 312; 410) de una segunda luminaria (106; 304; 404), estando la segunda cámara (108; 312; 410) colocada de manera que una zona iluminada por la segunda luminaria (106; 304; 404) sea capturada por la segunda cámara (108; 312; 410), tienen un campo visual común determinando que la luz emitida por la primera luminaria (102; 302; 402) es recibida por la segunda cámara (108; 312; 410) y la luz emitida por la segunda luminaria (106; 304; 404) es recibida por la primera cámara (104; 308; 406) para establecer que las imágenes capturadas por la primera y la segunda cámara (104; 308; 406, 108; 312; 410) son imágenes del mismo campo visual o imágenes de campos visuales al menos parcialmente superpuestos de la primera y la segunda cámara (104; 308; 406, 108; 312; 410);
detectar, mediante la primera cámara (104; 308; 406) de la primera luminaria (102; 302; 402), un primer ocupante (110) en el campo visual común;
detectar, mediante la segunda cámara (108; 312; 410) de la segunda luminaria (106; 304; 404), un segundo ocupante (110, 118) en el campo visual común; y
determinar, mediante un procesador (306; 414), que el primer ocupante (110) y el segundo ocupante (110, 118) son un mismo ocupante en respuesta a determinar que la primera cámara (104; 308; 406) y la segunda cámara (108; 312; 410) tienen el campo visual común.
10. El método de la reivindicación 9, que además comprende determinar, mediante el procesador (306; 414), que el primer ocupante (110) y el segundo ocupante (110, 118) son ocupantes diferentes en respuesta a determinar que la primera cámara (104; 308; 406) y la segunda cámara (108; 312; 410) tienen campos visuales diferentes entre sí.
11. El método de la reivindicación 9, que además comprende determinar, mediante el procesador (306; 414), la dirección de movimiento del primer ocupante (110) basándose en las imágenes capturadas por la primera cámara (104; 308; 406) y la dirección de movimiento del segundo ocupante (110, 118) basándose en las imágenes capturadas por la segunda cámara (108; 312; 410).
12. El método de la reivindicación 11, en donde determinar, mediante el procesador (306; 414), si el primer ocupante (110) y el segundo ocupante (110, 118) son el mismo ocupante se realiza comparando la dirección de movimiento del primer ocupante (110) con la dirección de movimiento del segundo ocupante (110, 118).
13. El método de la reivindicación 9, en donde determinar, mediante el procesador (306; 414), si el primer ocupante (110) y el segundo ocupante (110, 118) son el mismo ocupante se realiza determinando un nivel de correlación entre un movimiento del primer ocupante (110) y un movimiento del segundo ocupante (110, 118).
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201562264132P | 2015-12-07 | 2015-12-07 | |
| PCT/US2016/065100 WO2017100173A1 (en) | 2015-12-07 | 2016-12-06 | Occupancy detection |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2955472T3 true ES2955472T3 (es) | 2023-12-01 |
Family
ID=58798496
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES16873664T Active ES2955472T3 (es) | 2015-12-07 | 2016-12-06 | Detección de ocupación |
Country Status (5)
| Country | Link |
|---|---|
| US (2) | US10147196B2 (es) |
| EP (1) | EP3387625B1 (es) |
| CN (1) | CN108292463B (es) |
| ES (1) | ES2955472T3 (es) |
| WO (1) | WO2017100173A1 (es) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102016223171A1 (de) * | 2016-11-23 | 2018-05-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts |
| EP3847802A4 (en) * | 2018-09-07 | 2022-04-27 | Controle de Donnees Metropolis Inc. | CAMERA FOR STREET LIGHT |
| EP3650844A1 (de) * | 2018-11-09 | 2020-05-13 | B&R Industrial Automation GmbH | Beleuchtungsvorrichtung zur beleuchtung eines von zumindest einem bildsensor überwachten bereichs |
| US10969093B1 (en) * | 2020-01-20 | 2021-04-06 | Dong Guan Jia Sheng Lighting Technology Co., Ltd. China | Rotatable lamp and two cameras for detecting movement |
| GB2627454A (en) * | 2023-02-22 | 2024-08-28 | Nokia Technologies Oy | Apparatus, method, and system for spatial-temporal authentication |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6324453B1 (en) * | 1998-12-31 | 2001-11-27 | Automotive Technologies International, Inc. | Methods for determining the identification and position of and monitoring objects in a vehicle |
| JP4412138B2 (ja) * | 2004-01-27 | 2010-02-10 | Jfeスチール株式会社 | 発光検出装置 |
| JP2007241377A (ja) * | 2006-03-06 | 2007-09-20 | Sony Corp | 検索システム、撮像装置、データ保存装置、情報処理装置、撮像画像処理方法、情報処理方法、プログラム |
| DE102009000173A1 (de) | 2009-01-13 | 2010-07-15 | Robert Bosch Gmbh | Vorrichtung zum Zählen von Objekten, Verfahren sowie Computerprogramm |
| EP2458553B1 (en) * | 2009-07-22 | 2018-11-21 | Omron Corporation | Surveillance camera terminal |
| CN101872423A (zh) * | 2010-05-27 | 2010-10-27 | 天津大学 | 一种生产线上运动目标追踪方法 |
| US8622561B2 (en) * | 2010-11-06 | 2014-01-07 | Michael Patrick Carmody | Covert security camera within a lighting fixture |
| JP5991028B2 (ja) * | 2012-05-29 | 2016-09-14 | Jfeスチール株式会社 | 管の結束内本数計測方法および装置 |
| KR101776706B1 (ko) * | 2012-11-30 | 2017-09-08 | 한화테크윈 주식회사 | 복수의 카메라 기반 사람계수장치 및 방법 |
| CN105210451B (zh) * | 2013-03-15 | 2017-12-08 | 库珀技术公司 | 用于自调试和定位照明系统的系统和方法 |
| US9593843B2 (en) * | 2013-11-04 | 2017-03-14 | Knuckledragger Design, Inc. | Concealed surveillance camera system for lighting devices |
| WO2015148701A1 (en) * | 2014-03-25 | 2015-10-01 | Osram Sylvania Inc. | Identifying and controlling light-based communication (lcom)-enabled luminaires |
| US9948391B2 (en) * | 2014-03-25 | 2018-04-17 | Osram Sylvania Inc. | Techniques for determining a light-based communication receiver position |
| US9742970B1 (en) * | 2016-05-30 | 2017-08-22 | General Electric Company | Directional imaging using camera positioning in light fixtures for minimizing protective window size |
-
2016
- 2016-12-06 WO PCT/US2016/065100 patent/WO2017100173A1/en not_active Ceased
- 2016-12-06 ES ES16873664T patent/ES2955472T3/es active Active
- 2016-12-06 US US15/370,970 patent/US10147196B2/en active Active
- 2016-12-06 CN CN201680069777.0A patent/CN108292463B/zh active Active
- 2016-12-06 EP EP16873664.3A patent/EP3387625B1/en active Active
-
2018
- 2018-11-16 US US16/194,056 patent/US10909696B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| WO2017100173A1 (en) | 2017-06-15 |
| US20170161915A1 (en) | 2017-06-08 |
| CN108292463A (zh) | 2018-07-17 |
| EP3387625B1 (en) | 2023-07-26 |
| CN108292463B (zh) | 2020-05-08 |
| US10147196B2 (en) | 2018-12-04 |
| US10909696B2 (en) | 2021-02-02 |
| EP3387625A4 (en) | 2019-07-24 |
| EP3387625A1 (en) | 2018-10-17 |
| US20190087967A1 (en) | 2019-03-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2955472T3 (es) | Detección de ocupación | |
| US20120235827A1 (en) | Methods and Devices for Augmenting a Field of View | |
| WO2011029962A1 (es) | Cabina de exhibición con sistema inhabilitador de cámaras fotográficas y de video | |
| JP2018517228A5 (es) | ||
| CN106797692A (zh) | 照明偏好裁决 | |
| EP1818685A8 (en) | Optical detection system for deriving information on an object occupying a vehicle seat | |
| JP2009140129A (ja) | 監視装置、監視方法、及び、監視プログラム | |
| CN102118554A (zh) | 监控系统 | |
| BRPI0609662A2 (pt) | sensor de movimento de infravermelho piroelétrico aperfeiçoado | |
| EP3479659B1 (en) | System and method for providing a device access to sensor data | |
| JP6475055B2 (ja) | 検出装置、検出方法、及び、プログラム | |
| CN109416860A (zh) | 提供对行进路径上的危险状况的检测和警告的自主操作的发光设备 | |
| ES2778226T3 (es) | Distribución de luz NIR altamente eficiente para la detección de intrusión basada en creación de imágenes | |
| JP6183748B2 (ja) | 動体検知装置 | |
| EP3273140B1 (en) | Modular lighting device with multi-region detection function | |
| ES2953348T3 (es) | Sistema de almacenamiento | |
| JP2022144030A (ja) | カメラシステム、および照明システム | |
| JP2017072486A (ja) | 奥行き検知システム及び方法 | |
| CN106405497B (zh) | 一种定位标签 | |
| TWI621104B (zh) | 一種停車區域感知攝影機組件、一種停車區域感知方法及一種停車區域感知系統 | |
| ES2209291T3 (es) | Dispositivo para la vigilancia de un recinto. | |
| US8194131B2 (en) | Device for capturing the silhouette of an individual | |
| ES1163783U (es) | Sistema de supervisión de un área | |
| JP2010267072A (ja) | 監視システム、撮像装置及びプログラム | |
| JP2022143877A (ja) | 照明システム、および防災システム |