WO2014118872A1 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
WO2014118872A1
WO2014118872A1 PCT/JP2013/051822 JP2013051822W WO2014118872A1 WO 2014118872 A1 WO2014118872 A1 WO 2014118872A1 JP 2013051822 W JP2013051822 W JP 2013051822W WO 2014118872 A1 WO2014118872 A1 WO 2014118872A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
area
information storage
predetermined
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2013/051822
Other languages
English (en)
French (fr)
Inventor
俊和 赤間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RAMROCK VIDEO TECHNOLOGY LABORATORY Co Ltd
SYUSEI Co Ltd
Original Assignee
RAMROCK VIDEO TECHNOLOGY LABORATORY Co Ltd
SYUSEI Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CA2897910A priority Critical patent/CA2897910C/en
Priority to HK16100199.1A priority patent/HK1213116B/zh
Priority to EP13873274.8A priority patent/EP2953349B1/en
Priority to MYPI2015702410A priority patent/MY168266A/en
Priority to US14/762,830 priority patent/US9905009B2/en
Priority to PCT/JP2013/051822 priority patent/WO2014118872A1/ja
Application filed by RAMROCK VIDEO TECHNOLOGY LABORATORY Co Ltd, SYUSEI Co Ltd filed Critical RAMROCK VIDEO TECHNOLOGY LABORATORY Co Ltd
Priority to KR1020157021294A priority patent/KR101767497B1/ko
Priority to CN201380071683.3A priority patent/CN104969542B/zh
Priority to JP2014559371A priority patent/JP5870470B2/ja
Publication of WO2014118872A1 publication Critical patent/WO2014118872A1/ja
Anticipated expiration legal-status Critical
Priority to US15/867,194 priority patent/US10134140B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING SYSTEMS, e.g. PERSONAL CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19652Systems using zones in a single scene defined for different treatment, e.g. outer zone gives pre-alarm, inner zone gives alarm
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to a monitoring system. Specifically, the present invention relates to a monitoring system that can efficiently detect a target to be monitored from an image.
  • the camera may be installed in a building such as a station or a store, or an outdoor gate or an outer wall.
  • a monitoring system generally includes a camera that captures images, a monitor that displays the captured images, and a notification means that informs the monitor that an emergency has occurred with an alarm or signal when a suspicious person is detected. Have.
  • monitoring system that can be used by the monitor without always checking the video on the monitor.
  • This monitoring system has a mechanism for notifying by a warning only when a suspicious person is detected, reducing the burden on the monitoring person and reducing the number of manpower required for monitoring.
  • one of the problems of the monitoring system that has a mechanism for detecting a suspicious person and notifying with an alarm is that the object to be detected is erroneously recognized and the alarm is activated. It detects even people who do not want to be detected as suspicious persons, such as security guards, and sounds an alarm. If the alarm is activated frequently, the supervisor will need to check the video and the site each time. This is a burden on the observer and is not easy to use as a monitoring system.
  • Patent Document 1 describes a monitoring system 100 as shown in FIG.
  • the monitoring system 100 includes a monitoring control device 101, a monitoring camera 102, and a notification exclusion signal output device 103 to be given to a subject who does not want to detect.
  • the notification exclusion signal output device 103 blinks the light source 104 according to the notification exclusion pattern, and the monitoring control device 101 recognizes the moving object having the light emission of the light source 104 as a notification exclusion person.
  • the person excluded from the detection target is limited to the person having the notification exclusion signal output device. That is, it can be said that it is an effective monitoring system if it is a space limited to only a specific person.
  • the alarm is frequently activated in a place where other persons are supposed to come and go, for example, in a parking lot used by ordinary people.
  • the whole image of the suspicious person is not reflected and can be detected, but there is a problem that a clear image cannot be acquired.
  • the detection target is human
  • the outline is unclear and the shape cannot be accurately determined.
  • the present invention has been made in view of the above points, and an object thereof is to provide a monitoring system capable of efficiently detecting an object to be monitored from an image.
  • a monitoring system includes monitoring area storage means for storing a monitoring area, which is a part of an imaging area, and at least a part of an object in an input video. Is determined to be located within the monitoring area stored in the monitoring area storage means, and when it is determined that at least a part of the object is located within the monitoring area, the object is set to a predetermined condition.
  • Video analysis means configured to determine whether or not the above condition is satisfied.
  • a specific area in the imaging area can be stored as the monitoring area by having monitoring area storage means for storing a monitoring area that is a partial area in the imaging area.
  • the imaging region means an image of a region to be monitored captured by a camera.
  • the image analysis means for determining whether or not at least a part of the object in the input video is located in the monitoring area stored in the monitoring area storage means, so that a part of the object is monitored area It can be determined whether or not it is located inside.
  • the object is excluded from the target to be detected. That is, the determination of whether or not it is located within the monitoring area is the first step for specifying the detection target.
  • the efficiency of detection can be improved by excluding objects that are not located in the monitoring area as unnecessary information.
  • the object when it is determined that at least a part of the object is located within the monitoring area, the object is monitored by having image analysis means configured to determine whether the object satisfies a predetermined condition. It is possible to determine whether or not the object satisfies a predetermined condition only for an object that falls within the region. That is, the detection target can be specified by determining in the second step whether or not an object that has been determined in the first step of being located in the monitoring region meets a predetermined condition.
  • the image analysis means configured to determine whether or not the object satisfies a predetermined condition, two different determination target areas It is possible to specify the detection target. That is, in the first step, the determination is made only in the monitoring area, whereas in the second step, the determination is made with the whole image of the object that has entered the imaging area. In the second step, it is possible to confirm the whole image including the part located outside the monitoring area of the object, and solve the problem that even if the object is detected, only the unclear shape only in the monitoring area can be confirmed. be able to.
  • the image analysis means configured to determine whether or not the object satisfies a predetermined condition can be used as a detection target with the two determination criteria of the first step and the second step. It can be determined whether or not there is. Since different criteria are set in each step, the detection efficiency can be increased.
  • the first step is within the monitoring area, and the second step is different from the overall image of the object entering the imaging area and the determination target area. Can be increased.
  • the detection efficiency can be further increased.
  • an effective area storage unit that stores a predetermined area in the imaging area and an area that at least partially overlaps the monitoring area as an effective area
  • a specific range in the imaging area is effective. It can be stored as an area.
  • the “effective area” means an area where only an object falling within the range can be detected as a detection target.
  • an object that does not fall within the effective area is excluded from the detection target.
  • the determination in the second step is based on the effective area. Will be done. That is, if the object that has undergone the determination in the first step is included within the range of the stored effective area, it can be specified as a detection target. In addition, by setting an effective region in which an object desired to be detected falls within the range, an object larger than that can be excluded from the detection target, and the accuracy of determination as to whether or not the object is a detection target can be improved.
  • object reference information storage means for storing at least one of the upper limit or lower limit information of the object shape as object reference information
  • the upper and lower limits of the object shape are set and stored as object reference information. be able to.
  • the video analysis unit determines whether the shape of the object corresponds to the upper limit or lower limit of the object reference information stored in the object reference information storage unit as the predetermined condition
  • the step is determined based on the object reference information. That is, when only the upper limit is set, it can be determined whether the shape of the object is greater than or equal to the set upper limit or less than the upper limit, and whether or not the object is a detection target can be specified. Further, when only the lower limit is set, it can be determined whether it is equal to or higher than the lower limit or lower than the lower limit, and whether or not it is a detection target can be specified. Moreover, by setting both, it can be based on whether or not it falls within the range of the upper and lower limits.
  • imaging region position time information storage means for storing information on the time when the object is located in the imaging region as imaging region position time information, the time when the object is located in the imaging region can be stored.
  • the second step The determination is made based on the imaging area position time information. That is, when it is desired to detect an object that is located in the imaging region for a long time, the condition is met when a predetermined time is exceeded, and it can be specified as a detection target. Further, when it is desired to detect an object that is located in the imaging region for a short time, the condition is met and the detection target can be specified when the predetermined time is not exceeded.
  • acceleration information storage means for storing acceleration information when the object moves in the imaging area as acceleration information
  • the acceleration of the object in the imaging area can be stored.
  • the determination in the second step is based on the acceleration information. Will be done. That is, when it is desired to detect an object that moves quickly in the imaging region, the condition can be specified when a predetermined acceleration is exceeded, and can be specified as a detection target. Further, when it is desired to detect an object that moves slowly in the imaging region, the condition is met when a predetermined acceleration is not exceeded, and it can be specified as a detection target.
  • color tone information storage means for storing the color tone information of the object as color tone information
  • the color tone of the object can be stored.
  • the determination in the second step determines the color tone information. It will be done to the standard. That is, when it is desired to detect only an object having a specific color tone, it can be specified as a detection target because the condition is met when the object has a specific color tone. Also, it is possible to give a range to the color tone by specifying a plurality of color tones as conditions.
  • luminance information storage means for storing information on the brightness of an object as luminance information
  • the brightness (luminance) of the object can be stored.
  • the determination in the second step determines the luminance information. It will be done to the standard. That is, when it is desired to detect a bright object in the imaging region, the condition is met when a predetermined luminance is exceeded, and it can be specified as a detection target. Further, when it is desired to detect a dark object in the imaging region, the condition is met when the predetermined luminance is not exceeded, and the object can be specified as a detection target.
  • the area occupancy information storage means for storing area occupancy information in the imaging area of the object as area occupancy information
  • the area ratio occupied by the object in the imaging area can be stored.
  • the second step The determination is made based on the area occupancy information. That is, when it is desired to detect what occupies most of the imaging region, the condition is met when a predetermined area ratio is exceeded, and it can be specified as a detection target. Further, when it is desired to detect an object that occupies a small part of the imaging region, the condition is met when the predetermined area ratio is not exceeded, and the detection target can be specified.
  • volume information storage means for storing the volume information emitted by the object as volume information
  • the volume emitted by the object can be stored.
  • the determination in the second step is based on the volume information. Will be done. That is, when it is desired to detect an object that emits a loud sound, the condition is met when a predetermined volume is exceeded, and it can be specified as a detection target. Further, when it is desired to detect an object that emits a small sound or does not make a sound, the condition is met when the predetermined volume is not exceeded, and it can be specified as a detection target.
  • the temperature of the object can be stored.
  • the determination in the second step is based on the temperature information. Will be done. That is, when it is desired to detect a high-temperature object, the condition is met when a predetermined temperature is exceeded, and it can be specified as a detection target. Further, when it is desired to detect a low-temperature object, the condition is met when the predetermined temperature is not exceeded, and the object can be specified as a detection target.
  • the humidity information storage means for storing the humidity information of the object as humidity information
  • the humidity of the object can be stored.
  • the determination in the second step is based on the humidity information. Will be done. That is, when it is desired to detect a highly humid object, the condition is met when the predetermined humidity is exceeded, and it can be specified as a detection target. In addition, when it is desired to detect a low-humidity object, the condition is met when the predetermined humidity is not exceeded, and the detection target can be specified.
  • the odor of the object can be stored.
  • the video analysis means determines whether the odor information stored in the odor information storage means corresponds to a predetermined odor or exceeds a predetermined odor intensity as a predetermined condition.
  • the determination in the second step is performed based on the odor information. That is, when it is desired to detect an object that emits a strong odor, the condition is met when a predetermined odor intensity is exceeded, and the object can be specified as a detection target. Further, when it is desired to detect an object that emits a weak odor, the condition is met when the predetermined odor intensity is not exceeded, and it can be specified as a detection target.
  • notification means for notifying the judgment result of the video analysis means it is possible to notify the monitor by an alarm or signal when an object is specified as a detection target.
  • the monitoring system according to the present invention can efficiently detect the target to be monitored from the video.
  • FIG. 1 is a schematic diagram showing an example of a monitoring system to which the present invention is applied.
  • FIG. 2 is a schematic diagram (1) showing an example of determination by the monitoring area.
  • FIG. 3 is a schematic diagram (2) showing an example of determination by the monitoring area.
  • FIG. 4 is a schematic diagram illustrating an example of determination based on the effective area.
  • FIG. 5 is a schematic diagram illustrating an example of determination based on object reference information.
  • a monitoring system 1 which is an example of a monitoring system to which the present invention is applied includes a monitoring area storage means 2 and a video analysis means 3.
  • the monitoring area storage means 2 stores a monitoring area 11 which is a part of the imaging area 10 photographed by the camera 7.
  • the monitoring area 11 selects and sets a position and a range in which the detection target in the imaging area 10 is likely to be included.
  • the video analysis means 3 analyzes the video and determines whether or not the object in the imaging region meets the conditions of the first step and the second step. When the object matches any condition, the video analysis means 3 identifies the object as a detection target.
  • the condition of the first step is based on whether or not an object in the imaging area is partially included in the range of the monitoring area 11.
  • the conditions of the second step are based on various parameters such as the size and shape of the object in the imaging area, the time and temperature at which the object is positioned.
  • the second step condition suitable for detection can be selected in accordance with the detection target. In addition, a plurality of conditions can be combined to improve detection accuracy.
  • the monitoring system 1 has an effective area information storage unit 4 (an example of an effective area information storage unit) that stores an effective area that is a reference for the condition of the second step, and the second step condition.
  • An object reference information storage means 5 for storing object reference information as a reference is provided.
  • the effective area 14 means a region where only objects included in the range are detected as detection targets. Objects that protrude from the effective area 14 are excluded from detection targets. Further, the monitoring area 11 and the effective area 14 are set so as to have an area at least partially overlapping. This is because when the monitoring area 11 and the effective area 14 do not overlap at all, there is no object that satisfies both conditions, and the monitoring system does not make sense.
  • the object reference information storage means 5 can set and store an upper limit and a lower limit of the shape of the object as the object reference information. By setting the upper and lower limits in advance with the size and shape of the detection target, it is possible to determine whether or not the set condition is met and to specify the detection target.
  • the monitoring area 11 it is not always necessary to set the monitoring area 11 as the condition of the first step, and a specific area in the imaging area can be set as a non-monitoring area.
  • the non-monitoring area the other area is set as the monitoring area 11. For example, it is possible to easily exclude a bird from a detection target by setting a specific area in the aerial part where birds are easily reflected as a non-monitoring area.
  • the monitoring system 1 does not necessarily need to include the effective area information storage unit 4. However, by setting the effective area, those that do not fall within the range of the effective area can be excluded from the detection target, and the monitoring system 1 makes the effective area information storage unit 4 easier to detect a specific detection target. It is preferable to provide. In the case where the monitoring system 1 does not include the effective area information storage unit 4, at least one of the second step conditions needs to be set including the object reference information.
  • the monitoring system 1 does not necessarily need to include the object reference information storage unit 5.
  • the monitoring system 1 may be provided with the object reference information storage means 5 in order to make it easy to detect only an object having a specific size or shape by setting the upper and lower limits of the shape of the object as detection conditions. preferable.
  • the monitoring system 1 does not include the object reference information storage unit 5, it is necessary to set the second step condition including at least one of the effective area information.
  • condition of the second step is not limited to the criteria stored in the effective area information storage means 4 and the object reference information storage means 5. Depending on the characteristics of the detection target, various parameters described later can be used as a reference.
  • the detection target is specified in two stages of the first step and the second step, but this is only one example. That is, it is possible to provide a monitoring system in which the third and subsequent steps are added and the video analysis means 3 makes a determination.
  • the effective area is determined as a condition, and when the condition is met, it is possible to specify the detection target based on the object reference information in the third step.
  • monitoring area storage means 2 the video analysis means 3, the effective area information storage means 4, and the body reference information storage means 5 are implemented as software programs on the computer 6.
  • the monitoring system 1 includes a camera 7 for taking a video and a monitor 8 for displaying the video taken by the camera.
  • the monitoring system 1 includes notification means 9 that notifies the judgment result of the video analysis means.
  • the notification means 9 for example, the situation can be notified to a remote monitor by using a communication means using the Internet.
  • acoustic means using a speaker or the like the situation can be notified to the supervisor using voice.
  • the situation can be notified to the supervisor using the lighting of the lamp.
  • the monitoring system 1 does not necessarily have to include the monitor 8, and if the monitoring system 1 can detect an intruder or the like, it is not necessary to display the image. However, it is preferable that the monitoring system 1 includes the monitor 8 in that an object in the imaging region can be confirmed with an image and an effective area and object reference information can be easily set.
  • the monitoring system 1 does not necessarily need to include the notification means 9. However, it is preferable that the monitoring system 1 is provided with the notification means 9 from the viewpoint that the monitor can know in real time that the condition that matches the detection target condition exists in the imaged region.
  • FIG. 2 shows a diagram in which the monitoring area 11 is set in the first step.
  • the monitoring area 11 is set so that the body part of the intruder 12 to be detected is included in the range of the monitoring area 11.
  • the set monitoring area 11 is stored in the monitoring area storage means 2.
  • the monitoring area 11 can be freely set as long as it is a part of the imaging area 10.
  • the monitoring area 11 can be set while confirming the video using the monitor 8 for displaying the video of the camera 7 and a mouse (not shown).
  • the method for setting the monitoring area 11 is not limited to that using the monitor 8 and the mouse, and any method may be used as long as the monitoring area 11 can be set.
  • the non-monitoring area can be set and the monitoring area 11 can be specified.
  • the video analysis means 3 performs the second step of making a determination under the following second condition.
  • a portion drawn by a solid line included in the range of the monitoring area 11 in the entire image of the intruder 12 is a detection target portion. Further, portions not included in the range of the monitoring region 11 are indicated by dotted lines, and are excluded from detection targets in the first step.
  • the video analysis means 3 determines that the condition of the first step is met. Then, the process proceeds to the second step.
  • the intruder 12 includes the entire area including the part other than the monitoring area 11 as a target for determination of the conditions of the second step. The whole image of the person 12 is shown by a solid line.
  • FIG. 3A shows a case where the bird 13 is not included in the monitoring area 11.
  • the bird 13 flies in the sky (13-1) or near the ground (13-2)
  • a part of the bird 13 is not included in the range of the monitoring area 11.
  • the birds 13-1 and 13-2 are not included in the range of the monitoring area 11, they are indicated by dotted lines here.
  • the bird 13 does not meet the condition of the first step, and the video analysis means 3 excludes the bird 13 from the detection target.
  • the bird 13 is not determined in the second step and is treated as not existing in the imaging area 10. That is, the bird 13 that does not cover the monitoring area 11 can be excluded from the detection target, and the detection efficiency can be increased.
  • FIG. 4 shows an image in which the effective area 14 is set.
  • description will be made assuming that the intruder 12 in the video has already been determined to be included in the range of the monitoring area 11 in the first step and has shifted to the second step.
  • the setting of the effective area 14 can be performed while confirming the video with the monitor 8 and the mouse.
  • a specific range where the detection target is expected to fall within the range is set as the effective area 14 and stored in the effective area information storage unit 4.
  • the effective area 14 is set at a size that allows the intruder 12 to fall within the range and a position where the intruder 12 is expected to pass.
  • the entire image of the object that has entered the imaging area is subject to condition determination. That is, in the determination in the monitoring area 11 which is the condition of the first step, it is only necessary that a part of the object exists in the monitoring area, and the other part is located in an area other than the monitoring area 11. Will also meet the conditions. Then, in the second step, it is determined whether the condition of the second step is met in the entire image of the imaging region and the object including the part located outside the monitoring region 11.
  • FIG. 4A shows a case where the object falls within the effective area 14.
  • the intruder 12 falls within the set effective area 14, and the video analysis means 3 determines that the intruder 12 meets the second standard and identifies it as a detection target.
  • the determination result of the video analysis means 3 is transmitted to the notification means 9 through a communication line or the like, and the presence of the detection target can be notified to the monitor by an alarm using sound or a lamp.
  • FIG. 4B shows a case where the object does not fit within the effective area 14.
  • the automobile 15 is larger than the intruder 12 and does not fall within the set effective area 14 but protrudes from the range.
  • the determination of the condition of the second step it is determined that the automobile 15 does not meet the condition, and is excluded from the detection target.
  • the video analysis means 3 determines that the second step condition criteria is not met, the notification means 9 does not operate.
  • FIG. 5 shows an image in which the upper and lower limits of the intruder 12 are set as the object reference information.
  • the description will be made assuming that the intruder 12 and the bird 13 in the video have already been determined to be included in the range of the monitoring area 11 in the first step, and have shifted to the second step.
  • the object reference information can be set while confirming the image with the monitor 8 and the mouse, similarly to the setting of the monitoring area 11.
  • a range between upper and lower limits according to the size and shape of the detection target is set as object reference information and stored in the object reference information storage means 5.
  • the upper limit for example, a large rectangle 16
  • the lower limit for example, a small rectangle 17
  • the rectangle is an example of a shape for setting the upper and lower limit ranges, and the shape for determining the range is not limited to the rectangle.
  • FIG. 5B shows a case where the intruder 12 exists in the imaging area and meets the conditions of the second step.
  • the intruder 12 is an object that is smaller than the large rectangle 16 and larger than the small rectangle 17, and is included within the set upper and lower limits, so the video analysis means 3 identifies the intruder 12 as a detection target.
  • the determination result of the video analysis means 3 is transmitted to the notification means 9 through a communication line or the like, and the presence of the detection target can be notified to the monitor by an alarm using sound or a lamp.
  • FIG. 5C shows a case where only the bird 13 exists in the video and does not meet the second step condition.
  • the bird 13 is an object smaller than the small rectangle 17 and is less than the set lower limit.
  • the determination of the condition of the second step it is determined that the bird 13 does not match the condition, and is excluded from the detection target.
  • the bird 13 since the bird 13 does not fall within the upper and lower limits, it is indicated by a dotted line here. In this condition, an object larger than the large rectangle 16 does not meet the criteria of the second step condition and is excluded from the detection target. If the video analysis means 3 determines that the second step condition criteria is not met, the notification means 9 does not operate.
  • the conditions included in the upper and lower limits are used as the condition criteria for the second step, but the setting of the conditions is not limited to this. It is also possible to set the reference only by the upper limit or the lower limit of the object shape. Conditions can be changed according to the size and shape of the object to be detected.
  • the size and shape of the object vary depending on the position where the camera 7 is installed and the width and depth of the shooting range. Specifically, when an area with a large depth is imaged, the size and shape of the object located on the near side of the imaging area and the object located on the far side are significantly different. In such a case, a combination of a plurality of upper and lower limits can be set, and it can be determined that the condition of the second step is met when any of the conditions is met.
  • the monitoring system 1 when the effective area and the object reference information are used as the conditions of the second step has been described. Subsequently, the criteria that can be set as the condition of the second step will be described as other embodiments.
  • a monitoring system 1 including an imaging area position time information storage unit is given.
  • the imaging area position time information indicates the time when the object is located in the imaging area 10, and the video analysis means 3 determines whether or not the second step condition is met with the imaging area position time information.
  • the second step condition is set. For example, when it is desired to detect a pest that stays in the field for a certain period of time and damages the crop, the pest can be detected by setting a time slightly shorter than the time for staying in the field.
  • the setting is made so as to meet the condition of the second step if the predetermined time is not exceeded. For example, if you want to detect a car entering and exiting a parking lot where a parking ticket machine is installed, by setting a time shorter than the average time until the car stops near the machine and leaves, Cars entering and exiting can be detected.
  • the acceleration information refers to the acceleration when the object moves in the imaging region, and the video analysis means 3 determines whether or not the second step condition is met with the acceleration information.
  • an acceleration slightly smaller than the acceleration when a human starts to move quickly is set as a reference. An object that moves faster than this acceleration can be detected as a burglar or a suspicious person.
  • the setting is made so as to meet the condition of the second step if the predetermined acceleration is not exceeded.
  • the predetermined acceleration For example, when it is desired to observe the behavior of a slow-moving animal, an acceleration that is slightly larger than the movement of the target animal is set as a reference. An animal that moves slower than the acceleration can be detected as an observation target.
  • a monitoring system 1 provided with color tone information storage means is given.
  • the color tone information refers to the color tone of the object, and the video analysis means 3 determines whether or not the second step condition is met with the color tone information.
  • the setting is performed so as to meet the condition of the second step when the specific color tone is detected. For example, when it is desired to detect only a red car, it is possible to detect only a red car by setting a red color tone as a reference.
  • Luminance information refers to the brightness of an object
  • the video analysis means 3 determines whether or not the condition of the second step is met with the luminance information.
  • the imaging area When it is desired to detect a bright object in the imaging area, it is set as a condition that satisfies the condition of the second step when a predetermined luminance is exceeded. For example, when it is desired to detect a car passing on a road where night traffic is prohibited, the brightness is set slightly lower than the brightness of the car light. When the vehicle passes with a light, it can be detected as an object having brightness exceeding the reference luminance.
  • the setting is made so as to meet the condition of the second step when the predetermined luminance is not exceeded.
  • the luminance is set to be slightly weaker than the brightness of the bicycle light. When an unlit bicycle passes, it can be detected as an object that does not exceed the standard brightness.
  • a monitoring system 1 having an area occupancy rate information storage unit is given.
  • the area occupancy information refers to the area occupancy occupied by the object in the imaging region, and the video analysis means 3 determines whether the condition of the second step is met with the area occupancy information.
  • a setting is made so as to meet the condition of the second step when the predetermined area ratio is not exceeded.
  • a value that is slightly larger than the area occupancy rate of objects that pass far Set. An object passing through a distance occupies a small area in the imaging region and can be detected because it does not exceed the reference area ratio.
  • a monitoring system 1 having a volume information storage means is given.
  • the sound volume information refers to the sound volume information emitted by the object, and the video analysis means 3 determines whether or not the second step condition is met with the sound volume information.
  • the condition of volume information can be used to detect an abnormality in a production line of a precision machine that is difficult for humans to enter.
  • the sound does not increase during normal operation, but when the drive sound increases during an abnormality, the sound volume is set to be slightly lower than the drive sound during the abnormality.
  • the observer can detect the abnormality without approaching the production line.
  • a setting is made so as to meet the condition of the second step when the predetermined volume is not exceeded. For example, when it is desired to detect the start of a quiet electric vehicle, a sound that is slightly louder than the start sound is used as a reference. When the electric vehicle starts, it can be detected because it is an object that emits a sound smaller than the reference sound.
  • the temperature information refers to information on the temperature of the object, and the video analysis means 3 determines whether or not the condition of the second step is met with the temperature information.
  • a high-temperature object When it is desired to detect a high-temperature object, it is set so as to meet the conditions of the second step when a predetermined temperature is exceeded. For example, when it is desired to detect arson in a garbage dump, a temperature slightly lower than the temperature emitted by a heat source such as a lighter is set as a reference. The presence of a light source such as a lighter can be detected because it exceeds the reference temperature.
  • the setting is made so as to meet the condition of the second step. For example, when it is desired to detect an abnormal temperature drop in a greenhouse that grows a crop by controlling the temperature, the temperature is set based on the lower limit temperature of a temperature zone suitable for growing the crop. It can be detected when the temperature falls below the standard temperature due to climatic conditions or temperature control in the house.
  • Humidity information refers to information on the humidity of the object, and the video analysis means 3 determines whether or not the condition of the second step is met with the humidity information.
  • a predetermined humidity is set as a reference in a museum exhibition room where it is desired to keep the humidity below a certain level. It can be detected when the glass for exhibition has condensed due to the setting of air conditioning or the climate, and the humidity exceeds a predetermined standard.
  • Odor information refers to odor information of an object
  • the video analysis means 3 determines whether or not the second step condition is met with the odor information.
  • the setting is made so as to meet the condition of the second step.
  • the odor intensity when the chemical substance volatilizes is set as a reference. It can be detected when a chemical substance leaks for some reason and exceeds the standard odor intensity.
  • the monitoring system to which the present invention is applied sets the first reference whether or not a part of the object in the video is included in the range of the monitoring area and the predetermined second reference, By determining whether or not these match, it is possible to efficiently detect the detection target.
  • the condition of the second step can be set using various parameters of the object such as time, acceleration, color tone, and luminance located in the imaging region. It is possible to detect an object by providing a reference under conditions that match the characteristics of the detection target without depending on only the shape of the object.
  • the object that matches the condition of the first step by the monitoring area has the whole image of the object that has entered the imaging area, and performs the determination of the second step.
  • the entire image of the detection target can be clarified as compared with a monitoring system that simply limits the range to be monitored.
  • the accuracy of detection can be improved by making a determination based on the conditions of the second step.
  • the monitoring system to which the present invention is applied can efficiently detect the target to be monitored from the video.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本発明を適用した監視システムの一例である監視システム1は、監視領域記憶手段2と、映像分析手段3を備えている。また、監視システム1は、有効エリア情報記憶手段4と、物体基準情報記憶手段5を備えている。映像中の物体の一部が監視領域の範囲内に含まれるか否かの第1のステップの基準と、所定の第2のステップの基準を設定し、これらに合致するか否か判断することで、検知対象を効率よく検知することができる。

Description

監視システム
 本発明は監視システムに関する。詳しくは、映像の中から監視したい対象を効率よく検知することができる監視システムに係るものである。
 現在、犯罪対策や防犯対策、または災害対策など様々な用途で監視システムが用いられている。監視システムにおけるカメラの設置場所は室内外を問わず、例えば、駅構内や店舗などの建物内、あるいは、屋外の門や外壁の部分に取付けられることもある。
 また、監視システムは一般的に、映像を撮影するカメラと、撮影した映像を表示するモニターと、不審者等を検知した際に監視者に警報や信号で緊急事態であることを知らせる告知手段を有している。
 また、監視者が常にモニターの映像を確認することなく利用できる監視システムが存在する。この監視システムは、不審者を検知したときのみに警報などで知らせる仕組みを有しており、監視者の負担を軽減し、監視に必要な人手も減らすことができる。
 しかしながら、不審者を検知して警報で知らせる仕組みを有する監視システムの問題点の1つとして、検知すべき対象を誤って認識し、警報が作動してしまうことが挙げられる。警備員など、不審者として検知したくない人物まで検知して、警報を鳴らしてしまうのである。警報の作動が頻発すれば、監視者は都度、映像や現場の確認を行う必要が生じてしまう。これは監視者の負担になり、監視システムとして使い勝手のよいものとは言えない。
 こうしたなか、映像に映る物体のうち、特定の人物は検知対象から除外し、不審者のみを検知しやすくした監視システムが存在する。例えば、特許文献1に記載の監視システムが提案されている。
 ここで、特許文献1には、図6に示すような監視システム100が記載されている。監視システム100は、監視制御装置101と、監視カメラ102と、検知したくない対象者に持たせる報知除外信号出力装置103を有する。報知除外信号出力装置103は、報知除外パターンに応じた光源104の明滅を行い、監視制御装置101は、光源104の発光を有する動体を、報知除外者と認定する。
特開2008-250898
 しかしながら、特許文献1に記載の監視システムでは、検知対象から除外される人物は、報知除外信号出力装置を持つ者に限定されてしまう。即ち、ある特定の人物のみの行き来に限定される空間であれば有効な監視システムといえる。しかし、それ以外の人物の行き来が想定される場所、例えば、一般人も利用する駐車場等では、警報の作動が頻発してしまうおそれがある。
 また、屋外で鳥などの動物の飛来が想定される環境では、人間以上に、警報の作動が多くなってしまうことが予想される。動物への対策として、監視対象を人間に限定するために、撮影された領域の中から検知対象の認識を行う範囲を限定したり、人間の形状を映像の判定手段に記憶させ、動物を除外したりするシステムも存在する。
 しかし、範囲を限定する方法では、不審者の全体像が映らず、検知はできるが、明確な映像が取得できないという問題が生じる。また、検知対象を人間にすべく、形状で限定を行った場合でも、光の加減や動きによって鳥が人間のように映り、人間として認識されたり、輪郭が不鮮明で形状が正確に判断できなかったりする。
 本発明は、以上の点に鑑みて創案されたものであり、映像の中から監視したい対象を効率よく検知することができる監視システムを提供することを目的とする。
 上記の目的を達成するために、本発明の監視システムは、撮像領域の中の一部の領域である監視領域を記憶する監視領域記憶手段と、入力された映像の中の物体の少なくとも一部が前記監視領域記憶手段に記憶された前記監視領域内に位置するか否かを判断すると共に、前記物体の少なくとも一部が同監視領域内に位置すると判断した場合に、前記物体が所定の条件を満たすか否かを判断すべく構成された映像分析手段とを備える。
 ここで、撮像領域の中の一部の領域である監視領域を記憶する監視領域記憶手段を有することによって、撮像領域の中の特定の範囲を監視領域として記憶させることができる。ここで、撮像領域とは、監視したい領域をカメラで撮影したものを意味する。
 また、入力された映像の中の物体の少なくとも一部が監視領域記憶手段に記憶された監視領域内に位置するか否かを判断する映像分析手段を有することによって、物体の一部が監視領域内に位置するものであるか否かを判断することができる。ここで、物体が監視領域内に位置しない場合には、物体は検知したい対象から排除される。即ち、監視領域内に位置するか否かの判断が、検知対象を特定するための第1のステップとなる。また、監視領域内に位置しない物体を不必要な情報として除外することで、検知の効率を高めることができる。
 また、物体の少なくとも一部が監視領域内に位置すると判断した場合に、物体が所定の条件を満たすか否かを判断すべく構成された映像分析手段を有することによって、物体の一部が監視領域内に入ったものだけを対象に、その物体が所定の条件を満たすか否かを判断することができる。即ち、監視領域内に位置するという第1のステップの判断を経た物体に対し、所定の条件に合致するか否かという第2のステップで判断することで、検知対象を特定することができる。
 また、物体の少なくとも一部が監視領域内に位置すると判断した場合に、物体が所定の条件を満たすか否かを判断すべく構成された映像分析手段を有することによって、2つの異なる判断対象領域をもって検知対象を特定することができる。即ち、第1のステップでは、監視領域内でのみ判断を行うのに対し、第2のステップでは、撮像領域に入った物体の全体像を持って判断を行う。第2のステップにおいて、物体の監視領域以外に位置する部分も含めて全体像を確認することができ、物体を検知しても監視領域内だけの不鮮明な形状しか確認出来ないといった不具合を解消することができる。
 また、入力された映像の中の物体の少なくとも一部が監視領域記憶手段に記憶された監視領域内に位置するか否かを判断すると共に、物体の少なくとも一部が監視領域内に位置すると判断した場合に、物体が所定の条件を満たすか否かを判断すべく構成された映像分析手段を有することによって、第1のステップと第2のステップの2つの判断基準をもって、物体が検知対象であるか否かの判断を行うことができる。それぞれのステップでは異なる基準が設定されることから、検知の効率を高めることができる。また、前述したように、第1のステップは監視領域内、第2のステップは撮像領域に入った物体の全体像と判断対象領域が異なるので、検知対象であるか否かの判断の正確性を高めることができる。また、第1のステップで監視領域内に位置した物体のみが第2のステップの判断対象となり、第1のステップで不必要な情報は除外されるため、検知の効率をさらに高めることができる。
 また、撮像領域の中の所定の領域であると共に、監視領域と少なくとも一部が重複した領域を有効領域として記憶する有効領域記憶手段を有する場合には、撮像領域の中の特定の範囲を有効領域として記憶させることができる。ここで、「有効領域」とは、その範囲内に収まる物体のみを検知対象として検知できる領域を意味する。一方、有効領域の範囲内に収まらない物体は、検知対象から除外されることになる。
 また、映像分析手段が、所定の条件として物体が有効領域記憶手段に記憶された有効領域の範囲内に含まれるか否かを判断する場合には、第2のステップの判断が有効領域を基準に行われることになる。即ち、第1のステップの判断を経た物体が、記憶された有効領域の範囲内に含まれるものであれば、検知対象として特定することができる。また、検知対象としたい物体が範囲内に収まる有効領域を設定することで、それよりも大きな物体を検知対象から除外し、検知対象であるか否かの判断の正確性を高めることができる。
 また、物体の形状の上限または下限の情報のうち少なくとも一方を物体基準情報として記憶する物体基準情報記憶手段を有する場合には、物体の形状の上限や下限を物体基準情報として設定し、記憶させることができる。
 また、映像分析手段が、所定の条件として、物体の形状が物体基準情報記憶手段に記憶された物体基準情報の上限以上または下限以下に該当するか否かを判断する場合には、第2のステップの判断が物体基準情報を基準に行われることになる。即ち、上限のみを設定した場合には、物体の形状が設定した上限以上であるか、または上限未満であるかを判断し、検知対象であるか否かを特定できる。また、下限のみを設定した場合では、下限以上であるか、または下限未満であるかを判断し、検知対象であるか否かを特定できる。また、両方を設定することで、上下限の範囲内に含まれるか否かを基準にすることもできる。
 また、物体が撮像領域内に位置した時間の情報を撮像領域位置時間情報として記憶する撮像領域位置時間情報記憶手段を有する場合には、物体が撮像領域に位置した時間を記憶させることができる。
 また、映像分析手段が、所定の条件として、撮像領域位置時間情報記憶手段に記憶された撮像領域位置時間情報が、所定の時間を超えたか否かを判断する場合には、第2のステップの判断が撮像領域位置時間情報を基準に行われることになる。即ち、撮像領域中に長時間にわたって位置するものを検知したい時には、所定の時間を超えた場合に条件に合致し、検知対象として特定することができる。また、撮像領域中に短時間に限って位置するものを検知したい時には、所定の時間を超えない場合に条件に合致し、検知対象として特定することができる。
 また、物体が撮像領域内を移動した時の加速度の情報を加速度情報として記憶する加速度情報記憶手段を有する場合には、撮像領域内での物体の加速度を記憶させることができる。
 また、映像分析手段が、所定の条件として、加速度情報記憶手段に記憶された加速度情報が、所定の加速度を超えたか否かを判断する場合には、第2のステップの判断が加速度情報を基準に行われることになる。即ち、撮像領域中で素早く動きだすものを検知したい時には、所定の加速度を超えた場合に条件に合致し、検知対象として特定することができる。また、撮像領域中でゆっくりと動きだすものを検知したい時には、所定の加速度を超えない場合に条件に合致し、検知対象として特定することができる。
 また、物体の色調の情報を色調情報として記憶する色調情報記憶手段を有する場合には、物体の有する色調を記憶させることができる。
 また、映像分析手段が、所定の条件として、色調情報記憶手段に記憶された色調情報が、所定の色調に該当するか否かを判断する場合には、第2のステップの判断が色調情報を基準に行われることになる。即ち、特定の色調を有する物体のみを検知したい時には、物体が特定の色調を有する場合に条件に合致し、検知対象として特定することができる。また、条件とする色調を複数指定して、色調に範囲を持たせることができる。
 また、物体の明るさの情報を輝度情報として記憶する輝度情報記憶手段を有する場合には、物体の明るさ(輝度)を記憶させることができる。
 また、映像分析手段が、所定の条件として、輝度情報記憶手段に記憶された輝度情報が、所定の輝度に該当するか否かを判断する場合には、第2のステップの判断が輝度情報を基準に行われることになる。即ち、撮像領域中で明るいものを検知したい時には、所定の輝度を超えた場合に条件に合致し、検知対象として特定することができる。また、撮像領域中で暗いものを検知したい時には、所定の輝度を超えない場合に条件に合致し、検知対象として特定することができる。
 また、物体の撮像領域内における面積占有率の情報を面積占有率情報として記憶する面積占有率情報記憶手段を有する場合には、撮像領域内で物体が占める面積率を記憶させることができる。
 また、映像分析手段が、所定の条件として、面積占有率情報記憶手段に記憶された面積占有率情報が、所定の面積占有率を超えたか否かを判断する場合には、第2のステップの判断が面積占有率情報を基準に行われることになる。即ち、撮像領域の大部分を占めるものを検知したい時には、所定の面積率を超えた場合に条件に合致し、検知対象として特定することができる。また、撮像領域のわずかな部分を占めるものを検知したい時には、所定の面積率を超えない場合に条件に合致し、検知対象として特定することができる。
 また、物体が発する音量の情報を音量情報として記憶する音量情報記憶手段を有する場合には、物体が発する音量を記憶させることができる。
 また、映像分析手段が、所定の条件として、音量情報記憶手段に記憶された音量情報が、所定の音量を超えたか否かを判断する場合には、第2のステップの判断が音量情報を基準に行われることになる。即ち、大きな音を発する物体を検知したい時には、所定の音量を超えた場合に条件に合致し、検知対象として特定することができる。また、小さな音を発する、または、音を立てない物体を検知したい時には、所定の音量を超えない場合に条件に合致し、検知対象として特定することができる。
 また、物体の温度の情報を温度情報として記憶する温度情報記憶手段を有する場合には、物体の温度を記憶させることができる。
 また、映像分析手段が、所定の条件として、温度情報記憶手段に記憶された温度情報が、所定の温度を超えたか否かを判断する場合には、第2のステップの判断が温度情報を基準に行われることになる。即ち、高温の物体を検知したい時には、所定の温度を超えた場合に条件に合致し、検知対象として特定することができる。また、低温の物体を検知したい時には、所定の温度を超えない場合に条件に合致し、検知対象として特定することができる。
 また、物体の湿度の情報を湿度情報として記憶する湿度情報記憶手段を有する場合には、物体の湿度を記憶させることができる。
 また、映像分析手段が、所定の条件として、湿度情報記憶手段に記憶された湿度情報が、所定の湿度を超えたか否かを判断する場合には、第2のステップの判断が湿度情報を基準に行われることになる。即ち、高湿の物体を検知したい時には、所定の湿度を超えた場合に条件に合致し、検知対象として特定することができる。また、低湿の物体を検知したい時には、所定の湿度を超えない場合に条件に合致し、検知対象として特定することができる。
 また、物体の臭気の情報を臭気情報として記憶する臭気情報記憶手段を有する場合には、物体の臭気を記憶させることができる。
 また、映像分析手段が、所定の条件として、臭気情報記憶手段に記憶された臭気情報が、所定の臭気に該当するか否かまたは所定の臭気強度を超えたか否かを判断する場合には、第2のステップの判断が臭気情報を基準に行われることになる。即ち、強い臭気を発する物体を検知したい時には、所定の臭気強度を超えた場合に条件に合致し、検知対象として特定することができる。また、弱い臭気を発する物体を検知したい時には、所定の臭気強度を超えない場合に条件に合致し、検知対象として特定することができる。
 また、映像分析手段の判断結果を告知する告知手段を備える場合には、物体が検知対象として特定された時に警報や信号などで監視者に知らせることができる。
 本発明に係る監視システムは、映像の中から監視したい対象を効率よく検知することができる。
本発明を適用した監視システムの一例を示す概略図である。 監視領域による判断の一例を示す概略図(1)である。 監視領域による判断の一例を示す概略図(2)である。 有効エリアによる判断の一例を示す概略図である。 物体基準情報による判断の一例を示す概略図である。 従来の監視システムの一例を示す概略図である。
 以下、本発明を適用した監視システムの一例について図面を参照しながら説明し、本発明の理解に供する。
 図1は、本発明を適用した監視システムの一例を示す概略図である。図2は監視領域による判断の一例を示す概略図(1)である。図3は、監視領域による判断の一例を示す概略図(2)である。図4は、有効エリアによる判断の一例を示す概略図である。図5は、物体基準情報による判断の一例を示す概略図である。
 図1に示すように、本発明を適用した監視システムの一例である監視システム1は、監視領域記憶手段2と、映像分析手段3を備えている。
 監視領域記憶手段2は、カメラ7で撮影された撮像領域10の中の一部の領域である監視領域11を記憶するものである。監視領域11は、撮像領域10の中の検知対象が含まれやすい位置及び範囲を選択して設定する。また、映像分析手段3は、映像を分析し、撮像領域内の物体が、第1のステップ及び第2のステップの条件に合致するか否かを判断する。物体がいずれの条件にも合致した場合に、映像分析手段3は物体を検知対象として特定する。
 第1のステップの条件は、撮像領域内の物体が監視領域11の範囲内に一部でも含まれるか否かが基準となる。また、第2のステップの条件は、撮像領域内の物体の大きさや形状、位置した時間や温度など、種々のパラメーターが基準となる。検知対象に合わせて、検知に適した第2のステップの条件を選択することができる。また、複数の条件を組み合わせて、検知の正確性を高めることもできる。
 また、監視システム1は、第2のステップの条件の基準となる有効エリアを記憶する有効エリア情報記憶手段4(有効領域情報記憶手段の一例である。)と、同じく第2のステップの条件の基準となる物体基準情報を記憶する物体基準情報記憶手段5を備えている。
 有効エリア14とは、その範囲内に含まれる物体のみを検知対象として検知する領域を意味する。有効エリア14からはみ出る物体は検知対象から除外される。また、監視領域11と有効エリア14は少なくとも一部が重複した領域を有する形で設定される。これは、監視領域11と有効エリア14が全く重複しない場合には、両方の条件を満足する物体が存在しないことになり、監視システムの意味をなさなくなるためである。
 また、物体基準情報記憶手段5は、物体基準情報として、物体の形状の上限や下限を設定し、記憶させることができる。あらかじめ検知対象の大きさや形状をもって上下限を設定することで、設定した条件に合致するか否かを判断し、検知対象を特定できる。
 ここで、必ずしも、監視領域11を設定し、第1のステップの条件とする必要はなく、撮像領域中の特定の領域を非監視領域として設定することもできる。非監視領域を設定することで、それ以外の領域を監視領域11とする。例えば、鳥が映りやすい空中部分の特定の領域を非監視領域として設定することで、検知対象から鳥を除外しやすくすることができる。
 また、必ずしも、監視システム1が有効エリア情報記憶手段4を備える必要はない。但し、有効エリアを設定することで、有効エリアの範囲に入らないものは検知対象から除外することができ、特定の検知対象を検知しやすくする点から、監視システム1が有効エリア情報記憶手段4を備えることが好ましい。なお、監視システム1が有効エリア情報記憶手段4を備えない場合には、物体基準情報をはじめ、少なくとも1つは第2のステップの条件が設定される必要がある。
 また、必ずしも、監視システム1が物体基準情報記憶手段5を備える必要はない。但し、物体の形状の上限や下限を検知の条件として設定することで、特定の大きさや形状を有する物体のみを検知しやすくする点から、監視システム1が物体基準情報記憶手段5を備えることが好ましい。なお、監視システム1が物体基準情報記憶手段5を備えない場合には、有効エリア情報をはじめ、少なくとも1つは第2のステップの条件が設定される必要がある。
 また、第2のステップの条件は、有効エリア情報記憶手段4と、物体基準情報記憶手段5で記憶される基準に限定されるものではない。検知対象の特徴に応じて、後述する種々のパラメーターを基準として用いることができる。
 また、ここでは、第1のステップと第2のステップの2段階で、検知対象を特定しているが、これは1つの事例にすぎない。即ち、第3のステップ以降を追加し、映像分析手段3に判断させる監視システムにすることもできる。例えば、第2のステップでは有効エリアを条件に判断を行い、条件に合致する場合は、第3のステップで物体基準情報を基準に検知対象として特定することも可能である。
 また、監視領域記憶手段2と、映像分析手段3と、有効エリア情報記憶手段4、体基準情報記憶手段5は、コンピュータ6上のソフトウェアプログラムとして実装されるものである。
 また、監視システム1は、映像を撮影するためのカメラ7と、カメラで撮影した映像を表示するためのモニター8を備えている。また、監視システム1は、映像分析手段の判断結果を告知する告知手段9を備えている。告知手段9としては、例えば、インターネットを用いた通信手段を利用することで、遠隔地の監視者に状況を通知することが可能となる。また、スピーカー等を用いた音響手段を利用することで、監視者に状況を、音声を使って通知することができる。更に、ランプ等を用いた発光手段を利用することで、監視者に状況をランプの点灯を使って通知することができる。
 ここで、必ずしも監視システム1が、モニター8を備えている必要はなく、監視システム1が侵入者等を検知することができれば映像で表示する必要はない。但し、撮像領域内の物体を映像で確認することができる点および有効エリアや物体基準情報の設定を容易に行える点から、監視システム1がモニター8を備えることが好ましい。
 また、必ずしも、監視システム1が告知手段9を備える必要はない。但し、監視者が検知対象の条件に合致するものが、撮像される領域中に存在することをリアルタイムで知ることができる点から、監視システム1が告知手段9を備えることが好ましい。
 以上、上記の様に構成された監視システム1について図面を参照しながら、その動作について説明する。
 まず、監視領域で判断を行う第1のステップの条件の判断について説明する。
 図2には、第1のステップで監視領域11を設定した図を示している。ここでは、監視領域11は検出対象とする侵入者12の胴体部分が、監視領域11の範囲内に含まれるように領域を設定している。設定した監視領域11は監視領域記憶手段2に記憶させる。監視領域11は、撮像領域10の一部であれば自由に設定することができる。
 また、監視領域11は、カメラ7の映像を表示するモニター8とマウス(図示せず)を用いて、映像を確認しながら、設定を行うことができる。監視領域11の設定方法は、モニター8とマウスを用いたものに限定されず、監視領域11が設定できればどのような方法を用いてもよい。また、非監視領域を設定して、監視領域11を特定することもできる。
 検知対象に該当するか否かを判断するための第1のステップの条件として、監視領域11の範囲内に侵入者の一部が含まれるかが条件となる。図2(a)に示すように、侵入者12が、監視領域11の範囲内に一部でも含まれる場合には、映像分析手段3は、次の第2の条件で判断を行う第2ステップに移行する。なお、図2(a)の中で、侵入者12の全体像のうち、監視領域11の範囲内に含まれる実線で描いた部分が、検知の対象部分となる。また、監視領域11の範囲内に含まれない部分は点線で示し、第1のステップにおいては、検知の対象からは除外されている。
 図2(a)では、侵入者12の胴体部分が監視領域11の範囲内に含まれるので、映像分析手段3は第1のステップの条件に合致するものとして判断する。そして、第2のステップに移行する。侵入者12は、図2(b)で示すように、監視領域11以外の部分も含めて全体像が第2のステップの条件の判断の対象となるので、図2(a)と異なり、侵入者12の全体像を実線で示している。
 一方、物体(例えば、鳥13とする。)が撮像領域10の中には存在するが、監視領域11の範囲内に一部も含まれない場合には、物体は検知対象から除外され、第2のステップの条件での判断はなされない。
 図3(a)には、監視領域11の中に鳥13が含まれない場合を示している。鳥13が、空を飛ぶ場合(13-1)や地面付近にいる場合(13-2)は、監視領域11の範囲内に鳥13の一部分も含まれていない。鳥13-1及び13-2はいずれも監視領域11の範囲内に含まれないため、ここでは点線で示している。この結果、鳥13は第1のステップの条件に合致せず、映像分析手段3は鳥13を検知対象から除外する。図3(b)に示すように、鳥13は第2のステップにおいて判断の対象とならず、撮像領域10の中に存在しないものとして扱われる。即ち、監視領域11に一部もかからない鳥13を検知対象から除外することができ、検知の効率を高めることができる。
 次に、第2のステップの条件として、有効エリアを用いて判断を行う場合について説明する。
 図4には、有効エリア14を設定した映像を表示している。ここでは、既に第1のステップにおいて、映像中の侵入者12が、監視領域11の範囲内に含まれたものとして判断され、第2のステップに移行したものとして説明を行う。
 有効エリア14の設定は、監視領域11の設定と同様に、モニター8とマウスにより、映像を確認しながら行うことができる。検知対象が範囲内に収まることが予想される特定の範囲を有効エリア14として設定し、有効エリア情報記憶手段4に記憶される。ここでは、侵入者12が範囲内に収まる大きさと侵入者12が通ることが予想される位置で有効エリア14を設定している。
 また、第2のステップにおいては、撮像領域に入った物体の全体像が条件判断の対象となる。つまり、第1のステップの条件である、監視領域11での判断では、物体の一部が監視領域内に存在していればよく、その他の部分が監視領域11以外の領域に位置していても条件に合致することになる。そして、第2のステップでは、監視領域11以外に位置する部分も含めて、撮像領域と物体の全体像で第2のステップの条件に合致するか否かを判断する。
 図4(a)に、物体が有効エリア14の範囲内に収まる場合を示す。侵入者12は、設定した有効エリア14の範囲内に収まり、映像分析手段3が、侵入者12を第2の基準に合致するものとして判断し、検知対象として特定する。映像分析手段3の判断の結果は通信回線などを通じて告知手段9に伝達され、音響やランプを用いた警報により、検知対象の存在を監視者に知らせることができる。
 図4(b)に物体が有効エリア14の範囲内に収まらない場合を示す。自動車15は、侵入者12よりも大きく、設定した有効エリア14の範囲内に収まらず、範囲からはみ出すことになる。この場合は、第2のステップの条件の判断において、自動車15が条件に合致しないものと判断され、検知対象から除外される。また、有効エリア14の範囲外にのみ物体が存在する場合も同様に、第2のステップの条件の基準に合致せず、検知対象からは除外される。映像分析手段3が、第2のステップの条件の基準に合致しないと判断した場合には、告知手段9は作動しない。
 また、第2のステップの条件として、物体基準情報を用いて判断を行う場合について説明する。
 図5には、物体基準情報として侵入者12の上限と下限を設定した映像を表示している。ここでは、既に第1のステップにおいて、映像中の侵入者12および鳥13が、監視領域11の範囲内に含まれたものとして判断され、第2のステップに移行したものとして説明を行う。
 まず、物体基準情報の設定は、監視領域11の設定と同様に、モニター8とマウスにより、映像を確認しながら行うことができる。検知対象の大きさと形状に合わせた上下限の範囲を物体基準情報として設定し、物体基準情報記憶手段5に記憶される。
 図5(a)では、検知対象としたい物体として侵入者12および検知対象にしたくない物体として鳥13を示している。上限(一例として大矩形16とする。)は侵入者12よりもやや大きめの範囲を設定する。また下限(一例として小矩形17とする。)は大矩形よりも小さく、鳥13よりもやや大きな範囲とする。大矩形16よりも小さく、小矩形17よりも大きい物体を検知対象と判断するものとする。なお、矩形は上下限の範囲を設定する際の形状の一例であり、範囲を決める形状は矩形に限定されるものではない。
 図5(b)に、撮像領域中に侵入者12が存在し、第2のステップの条件に合致する場合を示す。侵入者12は、大矩形16よりも小さく、小矩形17よりも大きい物体であり、設定した上下限の範囲内に含まれるため、映像分析手段3が、侵入者12を検知対象として特定する。映像分析手段3の判断の結果は通信回線などを通じて告知手段9に伝達され、音響やランプを用いた警報により、検知対象の存在を監視者に知らせることができる。
 図5(c)に、映像中に鳥13のみが存在し、第2のステップ条件に合致しない場合を示す。鳥13は、小矩形17よりも小さい物体であり、設定した下限未満のものである。この場合は、第2のステップの条件の判断において、鳥13が条件に合致しないものと判断され、検知対象から除外される。図5(c)では、鳥13が上下限の範囲内に入らないため、ここでは点線で示している。また、この条件においては、大矩形16よりも大きな物体についても同様に、第2のステップの条件の基準に合致せず、検知対象からは除外される。映像分析手段3が、第2のステップの条件の基準に合致しないと判断した場合には、告知手段9は作動しない。
 また、図5の例では、上下限の範囲内に含まれるものを第2のステップの条件の基準としたが、条件の設定はこれに限られるものではない。物体の形状の上限のみや下限のみで基準を設定することもできる。検知したい対象の大きさや形状に合わせて、条件を変えることができる。
 なお、物体の大きさと形状は、カメラ7の設置された位置や、撮影する範囲の広さや奥行きにより異なるものとなってくる。具体的には、奥行きが広い領域を撮影する場合には、撮像領域の手前側に位置する物体と、奥側に位置する物体では大きさと形状が顕著に異なったものになる。このような場合は、複数の上下限の組合せを設定し、いずれかの条件に合致する時に、第2のステップの条件に合致するものと判断させることができる。
 また、第2のステップの条件として、有効エリアと物体基準情報を設定する場合を個々に説明したが、この両方を組み合わせて第2のステップの条件とすることもできる。組み合わせた場合には、各々を単独で設定する場合よりも、より検知の正確性を高めることができる。
 以上までの部分では、有効エリアと物体基準情報を第2のステップの条件として用いた場合の監視システム1の説明を行った。続いて、第2のステップの条件として設定することのできる基準について、その他実施形態として述べていく。
 まず、他の実施形態1として、撮像領域位置時間情報記憶手段を備えた監視システム1を挙げる。撮像領域位置時間情報とは、物体が撮像領域10の中に位置した時間を指し、映像分析手段3が撮像領域位置時間情報をもって第2のステップの条件に合致するか否かを判断する。
 撮像領域中に長時間にわたって位置するものを検知したい時は、所定の時間を超えた場合に第2のステップの条件に合致するものとして設定を行う。例えば、一定時間田畑に留まり作物を荒らす害獣を検知したい場合は、田畑に留まる時間よりやや短い時間を設定することで、害獣を検知することができる。
 また、撮像領域中に短時間に限って位置するものを検知したい時には、所定の時間を超えない場合に第2のステップの条件に合致するものとして設定を行う。例えば、駐車券の機械が設置された駐車場の出入り口を出入りする車を検知したい場合には、車が機械付近で止まり、出庫するまでの時間の平均時間よりも短い時間を設定することで、出入りする車を検知することができる。
 また、他の実施形態2として、加速度情報記憶手段を備えた監視システム1を挙げる。加速度情報とは、物体が撮像領域内を移動した時の加速度を指し、映像分析手段3が加速度情報をもって第2のステップの条件に合致するか否かを判断する。
 撮像領域中で素早く動きだすものを検知したい時には、所定の加速度を超えた場合に第2のステップの条件に合致するものとして設定を行う。例えば、コンビニのレジでの強盗対策として、店舗から素早く立ち去る強盗を検知したい場合には、人間が素早く動き出すときの加速度よりもやや小さな加速度を基準として設定する。この加速度よりも早く動き出す物体を強盗や不審者として検知することができる。
 また、撮像領域中でゆっくりと動きだすものを検知したい時には、所定の加速度を超えない場合に第2のステップの条件に合致するものとして設定を行う。例えば、動きの遅い動物の行動を観察したい場合には、対象となる動物の動きよりもやや大きな加速度を基準として設定する。この加速度よりも遅い動きをする動物を観察対象として検知することができる。
 また、他の実施形態3として、色調情報記憶手段を備えた監視システム1を挙げる。色調情報とは、物体の色調を指し、映像分析手段3が色調情報をもって第2のステップの条件に合致するか否かを判断する。
 撮像領域中で特定の色調を有する物体を検知したい時には、特定の色調を有する場合に第2のステップの条件に合致するものとして設定を行う。例えば、赤色の自動車のみを検知したい場合には、赤い色調を基準として設定することで、赤色の車のみを検知することができる。
 また、他の実施形態4として、輝度情報記憶手段を備えた監視システム1を挙げる。輝度情報とは、物体の明るさを指し、映像分析手段3が輝度情報をもって第2のステップの条件に合致するか否かを判断する。
 撮像領域中で明るいものを検知したい時には、所定の輝度を超えた場合に第2のステップの条件に合致するものとして設定を行う。例えば、夜間の通行が禁止された道路を通る車を検知したい場合には、車のライトの明るさよりもやや弱い輝度を基準として設定する。車がライトを付けて通行した場合に、基準の輝度を超えた明るさを有する物体として検知することができる。
 また、撮像領域中で暗いものを検知したい時には、所定の輝度を超えない場合に第2のステップの条件に合致するものとして設定を行う。例えば、ライトが無灯火の自転車を検知したい場合には、自転車のライトの明るさよりもやや弱い輝度を基準として設定する。無灯火の自転車が通行した場合に、基準の輝度を超えない物体として検知することができる。
 また、他の実施形態5として、面積占有率情報記憶手段を備えた監視システム1を挙げる。面積占有率情報とは、撮像領域内における物体が占める面積占有率を指し、映像分析手段3が面積占有率情報をもって第2のステップの条件に合致するか否かを判断する。
 撮像領域の大部分を占めるものを検知したい時には、所定の面積率を超えた場合に第2のステップの条件に合致するものとして設定を行う。例えば、奥行きがある撮像領域において、カメラを設置した位置の近くを通る物体のみ検知したい場合には、近くを通る物体の面積占有率よりもやや小さな値を基準として設定する。近くを通る物体は、撮像領域において大きな面積を占めることになり、基準の面積率を超えるため検知することができる。
 また、撮像領域のわずかな部分を占めるものを検知したい時には、所定の面積率を超えない場合に第2のステップの条件に合致するものとして設定を行う。例えば、上記の場合とは逆に、奥行きがある撮像領域において、カメラを設置した位置の遠くを通る物体のみ検知したい場合には、遠くを通る物体の面積占有率よりもやや大きな値を基準として設定する。遠くを通る物体は、撮像領域においてわずかな面積を占めることになり、基準の面積率を超えないため検知することができる。
 また、他の実施形態6として、音量情報記憶手段を備えた監視システム1を挙げる。音量情報とは、物体が発する音量の情報を指し、映像分析手段3が音量情報をもって第2のステップの条件に合致するか否かを判断する。
 大きな音を発する物体を検知したい時には、所定の音量を超えた場合に第2のステップの条件に合致するものとして設定を行う。例えば、人の立ち入りが困難な精密機械の製造ラインの異常を察知するために音量情報の条件を用いることができる。正常運転時には音は大きくならないが、異常時に駆動音が大きくなる場合に、異常時の駆動音よりもやや小さな音量を基準として設定する。製造ラインに異常があり、駆動音が大きくなった時に監視者が製造ラインに近づくことなく異常を検知することができる。
 また、小さな音を発する、または、音を立てない物体を検知したい時には、所定の音量を超えない場合に第2のステップの条件に合致するものとして設定を行う。例えば、音の静かな電気自動車の発進を検知したい場合には、発進音よりもやや大きな音を基準とする。電気自動車が発進した際に、基準の音よりも小さな音を発する物体であるため検知することができる。
 また、他の実施形態7として、温度情報記憶手段を備えた監視システム1が考えられる。温度情報とは、物体の温度の情報を指し、映像分析手段3が温度情報をもって第2のステップの条件に合致するか否かを判断する。
 高温の物体を検知したい時には、所定の温度を超えた場合に第2のステップの条件に合致するものとして設定を行う。例えば、ゴミ捨て場への放火を検知したい場合には、ライターなどの熱源の発する温度よりもやや低い温度を基準として設定する。ライターなどの熱源が存在すると、基準の温度を超えるため検知することができる。
 また、低温の物体を検知したい時には、所定の温度を超えない場合に第2のステップの条件に合致するものとして設定を行う。例えば、温度を制御して作物を育てるビニールハウス内で温度が下がる異常を検知したい場合には、作物の生育に適した温度帯の下限の温度を基準として設定する。気候条件やハウス内の温度制御の不調により基準の温度を下回った場合に検知することができる。
 また、他の実施形態8として、湿度情報記憶手段を備えた監視システム1が考えられる。湿度情報とは、物体の湿度の情報を指し、映像分析手段3が湿度情報をもって第2のステップの条件に合致するか否かを判断する。
 高湿の物体を検知したい時には、所定の湿度を超えた場合に第2のステップの条件に合致するものとして設定を行う。例えば、一定の湿度以下に保ちたい博物館の展示室において、所定の湿度を基準として設定する。空調の設定や気候により、展示用のガラスが結露した場合で、湿度が所定の基準を超えた場合に検知することができる。
 また、他の実施形態9として、臭気情報記憶手段を備えた監視システム1が考えられる。臭気情報とは、物体の臭気の情報を指し、映像分析手段3が臭気情報をもって第2のステップの条件に合致するか否かを判断する。
 臭気の強い物体を検知したい時には、臭気強度が所定の強度を超えた場合に第2のステップの条件に合致するものとして設定を行う。例えば、揮発性かつ人体に有害な臭気を発する化学物質の貯蔵庫において、化学物質の漏洩を検知したい場合には、その化学物質が揮発した時の臭気強度を基準として設定する。何らかの理由で化学物質が漏洩し、基準の臭気強度を超えた場合に検知することができる。
 以上のように、本発明を適用した監視システムは、映像中の物体の一部が監視領域の範囲内に含まれるか否かの第1の基準と、所定の第2の基準を設定し、これらに合致するか否か判断することで、検知対象を効率よく検知することができる。
 また、第1のステップの条件では、監視領域の範囲内に含まれない物体は検知対象から除外される。不要な情報を排除できるため、鳥などの小動物を原因とする警報の作動を減らすことが出来る。
 また、第2のステップの条件では、特定の範囲内に含まれる物体を検知する有効エリア情報や物体の大きさや形状で物体の上下限の範囲を設定する物体基準情報を設定することができる。検知対象に合わせた範囲や大きさを設定することで、目的の物体を効率よく検知することができる。
 また、第2のステップの条件では、撮像領域に位置する時間、加速度、色調、輝度などの物体の持つ各種のパラメーターを用いて条件を設定することができる。物体の形状だけに依存せず、検知対象の特徴に合わせた条件で基準を設け、物体を検知することが可能となる。
 さらに、監視領域による第1のステップの条件に合致した物体は、撮像領域に入った物体の全体像を持って第2のステップの判断を行う。このことにより、単に監視すべき範囲を限定した監視システムに比べ、検知対象の全体像を明確にすることができる。
 また、光の加減や物体の動き、映像への映り方により形状がはっきりと掴めない場合にも、第2のステップの条件で判断することで、検知の正確性を高めることができる。
 よって、本発明を適用した監視システムは、映像の中から監視したい対象を効率よく検知することができるものとなっている。
    1  監視システム
    2  監視領域記憶手段
    3  映像分析手段
    4  有効エリア情報記憶手段
    5  物体基準情報記憶手段
    6  コンピュータ
    7  カメラ
    8  モニター
    9  告知手段
   10  撮像領域
   11  監視領域
   12  侵入者
   13  鳥
   14  有効エリア
   15  自動車
   16  大矩形
   17  小矩形

Claims (13)

  1.  撮像領域の中の一部の領域である監視領域を記憶する監視領域記憶手段と、
     入力された映像の中の物体の少なくとも一部が前記監視領域記憶手段に記憶された前記監視領域内に位置するか否かを判断すると共に、前記物体の少なくとも一部が同監視領域内に位置すると判断した場合に、前記物体が所定の条件を満たすか否かを判断すべく構成された映像分析手段とを備える
     監視システム。
  2.  前記撮像領域の中の所定の領域であると共に、前記監視領域と少なくとも一部が重複した領域を有効領域として記憶する有効領域記憶手段を有し、
     前記映像分析手段は、前記所定の条件として前記物体が前記有効領域記憶手段に記憶された前記有効領域の範囲内に含まれるか否かを判断する
     請求項1に記載の監視システム。
  3.  前記物体の形状の上限または下限の情報のうち少なくとも一方を物体基準情報として記憶する物体基準情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として前記物体の形状が前記物体基準情報記憶手段に記憶された前記物体基準情報の上限以上または下限以下に該当するか否かを判断する
     請求項1または請求項2に記載の監視システム。
  4.  前記物体が前記撮像領域内に位置した時間の情報を撮像領域位置時間情報として記憶する撮像領域位置時間情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記撮像領域位置時間情報記憶手段に記憶された前記撮像領域位置時間情報が、所定の時間を超えたか否かを判断する
     請求項1または請求項2に記載の監視システム。
  5.  前記物体が前記撮像領域内を移動した時の加速度の情報を加速度情報として記憶する加速度情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記加速度情報記憶手段に記憶された前記加速度情報が、所定の加速度を超えたか否かを判断する
     請求項1または請求項2に記載の監視システム。
  6.  前記物体の色調の情報を色調情報として記憶する色調情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記色調情報記憶手段に記憶された前記色調情報が、所定の色調に該当するか否かを判断する
     請求項1または請求項2に記載の監視システム。
  7.  前記物体の明るさの情報を輝度情報として記憶する輝度情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記輝度情報記憶手段に記憶された前記輝度情報が、所定の輝度に該当するか否かを判断する
     請求項1または請求項2に記載の監視システム。
  8.  前記物体の前記撮像領域内における面積占有率の情報を面積占有率情報として記憶する面積占有率情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記面積占有率情報記憶手段に記憶された前記面積占有率情報が、所定の面積占有率を超えたか否かを判断する
     請求項1または請求項2に記載の監視システム。
  9.  前記物体が発する音量の情報を音量情報として記憶する音量情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記音量情報記憶手段に記憶された前記音量情報が、所定の音量を超えたか否かを判断する
     請求項1または請求項2に記載の監視システム。
  10.  前記物体の温度の情報を温度情報として記憶する温度情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記温度情報記憶手段に記憶された前記温度情報が、所定の温度を超えたか否かを判断する
     請求項1または請求項2に記載の監視システム。
  11.  前記物体の湿度の情報を湿度情報として記憶する湿度情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記湿度情報記憶手段に記憶された前記湿度情報が、所定の湿度を超えたか否かを判断する
     請求項1または請求項2に記載の監視システム。
  12.  前記物体の臭気の情報を臭気情報として記憶する臭気情報記憶手段を有し、
     前記映像分析手段は、前記所定の条件として、前記臭気情報記憶手段に記憶された前記臭気情報が、所定の臭気に該当するか否かまたは所定の臭気強度を超えたか否かを判断する
     請求項1または請求項2に記載の監視システム。
  13.  前記映像分析手段の判断結果を告知する告知手段を備える
     請求項1または請求項2に記載の監視システム。
PCT/JP2013/051822 2013-01-29 2013-01-29 監視システム Ceased WO2014118872A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
KR1020157021294A KR101767497B1 (ko) 2013-01-29 2013-01-29 감시 시스템
HK16100199.1A HK1213116B (zh) 2013-01-29 监视系统
EP13873274.8A EP2953349B1 (en) 2013-01-29 2013-01-29 Monitor system
MYPI2015702410A MY168266A (en) 2013-01-29 2013-01-29 Surveillance system
US14/762,830 US9905009B2 (en) 2013-01-29 2013-01-29 Monitor system
CA2897910A CA2897910C (en) 2013-01-29 2013-01-29 Surveillance system
JP2014559371A JP5870470B2 (ja) 2013-01-29 2013-01-29 監視システム
PCT/JP2013/051822 WO2014118872A1 (ja) 2013-01-29 2013-01-29 監視システム
CN201380071683.3A CN104969542B (zh) 2013-01-29 2013-01-29 监视系统
US15/867,194 US10134140B2 (en) 2013-01-29 2018-01-10 Monitor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/051822 WO2014118872A1 (ja) 2013-01-29 2013-01-29 監視システム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/762,830 A-371-Of-International US9905009B2 (en) 2013-01-29 2013-01-29 Monitor system
US15/867,194 Continuation US10134140B2 (en) 2013-01-29 2018-01-10 Monitor system

Publications (1)

Publication Number Publication Date
WO2014118872A1 true WO2014118872A1 (ja) 2014-08-07

Family

ID=51261622

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/051822 Ceased WO2014118872A1 (ja) 2013-01-29 2013-01-29 監視システム

Country Status (8)

Country Link
US (2) US9905009B2 (ja)
EP (1) EP2953349B1 (ja)
JP (1) JP5870470B2 (ja)
KR (1) KR101767497B1 (ja)
CN (1) CN104969542B (ja)
CA (1) CA2897910C (ja)
MY (1) MY168266A (ja)
WO (1) WO2014118872A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105120191A (zh) * 2015-07-31 2015-12-02 小米科技有限责任公司 视频录制方法和装置
JP2019220895A (ja) * 2018-06-21 2019-12-26 日本電気株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP2019220024A (ja) * 2018-06-21 2019-12-26 キヤノン株式会社 画像処理装置およびその制御方法
JP2021054597A (ja) * 2019-09-30 2021-04-08 新明和工業株式会社 塵芥収集車及びメンテナンス装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10313638B1 (en) * 2015-06-12 2019-06-04 Amazon Technologies, Inc. Image creation using geo-fence data
US10322801B1 (en) 2015-06-12 2019-06-18 Amazon Technologies, Inc. Unmanned aerial vehicle based surveillance as a service
JP6965803B2 (ja) * 2018-03-20 2021-11-10 株式会社Jvcケンウッド 認識装置、認識方法及び認識プログラム
WO2025019359A1 (en) * 2023-07-14 2025-01-23 Sensormatic Electronics, LLC Acceleration profile for sprinter detection

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289581A (ja) * 2003-03-24 2004-10-14 Minolta Co Ltd 監視システム
JP2005129003A (ja) * 2003-06-09 2005-05-19 Hitachi Kokusai Electric Inc 変化検出装置
WO2005107240A1 (ja) * 2004-04-28 2005-11-10 Chuo Electronics Co., Ltd. 自動撮影方法および装置
JP2007274655A (ja) * 2006-03-31 2007-10-18 Saxa Inc 監視映像処理装置及び方法
JP2008241707A (ja) * 2008-03-17 2008-10-09 Hitachi Kokusai Electric Inc 自動監視システム
JP2008250898A (ja) 2007-03-30 2008-10-16 Victor Co Of Japan Ltd 監視制御装置
WO2008139529A1 (ja) * 2007-04-27 2008-11-20 Honda Motor Co., Ltd. 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
JP2012243161A (ja) * 2011-05-20 2012-12-10 Canon Inc 画像処理装置、画像処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2183878B (en) * 1985-10-11 1989-09-20 Matsushita Electric Works Ltd Abnormality supervising system
US6028626A (en) * 1995-01-03 2000-02-22 Arc Incorporated Abnormality detection and surveillance system
JPH09186927A (ja) * 1995-12-28 1997-07-15 Sony Corp 追尾装置および追尾方法
JPH1066054A (ja) * 1996-08-20 1998-03-06 Fujitsu General Ltd 映像監視装置
US6445409B1 (en) * 1997-05-14 2002-09-03 Hitachi Denshi Kabushiki Kaisha Method of distinguishing a moving object and apparatus of tracking and monitoring a moving object
WO1998056182A1 (de) 1997-06-04 1998-12-10 Ascom Systec Ag Verfahren zum überwachen eines vorgegebenen überwachungsbereiches
US6064429A (en) * 1997-08-18 2000-05-16 Mcdonnell Douglas Corporation Foreign object video detection and alert system and method
WO2001069931A1 (en) 2000-03-10 2001-09-20 Sensormatic Electronics Corporation Method and apparatus for video surveillance with defined zones
JP3698420B2 (ja) 2001-06-12 2005-09-21 シャープ株式会社 画像監視装置及び画像監視方法及び画像監視処理プログラム
DE602004015173D1 (de) 2003-01-21 2008-09-04 Canon Kk Bildaufnahmegerät und Bildaufnahmesystem
KR100696728B1 (ko) * 2003-06-09 2007-03-20 가부시키가이샤 히다치 고쿠사이 덴키 감시정보송신장치 및 감시정보송신방법
JP4508038B2 (ja) * 2005-03-23 2010-07-21 日本ビクター株式会社 画像処理装置
US20070069920A1 (en) * 2005-09-23 2007-03-29 A-Hamid Hakki System and method for traffic related information display, traffic surveillance and control
US7908237B2 (en) 2007-06-29 2011-03-15 International Business Machines Corporation Method and apparatus for identifying unexpected behavior of a customer in a retail environment using detected location data, temperature, humidity, lighting conditions, music, and odors
JP5047361B2 (ja) 2008-08-28 2012-10-10 有限会社 ラムロック映像技術研究所 監視システム
US9030555B2 (en) 2009-11-25 2015-05-12 Lg Electronics Inc. Surveillance system
US8438175B2 (en) * 2010-03-17 2013-05-07 Lighthaus Logic Inc. Systems, methods and articles for video analysis reporting
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
CN104105981B (zh) * 2011-10-19 2016-04-20 B·苏博拉曼亚 定向速度和距离传感器
WO2014063020A1 (en) 2012-10-18 2014-04-24 Chornenky T Eric Apparatus and method for determining spatial information about environment
US9638800B1 (en) * 2016-11-22 2017-05-02 4Sense, Inc. Passive tracking system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289581A (ja) * 2003-03-24 2004-10-14 Minolta Co Ltd 監視システム
JP2005129003A (ja) * 2003-06-09 2005-05-19 Hitachi Kokusai Electric Inc 変化検出装置
WO2005107240A1 (ja) * 2004-04-28 2005-11-10 Chuo Electronics Co., Ltd. 自動撮影方法および装置
JP2007274655A (ja) * 2006-03-31 2007-10-18 Saxa Inc 監視映像処理装置及び方法
JP2008250898A (ja) 2007-03-30 2008-10-16 Victor Co Of Japan Ltd 監視制御装置
WO2008139529A1 (ja) * 2007-04-27 2008-11-20 Honda Motor Co., Ltd. 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
JP2008241707A (ja) * 2008-03-17 2008-10-09 Hitachi Kokusai Electric Inc 自動監視システム
JP2012243161A (ja) * 2011-05-20 2012-12-10 Canon Inc 画像処理装置、画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2953349A4

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105120191A (zh) * 2015-07-31 2015-12-02 小米科技有限责任公司 视频录制方法和装置
KR101743194B1 (ko) * 2015-07-31 2017-06-02 시아오미 아이엔씨. 동영상 촬영 방법, 그 장치, 프로그램 및 기록매체
JP2019220895A (ja) * 2018-06-21 2019-12-26 日本電気株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP2019220024A (ja) * 2018-06-21 2019-12-26 キヤノン株式会社 画像処理装置およびその制御方法
CN113507595A (zh) * 2018-06-21 2021-10-15 佳能株式会社 图像处理装置、图像处理方法和介质
JP7115058B2 (ja) 2018-06-21 2022-08-09 日本電気株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP7216487B2 (ja) 2018-06-21 2023-02-01 キヤノン株式会社 画像処理装置およびその制御方法
JP2021054597A (ja) * 2019-09-30 2021-04-08 新明和工業株式会社 塵芥収集車及びメンテナンス装置
JP7311377B2 (ja) 2019-09-30 2023-07-19 新明和工業株式会社 塵芥収集車のメンテナンス装置

Also Published As

Publication number Publication date
KR101767497B1 (ko) 2017-08-11
US9905009B2 (en) 2018-02-27
EP2953349B1 (en) 2023-07-19
JPWO2014118872A1 (ja) 2017-01-26
MY168266A (en) 2018-10-16
US20150324990A1 (en) 2015-11-12
CN104969542A (zh) 2015-10-07
EP2953349A4 (en) 2017-03-08
CA2897910C (en) 2018-07-17
CN104969542B (zh) 2019-05-31
JP5870470B2 (ja) 2016-03-01
EP2953349A1 (en) 2015-12-09
US20180130211A1 (en) 2018-05-10
HK1213116A1 (zh) 2016-06-24
CA2897910A1 (en) 2014-08-07
US10134140B2 (en) 2018-11-20
KR20150104182A (ko) 2015-09-14

Similar Documents

Publication Publication Date Title
JP5870470B2 (ja) 監視システム
KR101575011B1 (ko) 영상을 이용한 적외선감지기와 그 동작방법 및 이를 이용한 보안시설물 통합관리시스템
JP7249260B2 (ja) 緊急事態通知システム
KR102513372B1 (ko) 음향과 영상을 연계한 하이브리드형 객체 연속 추적시스템 및 제어방법
CN107302649A (zh) 用于建筑物的外部区域的摄像机装置
CN113076791B (zh) 用于监视摄像机的接近对象检测
WO2022144876A1 (en) A device for monitoring an environment
US9507050B2 (en) Entity detection system and method for monitoring an area
JP2012048382A (ja) 複合型センサ
EP3301656A2 (en) System and method for an alarm system
JP2008020981A (ja) 監視システム
JP2005038115A (ja) 侵入者監視方法及び装置
HK1213116B (zh) 监视系统
US10311688B1 (en) System for alerting and guiding rescue personnel to a building
US20250278991A1 (en) Device to Provide Lighting and Noise Disturbances in an Active Shooter Environment
US20250232652A1 (en) Security system and method for estimation of intrusion by an object in a space
TWI706382B (zh) 智慧型燈具以及工地管理系統
JP2001266114A (ja) 画像センサ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13873274

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2897910

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 14762830

Country of ref document: US

Ref document number: P945/2015

Country of ref document: AE

ENP Entry into the national phase

Ref document number: 2014559371

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013873274

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20157021294

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: IDP00201505221

Country of ref document: ID