WO2012128066A1 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2012128066A1
WO2012128066A1 PCT/JP2012/056080 JP2012056080W WO2012128066A1 WO 2012128066 A1 WO2012128066 A1 WO 2012128066A1 JP 2012056080 W JP2012056080 W JP 2012056080W WO 2012128066 A1 WO2012128066 A1 WO 2012128066A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
segment
moving image
loop moving
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2012/056080
Other languages
English (en)
French (fr)
Inventor
英史 山田
大木 光晴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to BR112012028780A priority Critical patent/BR112012028780A2/pt
Priority to RU2012147781/08A priority patent/RU2012147781A/ru
Priority to CA2798579A priority patent/CA2798579A1/en
Priority to US13/696,711 priority patent/US9390535B2/en
Priority to EP12760064.1A priority patent/EP2557773B1/en
Priority to CN201280001329.9A priority patent/CN102893595B/zh
Publication of WO2012128066A1 publication Critical patent/WO2012128066A1/ja
Anticipated expiration legal-status Critical
Priority to US15/168,445 priority patent/US10277812B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/80Two-dimensional [2D] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory

Definitions

  • the present technology relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can obtain a high-quality loop moving image more easily.
  • a loop moving image is an image in which a predetermined section of a moving image or a plurality of still images are repeatedly reproduced.
  • a loop moving image is generated, even if the start end frame and the end end frame of a predetermined section of the moving image are not temporally continuous, the joint due to the image difference between frames is not visually noticeable.
  • a predetermined section of the moving image is processed.
  • Loop moving images are useful in many application programs such as CG (Computer Graphics) texture materials and background moving images.
  • Such a loop moving image is basically generated as follows. That is, first, two frames having a high degree of similarity that are separated from each other are selected from the input moving image including a plurality of frames, and a section having these frames as a start end and an end end is extracted to obtain a loop moving image and Is done.
  • the end end and the start end of the section extracted from the moving image are played back continuously. Therefore, the more similar the images at the start and end frames of a moving image section that is a loop moving image, the more smoothly the images of those frames can be connected when the loop moving image is played back. Become. For example, in order to make the connection between the start end and end end of a moving image section that is a loop moving image smoother, the images of frames near the start end and end end of the moving image are blended together. Thus, a cross-fade process for making a frame image of the loop moving image is also performed.
  • the start end and the end end of the loop moving image may not be connected well, and the processing result may be greatly broken.
  • the processing result may be greatly broken.
  • there are a plurality of moving subjects in a video image and there is a case where there is no timing (frame) at which these subjects are well connected simultaneously, or two similar frames are not in the video image in the first place. .
  • a loop moving image is generated using such inappropriate video images as a material
  • the frame images at the start and end of the loop moving image may break down, or the start and end ends may not be smoothly connected during playback. Or In such a case, the user must re-shoot the video image as the material or manually change the parameters used for generating the loop moving image so as to obtain the desired loop moving image. I had to.
  • This technology has been made in view of such a situation, and makes it possible to obtain a high-quality loop moving image more easily.
  • An image processing device includes a segment calculator that divides the captured image into several segments based on a plurality of captured images captured at different times, and a plurality of the captured images.
  • a motion segment image which is the segment including a moving subject, is cut out from several consecutive captured images, and an image that can be reproduced as a loop moving image is generated based on the motion segment image.
  • a loop moving image generation unit .
  • the loop moving image can be a moving image in which images between two images having a high degree of similarity among the images of the plurality of continuous motion segments are repeatedly displayed in order.
  • the image processing apparatus cuts out an image of a stationary segment that is the segment including a subject that does not move from some of the captured images of the plurality of captured images, and based on the image of the stationary segment
  • a segment image generation unit that generates a segment image that is one still image can be further provided.
  • the image processing apparatus may further include a segment combination processing unit that combines an image that can be reproduced as the loop moving image and the segment image to generate one loop moving image.
  • the segment image generation unit can generate the segment image by superimposing several still segment images.
  • the loop moving image generation unit When there are two images having a high similarity among the images of the plurality of continuous motion segments, the loop moving image generation unit includes the plurality of continuous motion segments including the two images having a high similarity. Based on these images, an image reproducible as the loop moving image can be generated.
  • the loop moving image generation unit is a segment that is one still image based on one image of the motion segment An image can be generated.
  • the image processing apparatus cuts out an image of a region corresponding to a still segment that is the segment including a subject that does not move from a high-resolution image having a higher resolution than the captured image, and images of the region corresponding to the still segment
  • a segment image generation unit that generates a segment image that is one still image based on the loop moving image generation unit, based on the captured image converted to the same resolution as the high-resolution image, A reproducible image can be generated as the loop moving image.
  • the image processing apparatus further includes an operation unit for switching a shooting mode.
  • an operation unit for switching a shooting mode.
  • a predetermined mode is selected as the shooting mode by an operation on the operation unit, the shot image and the high-resolution image are shot. Can be.
  • the image processing apparatus Before photographing the high-resolution image, the plurality of photographed images are photographed, and the image processing apparatus has two images having high similarity among the motion segment images in the plurality of photographed images. It is possible to further provide a notification unit that determines whether or not there is an output and outputs the determination result.
  • the high-resolution image is captured, and an image that can be reproduced as the loop moving image and the segment image can be generated.
  • the image processing method or program divides the photographed image into several segments based on a plurality of photographed images photographed at different times, and includes the plurality of the photographed images.
  • the photographed image is divided into several segments based on a plurality of photographed images photographed at different times, and several consecutive images among the plurality of photographed images.
  • An image of a motion segment that is the segment including a moving subject is cut out from the captured image, and an image that can be reproduced as a loop moving image is generated based on the image of the motion segment.
  • the image processing device determines whether there are two captured images having high similarity among a plurality of captured images captured at different times, and outputs the determination result.
  • a loop moving image that generates a reproducible image as a loop moving image based on a plurality of consecutive photographed images including two of the photographed images having a high degree of similarity among the plurality of photographed images.
  • a generator that generates a reproducible image as a loop moving image based on a plurality of consecutive photographed images including two of the photographed images having a high degree of similarity among the plurality of photographed images.
  • the image processing method determines whether there are two captured images with high similarity among a plurality of captured images captured at different times, and outputs the determination result. And generating a reproducible image as a loop moving image based on a plurality of consecutive photographed images including two photographed images having a high degree of similarity among the plurality of photographed images.
  • the second aspect of the present technology it is determined whether or not there are two photographed images having a high degree of similarity among a plurality of photographed images photographed at different times, and a result of the determination is output.
  • An image that can be reproduced as a loop moving image is generated based on a plurality of consecutive captured images including the two captured images having high similarity among the captured images.
  • a high-quality loop moving image can be obtained more easily.
  • a pair of frames having the highest similarity at a position distant in time is detected from the moving image MP11 as a material.
  • the frame i and the frame j that is temporally later than the frame i are detected as the frame pair having the highest similarity.
  • the image of the frame near the start end of the section cut out from the moving image MP11 and the image of the frame near the end end are processed into a loop moving image LM11.
  • the image of the frame i at the start end of the section cut out from the moving image MP11 and the image of the frame j at the end end are blended, and the resulting image becomes the frame at the start end of the loop moving image LM11.
  • the image is i ′. That is, the pixels at the same position in the image of frame i and the image of frame j are weighted and added with a predetermined weight to obtain the pixel of the image of frame i ′ at the same position as those pixels.
  • the frame (i + 1) immediately after the frame i and the frame (j + 1) immediately after the frame j are blended with a predetermined weight, so that the frame (i + 1) ′ immediately after the frame i ′ Is done. Further, the frame (i + 2) immediately after the frame (i + 1) and the frame (j + 2) immediately after the frame (j + 1) are blended with a predetermined weight, and the frame (i + 1) ′ immediately after the frame (i + 1) ′ is blended. Frame (i + 2) ′.
  • the frame (j ⁇ 1) immediately before the frame j and the frame (i ⁇ 1) immediately before the frame i are blended with a predetermined weight, so that the frame at the end of the loop moving image LM11 is obtained.
  • the frame (j-2) immediately before the frame (j-1) and the frame (i-2) immediately before the frame (i-1) are blended with a predetermined weight, and the frame ( j-1) ′ is the previous frame (j-2) ′.
  • the weight multiplied by the image of the frame on the start end side increases as the frame is located after the start end. That is, the contribution ratio of the image of the frame on the start end side to the image obtained by blending is increased.
  • the weight that is multiplied by the image of the frame on the end edge side increases as the frame comes before the end edge.
  • the frame (i + 1) ′, the frame (i + 2) ′,... are sequentially reproduced from the start frame i ′. Then, when the last frame (j ⁇ 1) ′ is reproduced, the frame i ′ is returned again, and each frame is reproduced repeatedly.
  • the blending process using the frame near the start end and the frame near the end end is performed on the start end and the end end of the section cut out from the moving image MP11, respectively, so that the start end of the loop moving image LM11
  • the end frame can be connected smoothly. That is, it is possible to prevent the difference between the images of the frame i and the frame (j ⁇ 1) at positions separated from each other in the moving image MP11 visually.
  • the images of those frames are directly looped moving images.
  • An image of a frame constituting the LM 11 is used.
  • the sum of absolute differences of each pixel of the image is used as the similarity between the images. That is, for each pixel at the same position in two images, the absolute value of the difference between the luminance values of these pixels is obtained, and the sum of the absolute values of the differences between the pixels is the sum of absolute differences (SAD (Sum of Absolute Difference )).
  • the difference absolute value sum is smaller. Therefore, if the pair of frames having the smallest difference absolute value sum is the start end and end end of the loop moving image, the start end of the loop moving image There should be less visual difference at the end.
  • the movement of the subject in the time direction on these images is not considered.
  • the pendulum of the watch swings to the left or right on the image, it is possible to specify whether the pendulum has swung from the left side or the right side, even if focusing on a specific frame. Can not.
  • FIG. 2 parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • a rectangle in the moving image MP11 represents one frame, and characters in the rectangle are characters specifying the frame.
  • the weight G11 is a normal distribution weight that becomes larger as the weight multiplied by the sum of absolute differences calculated using a frame close to the frame i.
  • the integrated SAD value obtained in this way becomes smaller as the positions and movements of the subjects are similar when sections made up of a plurality of consecutive frames are compared. That is, the integrated SAD value decreases as the degree of similarity between sections increases. Therefore, in the moving image MP11, the pair of frames with the smallest integrated SAD value can be said to be the most suitable pair of frames as the start end and end end of the loop moving image.
  • the degree of similarity between sections composed of a plurality of consecutive frames can be evaluated.
  • the smaller the integrated SAD value the higher the degree of similarity.
  • an integrated tap length Lsad a parameter that uses a frame length as a unit of how many consecutive frames are compared to determine an integrated SAD value of these sections. You may be made to do. In such a case, for example, when the integrated tap length Lsad is designated by the user, the integrated SAD value is calculated for the number of consecutive frame sections indicated by the integrated tap length Lsad.
  • the user designates a parameter indicating the minimum distance between frames to be compared (hereinafter also referred to as the shortest cycle length Lmin). Then, in the moving image MP11, an integrated SAD value is obtained for each pair of frames that are separated by a distance indicated by the shortest cycle length Lmin, and a pair of frames having the minimum integrated SAD value is the loop. It is set as a start end and an end end of a section used for a moving image.
  • the shortest cycle length Lmin may be specified as an input parameter for the program, or may be calculated by the program as a ratio to the total length of the moving image MP11 as a material.
  • a position adjustment process that corrects camera movement such as camera shake at the time of shooting is performed on the shot image and a loop moving image is generated using the position adjusted image, a higher quality loop is obtained.
  • a moving image can be obtained.
  • the alignment process is performed on the material image, it is possible to obtain a moving image that does not blur as if the camera was fixed using a tripod.
  • the reference image may be an image of the first frame of a moving image that is a material of the loop moving image, or may be an image of an arbitrary frame.
  • the projective transformation matrix necessary for alignment is such that feature points are extracted for each of the reference image and the processing target image so that the feature points on the processing target image match the feature points on the reference image. It is obtained by calculating a simple transformation matrix.
  • feature points are considered to be reproducible even if the viewpoint changes. That is, the position and feature amount of the feature point are obtained, the correspondence between the feature points is calculated from the information of the position and feature amount, and the positional relationship between the two frames is obtained.
  • the feature points suitable for such alignment include, for example, SIFT (Scale Invariant Feature Transform) feature points.
  • feature points such as SIFT feature points are extracted from the basic image and the processing target image. Then, which feature point on the basic image corresponds to the feature point on the processing target image is obtained from the Euclidean distance between the feature amounts.
  • the RANSAC Random Sample Consensus
  • selects several feature point pairs consisting of feature points on the image to be processed and feature points on the basic image corresponding to the feature points, and forms these pairs.
  • a transformation matrix that best matches the transformation of the positions between feature points is obtained.
  • the transformation matrix obtained in this way is used as a projective transformation matrix used for the alignment process. According to such a RANSAC method, even if an error is included in the position and correspondence of the feature point, the error is removed and a correct transformation matrix can be obtained.
  • a projection transformation matrix is generally used, but an affine transformation matrix or a rigid transformation matrix having different degrees of freedom of deformation may be used. .
  • the area of the pixel is Invalid area. Then, a rectangular area having the maximum area is obtained in an effective area composed of areas where pixels of the reference image overlap all the processing target images except for such an invalid area, and the resulting rectangular area is The crop area.
  • the crop region of each frame image constituting the projective transformed moving image is cut out, and the moving image composed of the cut out image of each frame is a loop moving image. It will be the final moving image that will be the material.
  • crop processing has a drawback that the image after cropping becomes small. Therefore, cropping processing is not performed so that the resolution of the moving image that is the material does not decrease, and the pixel value of each pixel in the region that does not overlap with the image before projective conversion is set to white or black.
  • the pixel values of the colors may be assigned, or the pixel values of the pixels at the same position in the reference image may be assigned.
  • loop video using this technology The technique described above is appropriately used for generating the loop moving image.
  • a loop moving image generated by applying the present technology will be described.
  • an image that is a material of a loop moving image is referred to as a continuous shot image.
  • a continuous shot image group CP11 composed of a plurality of continuous shot images is input as a material of a loop moving image.
  • the continuous shot image group CP11 may be any image as long as it is an image taken continuously in time with the same subject.
  • the continuous-shot image group CP11 may be a moving image with the continuous-shot image as one frame image, or may be a still-image group made up of still images taken at successive times.
  • each continuous shot image includes a plurality of segments including at least one of a segment including a moving subject or a segment including a stationary subject without motion. Divided into segments.
  • each continuous shot image constituting the continuous shot image group CP11 is divided into four segments of segments SG1 to SG4 in the spatial direction.
  • the segment SG1 is a segment including a stationary subject (hereinafter also referred to as a stationary segment), and the segments SG2 to SG4 are segments including a moving subject (hereinafter also referred to as a motion segment). is there.
  • a continuous shot image When a continuous shot image is divided into several segments, a still image (hereinafter referred to as a segment image) or a loop moving image (hereinafter referred to as a segment) in which the segment area on the continuous shot image is displayed for each segment. Loop motion image) is generated. Then, the segment image of each segment and the segment loop moving image are combined to form one final loop moving image.
  • segment SG1 that is a still segment
  • one or a plurality of continuous shot images of a plurality of continuous shot images constituting the continuous shot image group CP11 are selected, and one of the selected continuous shot images is selected.
  • a segment image SGP11 is generated.
  • the images of the area of the segment SG1 in the continuous shot images of the first few frames of the continuous shot image group CP11 are overlapped to form the segment image SGP11.
  • the segment image SGP11 which is a still image
  • the loop moving image ends without performing any special processing on the continuous shot image. The transition from the end to the start end can be smoothed.
  • segment SG3 which is a motion segment
  • the image in the region of the segment SG3 of the continuous shot image is not suitable for generating the loop moving image
  • the image of the region of the segment SG3 in the continuous shot image constituting the continuous shot image group CP11 is 1
  • Two segment images SGP12 are generated.
  • the image of the area of segment SG3 in the continuous shot image of the first frame of the continuous shot group CP11 is directly used as the segment image SGP12.
  • the segment SG3 is a motion segment, but the region of the segment SG3 is not suitable for loop moving image formation, and a high-quality segment loop moving image cannot be obtained. Therefore, for such a segment SG3, as in the case of the still segment, a segment image that is a still image is generated, and this segment image is continuously displayed when the loop moving image is played back. It is possible to prevent the failure of the loop moving image.
  • segment SG4 which is a motion segment
  • the image of the segment SG4 region of the continuous shot image is suitable for generating a loop moving image
  • a loop moving image is generated from these images, and the segment loop moving image SGM12 of the segment SG4. It is said.
  • segment image SGP11 and the segment image SGP12 obtained for each segment of the continuous shot image, the segment loop moving image SGM11 and the segment loop moving image SGM12 are combined to form a final loop moving image.
  • the image LPF 11 of a predetermined frame of the final loop moving image is arranged by combining the segment images of each segment or the images of the corresponding frames of the segment loop moving image at the same positions as those of the segments. Can be obtained.
  • the image of the frame of the segment loop moving image SGM11 corresponding to the frame of the image LPF11 is the image SGF11
  • the image of the frame of the segment loop moving image SGM12 corresponding to the frame of the image LPF11 is the image SGF12.
  • the segment image SGP11, the image SGF11, the segment image SGP12, and the image SGF12 are respectively arranged at the positions of the segment SG1 to the segment SG4 on the image LPF11, and these images are combined into an image LPF11.
  • the continuous shot image is divided into several segments according to the movement of the subject, and the segment image generated for each segment and the segment loop moving image are combined to form a loop moving image. It is possible to easily obtain a high-quality loop moving image according to the content of According to the loop moving image obtained in this way, the portion of the stationary subject is completely stopped with high image quality and presented more like a photograph, and the portion of the moving subject emphasizes the movement, You can make it feel as if part is moving.
  • FIG. 4 is a diagram illustrating a configuration example of an embodiment of an image processing apparatus to which the present technology is applied.
  • the image processing apparatus 11 includes an image memory 21, an alignment unit 22, a segment calculation unit 23, a three-dimensional NR (Noise Reduction) unit 24, a loop moving image calculation unit 25, and a segment combination processing unit 26.
  • the image memory 21 temporarily records the supplied continuous shot images and outputs the recorded continuous shot images as necessary.
  • the image memory 21 temporarily records the loop moving image supplied from the segment combination processing unit 26 and outputs the loop moving image to a display unit or the like at a later stage (not shown).
  • the alignment unit 22 reads the continuous shot image recorded in the image memory 21, performs alignment processing on the read continuous shot image, and supplies the aligned continuous shot image to the image memory 21. Let me record. The continuous shot image thus aligned is temporarily recorded in the image memory 21 and then supplied to the segment calculation unit 23 to the loop moving image calculation unit 25.
  • the segment calculation unit 23 divides the continuous shot image supplied from the image memory 21 into a plurality of segments, and generates a segment map for specifying the position of each segment on the continuous shot image.
  • the segment calculation unit 23 supplies the generated segment map to the three-dimensional NR unit 24 to the segment combination processing unit 26.
  • the three-dimensional NR unit 24 generates a segment image for each still segment on the continuous shot image based on the continuous shot image from the image memory 21 and the segment map from the segment calculation unit 23, and a segment combination processing unit 26. To supply.
  • the loop moving image calculation unit 25 generates a segment image or a segment loop moving image for each motion segment on the continuous shooting image based on the continuous shooting image from the image memory 21 and the segment map from the segment calculation unit 23. And supplied to the segment combination processing unit 26.
  • the segment combination processing unit 26 Based on the segment map from the segment calculation unit 23, the segment combination processing unit 26 combines the segment images of each segment supplied from the three-dimensional NR unit 24 and the loop moving image calculation unit 25 with the segment loop moving image, and Generate a moving image. The segment combination processing unit 26 supplies the generated loop moving image to the image memory 21 for recording.
  • step S11 the image memory 21 receives a plurality of continuous shot images transmitted from the outside and temporarily records them.
  • step S12 the alignment unit 22 reads out the continuous shot image from the image memory 21, performs alignment processing, and supplies the aligned continuous shot image to the image memory 21 for recording.
  • the above-described projective transformation is performed as the alignment process. That is, the alignment unit 22 extracts feature points from each continuous shot image, uses any one of the plurality of continuous shot images as a reference image, and sets other continuous shot images as processing target images, for each processing target image. A projective transformation matrix is obtained by a method or the like. Then, the position alignment unit 22 performs position conversion of the continuous shot images by projective conversion of the processing target images so that the same subject on the continuous shot images overlaps with the obtained projective transformation matrix. At this time, the cropping process is performed on the continuous shot image that has undergone projective conversion as necessary.
  • the continuous shot image thus aligned is recorded in the image memory 21, and then supplied to the segment calculation unit 23 to the loop moving image calculation unit 25.
  • step S13 the segment calculation unit 23 performs segmentation on the continuous shot image supplied from the image memory 21, and divides the continuous shot image into several segments. Then, the segment calculation unit 23 supplies the segment map obtained by the segmentation to the three-dimensional NR unit 24 to the segment combination processing unit 26.
  • the segment calculation unit 23 obtains a variance value of luminance values of pixels at the same position in a plurality of continuous shot images. Then, the segment calculation unit 23 compares the obtained dispersion value with a predetermined threshold value ⁇ , and when the dispersion value is equal to or greater than the threshold value ⁇ , the pixel for which the dispersion value is obtained is determined as a moving pixel. That is, it is set as a motion pixel on which a moving subject is displayed. Conversely, when the variance value is less than the threshold value ⁇ , the segment calculation unit 23 sets the pixel for which the variance value is obtained as a still pixel without motion.
  • the segment calculation unit 23 sets an arbitrary scalar value as a threshold value ⁇ , and among pixels on the continuous shot image, a pixel whose luminance value variance value is less than the threshold value ⁇ is a still pixel, and the variance value is equal to or greater than the threshold value ⁇ .
  • a pixel that is is a motion pixel.
  • the segment calculation unit 23 When the segment calculation unit 23 specifies whether each pixel on the continuous shot image is a moving pixel or a still pixel, the segment calculation unit 23 generates a bitmap image indicating an area of a moving subject based on the specification result.
  • the pixel value of the pixel of the bitmap image is “1” when the pixel of the continuous image at the same position as the pixel is a motion pixel, and the pixel of the continuous image at the same position as the pixel. Is set to "0" when is a still pixel.
  • an area composed of pixels with a pixel value “1”, that is, an area where the pixel values of adjacent pixels are “1” is an area of a continuous image at the same position as that area. Indicates an area where a moving subject is displayed.
  • an area composed of pixels having a pixel value “1” is also referred to as a motion area
  • an area composed of pixels having a pixel value “0” is also referred to as a still area.
  • the segment calculation unit 23 performs a filtering process using an isolated point removal filter such as a morphological filter on the bitmap image, with a motion area or a still area having a small area on the bitmap image as an isolated point, The pixels on the bitmap image are connected. That is, isolated points are removed from the bitmap image.
  • an isolated point removal filter such as a morphological filter on the bitmap image
  • expansion / contraction processing is performed on the motion region or the still region of the bitmap image.
  • the motion region on the bitmap image is expanded outward by one pixel, or narrowed inward by one pixel.
  • minute holes and protrusions in the figure such as the moving area and the stationary area are removed, and stable segmentation becomes possible. It should be noted that it is possible to arbitrarily determine in what order the number of pixels of the expansion / contraction process is performed on the moving region or the stationary region.
  • the segment calculation unit 23 sets a motion region having a pixel value “1” on the bitmap image as a motion segment and a still region having a pixel value “0” as a still segment. To do. Therefore, the pixels constituting one segment are pixels having the same pixel value arranged continuously in the spatial direction.
  • the segment calculation unit 23 assigns a label (ID) that identifies a segment to each segment on the bitmap image, and sets the bitmap image in which a label is assigned to each segment as a segment map. Thereby, for example, a label is given to each of the segments SG1 to SG4 in FIG.
  • segment calculation unit 23 does not perform segmentation, but an interactive tool may be used to manually specify a continuous-shot image segment by the user. Further, a segment map generated by another program may be supplied.
  • the segment map is supplied to the three-dimensional NR unit 24 to the segment combination processing unit 26, and the process proceeds from step S13 to step S14.
  • step S14 the three-dimensional NR unit 24 performs a three-dimensional NR process on each stationary segment on the continuous shot image based on the continuous shot image from the image memory 21 and the segment map from the segment calculation unit 23, Generate segment images.
  • the three-dimensional NR unit 24 specifies the region of each stationary segment on the continuous shot image from the segment map. Then, the three-dimensional NR unit 24 generates an average image of the images of the still segment regions of several continuous shot images, and sets the obtained average image as a segment image. That is, the average value of the pixel values of the pixels at the same position in the still segments of several continuous shot images is set as the pixel value of the pixel of the segment image at the same position as the pixel.
  • the three-dimensional NR unit 24 supplies the generated segment image of each still segment to the segment combination processing unit 26.
  • a predetermined number of consecutive frames having a small luminance change in the entire still segment may be selected, and a segment image may be generated from the continuous shot images of the selected frames. Further, a segment image may be generated using continuous shot images of all frames.
  • a segment image is generated by three-dimensional NR processing without converting the segment area into a loop moving image, and the same segment image is continuously displayed during playback of the loop moving image.
  • a high quality loop moving image can be presented. This makes it possible to reduce noise in the area of the still segment during playback of the loop moving image, to completely stop the movement of the subject, and to produce an effect that makes a portion of the still image appear to move. Can be emphasized.
  • step S15 the loop moving image calculation unit 25 calculates an integrated SAD value for each motion segment based on the segment map from the segment calculation unit 23 and the continuous shot image from the image memory 21.
  • the loop moving image calculation unit 25 selects any two frames that are separated by the number of frames indicated by the shortest cycle length Lmin from among the frames of the plurality of continuous shot images as the frames to be processed. Then, the loop moving image calculation unit 25 performs the calculation described with reference to FIG. 2 for the number of consecutive frame intervals indicated by the integrated tap length Lsad, centered on the selected processing target frame. An integrated SAD value is obtained. At the time of calculating the integrated SAD value, only the pixels in the segment area to be processed on the continuous shot image are used to calculate the sum of absolute differences.
  • the loop moving image calculation unit 25 calculates an integrated SAD value for each pair of frames while changing a pair of frames to be processed, and sets a pair of frames having the minimum calculated integrated SAD value as a segment loop video.
  • the frame is a candidate for the start and end frames of the image.
  • the loop moving image calculation unit 25 selects a motion segment having the minimum integrated SAD value from among the motion segments. Then, the loop moving image calculation unit 25 calculates the total number of frames between the pair of frames to be processed at the time of calculating the integrated SAD value of the selected motion segment (hereinafter, (Referred to as a repetition period). That is, the number of frames set as the repetition period is the number of all frames constituting the loop moving image.
  • the pair of frames for the selected motion segment is set as the start end and end end in the segment loop video of the motion segment.
  • the loop moving image calculation unit 25 calculates again the integrated SAD value for other motion segments other than the selected motion segment. That is, for each motion segment, a pair of frames that have a minimum integrated SAD value and are separated by the length of the repetition period is detected, and the detected pair of frames is detected at the start end and end end of the segment loop moving image. A frame.
  • the pair of frames separated by the same number of frames is set as the start end and end end of the segment loop video, so that the entire period of each segment loop video is the same length. be able to.
  • the start end and end end of the segment loop video can be set to different frames (timing) for each motion segment, the visual change is most significant at the transition from the end end to the start end for each motion segment. Small frames can be the start and end edges. As a result, a higher quality segment loop moving image can be obtained.
  • a device for reproducing a loop moving image needs a function of presenting a segment image while combining a plurality of segment loop moving images having different periods.
  • the playback speed is adjusted to match the period of each segment loop moving image.
  • the loop moving image may be output.
  • the longest period among the periods for each segment is set as the entire reference period, and the playback speed is adjusted for the segment loop moving image having a shorter period so as to match the reference period. That's fine.
  • the playback speed may be adjusted by simply displaying several frame images of segment loop moving images with a short cycle continuously several times.
  • a frame image at a time position to be newly added may be generated using two frame images existing before and after the time position so that the movement can be smoothly connected.
  • At least the following three cases can be considered as loop moving images. That is, when generating a loop moving image so that all the segment loop moving images have the same period, when generating a loop moving image having a different period of several segment loop moving images, and It can be considered that a loop moving image having one cycle as a whole is generated from different segment loop moving images by adjusting the reproduction speed.
  • step S15 When the integrated SAD value of each motion segment and the frame pair serving as the start end and end end of the segment loop moving image are obtained, the process proceeds from step S15 to step S16.
  • step S16 the loop moving image calculation unit 25 selects one motion segment as a motion segment to be processed from one or a plurality of motion segments based on the segment map.
  • step S17 the loop moving image calculating unit 25 determines whether or not the motion segment to be processed can be converted into a loop moving image. For example, when the integrated SAD value of the motion segment to be processed is equal to or less than a predetermined threshold, it is determined that loop moving image formation is possible.
  • step S18 the loop moving image calculating unit 25 generates a segment loop moving image of the motion segment to be processed based on the continuous shot image. .
  • the loop moving image calculation unit 25 determines, from a continuous shot image of each frame in a section, where two frames that are processed at the time of calculating the integrated SAD value of the motion segment are respectively set as a start end and an end end. Cut out the image of the motion segment area. Then, the loop moving image calculation unit 25 generates a segment loop moving image by performing the above-described cross fade process on the cut out image, and supplies the segment loop moving image to the segment combination processing unit 26.
  • segment loop moving image is generated by performing the cross-fading process in this way, it is possible to reduce the manifestation of the seam at the transition from the end to the start end of the segment loop moving image.
  • the subject of a plurality of continuous shot images is mixed in a semi-transparent portion at different portions of the picture of the continuous shot image (motion segment image), so that the joint may be conspicuous.
  • a segment loop moving image may be generated by a graph cut method in which an optimum transition timing is required for each pixel.
  • the graph cut method uses an image pixel of any of the two images for the overlapping part of the two images that are overlapped. Whether visual discontinuity due to splicing is reduced is required. That is, the optimal seam is calculated in consideration of the continuity of pixel values in each image and the continuity of pixel values between two images, and the two images are connected at the seam.
  • a seam that joins a plurality of images is not a line but a surface. That is, in consideration of the continuity of pixel values in each image and the continuity of pixel values between a plurality of images, one of the pixels at the same position in each image serves as a joint of the images. The upper pixel.
  • a segment loop moving image is generated by the graph cut method for a section composed of continuous frame motion segment images, it is based on the image of the frame near the start end and the image of the frame near the end end of the section. Then, the image is blended. That is, a section composed of several frames near the start end of the section to be processed and several frames near the end end of the section is called a blend section.
  • a three-dimensional joint surface is obtained, and based on the surface, the motion segment image is blended, and a new motion segment image is obtained. Generated. Then, the new motion segment image generated in this way is used as the motion segment image of the frame at the start end or end end of the section to be processed.
  • a random dissolve or the like may be used in addition to a crossfade or a graph cut method.
  • step S18 When the process of step S18 is performed and a segment loop moving image is generated, the process thereafter proceeds to step S20.
  • step S17 If it is determined in step S17 that the motion segment to be processed is not loop-movable, the loop motion image calculation unit 25 determines in step S19 the motion segment to be processed based on the continuous shot image. Generate segment images.
  • the loop moving image calculation unit 25 cuts out an image of a motion segment area to be processed in a continuous shot image of a predetermined frame, and uses the cut out image as a segment image as it is.
  • the frame of the continuous shot image from which the segment image is cut out may be any frame such as the first frame of the continuous shot image or a frame at an intermediate position.
  • the loop moving image calculation unit 25 supplies the generated segment image to the segment combination processing unit 26, and the process proceeds to step S20.
  • step S20 the loop moving image calculation unit 25 determines whether or not all the motion segments have been processed. .
  • step S20 If it is determined in step S20 that all motion segments have not yet been processed, the process returns to step S16 and the above-described processing is repeated.
  • step S20 determines whether all the motion segments have been processed. If it is determined in step S20 that all the motion segments have been processed, the process proceeds to step S21.
  • step S21 the segment combination processing unit 26 performs a segment combination process based on the segment map supplied from the segment calculation unit 23, and generates a loop moving image. That is, the segment combination processing unit 26 combines the segment image and the segment loop moving image supplied from the three-dimensional NR unit 24 and the loop moving image calculation unit 25 to generate one loop moving image.
  • the segment image of each segment and the image of the corresponding frame of the segment loop moving image are duplicated, arranged at the same position as those segments, combined,
  • the image is one frame of the image.
  • the segment combination processing unit 26 When the segment combination processing unit 26 generates the loop moving image, the segment combining processing unit 26 supplies the generated loop moving image to the image memory 21 to record it, and the loop moving image generating process ends.
  • the loop moving image recorded in the image memory 21 in this way is then supplied to a display unit (not shown) or the like.
  • the loop moving image is generated and output.
  • the images of the segments may be individually recorded in the image memory 21 and output without being combined.
  • the segment combination processing unit 26 records the segment images and segment loop moving images of the segments in the image memory 21 as they are without combining them.
  • the period of the segment loop moving image of each segment is not necessarily the same. If the period of each segment loop moving image is different, the recalculation of the integrated SAD value is performed in step S15 as described above. Not done.
  • each segment loop moving image when the segment image of each segment and the segment loop moving image are recorded in the image memory 21 in association with each other, for example, in the latter device, the loop image is combined with the segment image while the segment image and the segment loop moving image are combined. Played back as a moving image.
  • each segment loop moving image may be individually reproduced as one moving image.
  • a segment loop moving image of a motion segment is generated.
  • any motion segment image for reproducing a loop moving image can be used as long as it can be reproduced as a loop moving image.
  • Various types of images may be used. For example, an image of a motion segment area on a continuous image of a plurality of consecutive frames is cut out, and an image group including the images of the motion segment is output as a motion segment image for reproducing a loop moving image. Also good. In this case, if each image constituting the image group of the motion segment is repeatedly displayed in order, the image group can be reproduced as one loop moving image.
  • the image processing apparatus 11 divides the continuous shot image into several segments, and generates a segment image or a segment loop moving image for each segment. Then, the image processing apparatus 11 combines these segment images and segment loop moving images to generate one loop moving image.
  • each segment has a high quality suitable for that segment.
  • a simple image can be generated. Thereby, a high-quality loop moving image can be obtained more easily.
  • the loop video that is finally obtained as a result The image quality can be improved.
  • an optimal transition timing of the segment loop moving image can be set for each segment, or a different repetition period can be given to each segment loop moving image.
  • the processing not only can the processing be thinned out for the still segment, but also a high-quality segment image can be obtained by the three-dimensional NR processing.
  • the image processing apparatus 11 is configured as shown in FIG. 6, for example.
  • parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the image processing apparatus 11 in FIG. 6 is different from the image processing apparatus 11 in FIG. 4 in that a display control unit 51 and a display unit 52 are further provided in the configuration of the image processing apparatus 11 in FIG. It is the same.
  • the display control unit 51 reads out the loop moving image from the image memory 21 and supplies it to the display unit 52 to display the loop moving image.
  • the display unit 52 displays the loop moving image supplied from the display control unit 51 according to the control of the display control unit 51.
  • a preview image obtained when the user holds the camera toward the subject is a continuous shot image
  • an image captured by pressing the shutter is a high-resolution still image.
  • an error notification to that effect is displayed.
  • a high-quality loop moving image can be generated from the continuous shot image
  • a high-resolution still image is captured and a loop moving image is generated.
  • a loop moving image not only can a loop moving image be captured with a single shutter operation, but also a user can be notified at the preview stage whether a loop moving image can be generated.
  • the photographing apparatus is configured as shown in FIG. 7, for example.
  • the imaging device 81 may be a camera, for example, and captures still images and moving images in accordance with user operations.
  • a CPU Central Processing Unit
  • a memory 92 for example, a graphics processing unit
  • an image sensor 93 for example, a graphics processing unit
  • a display controller 94 for example, a graphics processing unit
  • an input interface 95 for example, a keyboard, a microphone, or a graphics processing unit
  • a DSP Digital Signal Processing
  • the CPU 91 controls the operation of the entire photographing apparatus 81 in accordance with a user operation. For example, when the mode dial 99 is operated and the photographing mode is designated, a signal corresponding to the operation on the mode dial 99 is supplied from the mode dial 99 to the CPU 91 via the input interface 95. Then, the CPU 91 controls the shooting process in the shooting mode corresponding to the signal from the mode dial 99.
  • a normal shooting mode for shooting a high-resolution still image and a loop moving image shooting mode for shooting a loop moving image can be selected as the shooting mode.
  • the CPU 91 causes the image sensor 93 to capture an image in accordance with a signal supplied from the shutter 100 via the input interface 95.
  • the image sensor 93 is made up of, for example, a CCD (Charge-Coupled Device) and receives light incident from a subject via the lens 101 and photoelectrically converts it to capture an image.
  • An image photographed by the image sensor 93 is supplied to the memory 92 and temporarily held, and then subjected to image processing by the DSP 97 as necessary, and is supplied to the recording unit 102 via the external device interface 96. Or supplied to the display unit 103 via the display controller 94.
  • CCD Charge-Coupled Device
  • the recording unit 102 records data such as an image supplied from the external device interface 96.
  • the display unit 103 displays the image supplied from the display controller 94.
  • FIG. 8 is a diagram illustrating a functional configuration example of the image processing unit.
  • parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and description thereof is omitted as appropriate.
  • the image processing unit 131 includes an image memory 21, a positioning unit 22, a segment calculation unit 23, a loop moving image calculation unit 25, a segment combination processing unit 26, and an error notification unit 141.
  • a low-resolution continuous shot image shot as a preview image by the shooting device 81 and a high-resolution high-resolution still image shot by the shooting device 81 are recorded.
  • the image memory 21 also records a loop moving image generated by the segment combination processing unit 26.
  • the segment combination processing unit 26 uses the segment loop moving image and segment image from the loop moving image calculation unit 25 and the high-resolution still image from the image memory 21 to generate a loop moving image. Generate an image.
  • the error notification unit 141 determines whether the continuous shot image can be converted into a loop moving image based on the integrated SAD value of each motion segment of the continuous shot image supplied from the loop moving image calculation unit 25, and the determination Output the result.
  • photographing processing performed by the photographing device 81 will be described.
  • the photographing device 81 starts photographing processing and photographs an image according to the user's operation.
  • imaging processing by the imaging device 81 will be described.
  • step S51 the CPU 91 determines whether or not the normal shooting mode is selected based on the signal supplied from the mode dial 99.
  • step S52 the shooting device 81 takes a high-resolution still image in accordance with the operation of the shutter 100 by the user, and the shooting process ends.
  • the image sensor 93 photoelectrically converts the light incident from the lens 101 to capture a high-resolution still image, and records it in the memory 92.
  • the high-resolution still image recorded in the memory 92 is processed by the DSP 97 as necessary, supplied to the recording unit 102, and recorded.
  • step S51 determines whether the normal shooting mode is not selected, that is, if the loop moving image shooting mode is selected. If it is determined in step S51 that the normal shooting mode is not selected, that is, if the loop moving image shooting mode is selected, the process proceeds to step S53.
  • step S53 the imaging device 81 performs a loop moving image generation process, and the imaging process ends. Note that.
  • the loop moving image generation process shooting of a loop moving image is performed.
  • step S81 the photographing device 81 starts preview photographing. That is, the image sensor 93 photoelectrically converts light incident from the lens 101 in accordance with an instruction from the CPU 91, and supplies a continuous shot image obtained as a result to the display unit 103 and the image memory 21. The image sensor 93 captures continuous shot images of each frame at a predetermined time interval.
  • the image memory 21 temporarily records the continuous shot image supplied from the image sensor 93. Further, the display unit 103 displays a continuous shot image supplied from the image sensor 93 via the display controller 94. As a result, the user can determine the angle of view and composition of the loop moving image to be taken while viewing the continuous shot image as the preview image displayed on the display unit 103.
  • step S82 the alignment unit 22 reads the continuous shot image from the image memory 21, performs alignment processing, and supplies the aligned continuous shot image to the image memory 21 for recording.
  • step S82 processing similar to that in step S12 in FIG. 5 is performed.
  • a projection transformation matrix is obtained by the RANSAC method or the like, and a continuous shot image that is a processing target image is subjected to projective transformation by the obtained projection transformation matrix, and alignment of the continuous shot images is performed.
  • the continuous shot image thus aligned is recorded in the image memory 21 and then supplied to the segment calculation unit 23 and the loop moving image calculation unit 25.
  • step S83 the segment calculation unit 23 performs segmentation on the continuous shot image supplied from the image memory 21, and divides the continuous shot image into several segments. Then, the segment calculation unit 23 supplies the segment map obtained by the segmentation to the loop moving image calculation unit 25.
  • step S84 the loop moving image calculation unit 25 calculates an integrated SAD value for each motion segment based on the continuous shot image from the image memory 21 and the segment map from the segment calculation unit 23.
  • the loop moving image calculation unit 25 sets two arbitrary frames separated by the number of frames indicated by the shortest cycle length Lmin among the frames of the plurality of continuous shot images as the frames to be processed. Then, the loop moving image calculation unit 25 obtains an integrated SAD value for the number of consecutive frame sections indicated by the integrated tap length Lsad, centered on the processing target frame. At the time of calculating the integrated SAD value, only the pixels in the region of the motion segment to be processed on the continuous shot image are used to calculate the sum of absolute differences.
  • the loop moving image calculation unit 25 calculates the integrated SAD value for each pair of frames while changing the pair of frames to be processed, and calculates the minimum value of the calculated integrated SAD value as the motion to be processed.
  • the integrated SAD value of the segment The loop moving image calculation unit 25 supplies the accumulated SAD value of each motion segment thus obtained to the error notification unit 141.
  • step S85 the error notification unit 141 determines whether the continuous shot image can be converted into a loop moving image based on the integrated SAD value of each motion segment supplied from the loop moving image calculating unit 25. For example, the error notification unit 141 determines that loop moving image formation is possible when the smallest integrated SAD value among the integrated SAD values of each motion segment is equal to or less than a predetermined threshold value.
  • the error notification unit 141 performs error notification in step S86. For example, the error notification unit 141 generates information indicating that the continuous shot image cannot be converted into a loop moving image, that is, information indicating that the loop moving image cannot be captured, and supplies the generated information to the display unit 103 for display.
  • the user can know that the subject shot as a continuous shot image is not suitable for shooting a loop moving image. Therefore, the user can respond so that a desired loop moving image can be shot by changing the subject or changing the angle of view.
  • step S86 the process returns from step S86 to step S82, and the above-described process is repeated. That is, it is determined whether or not the continuous shot image can be converted into a loop moving image based on a plurality of frames continuously shot.
  • the error notification to the user may be performed by displaying a text message or a graphic on the display unit 103, or may be performed by voice.
  • step S85 If it is determined in step S85 that the loop moving image can be formed, the image sensor 93 captures a high-resolution still image in step S87. That is, when the shutter 100 is pressed by the user, the CPU 91 instructs the image sensor 93 to shoot a high-resolution still image.
  • the image sensor 93 photoelectrically converts light incident from the lens 101 in accordance with an instruction from the CPU 91, and supplies a high-resolution still image obtained as a result to the image memory 21.
  • the high-resolution still image is a still image having a resolution higher than that of the continuous shot image, that is, having a large number of pixels.
  • the error notification unit 141 causes the display unit 103 to display that the loop moving image can be captured (generated). May be.
  • This display may be a text message, for example, or may be a specific figure or symbol. Also, a sound indicating that the loop moving image can be captured may be output.
  • step S88 the alignment unit 22 reads the high-resolution still image and the continuous shot image from the image memory 21, and performs alignment processing.
  • the alignment unit 22 obtains, from the image memory 21, the continuous shot image before alignment of a plurality of frames, which has been determined to be capable of loop moving image generation in step S85, and the high-resolution still image captured in step S87. read out.
  • the alignment unit 22 upsamples the continuous shot image to the same size (resolution) as the high resolution still image, sets the high resolution still image as the reference image, and sets the continuous shot image after the upsampling as the processing target image. Align the continuous shot images. That is, a projective transformation matrix is obtained by the RANSAC method or the like, and the continuous shot image is projectively transformed by the projective transformation matrix.
  • the continuous shot image thus aligned is recorded in the image memory 21 and then supplied to the segment calculation unit 23 and the loop moving image calculation unit 25.
  • the high-resolution still image recorded in the image memory 21 is supplied to the segment combination processing unit 26.
  • step S89 the segment calculation unit 23 performs segmentation on the continuous shot image supplied from the image memory 21, and divides the continuous shot image into several segments. Then, the segment calculation unit 23 supplies the segment map obtained by the segmentation to the loop moving image calculation unit 25 and the segment combination processing unit 26.
  • step S90 the segment combination processing unit 26 generates a segment image of each still segment based on the segment map from the segment calculation unit 23 and the high resolution still image from the image memory 21.
  • the segment combination processing unit 26 cuts out an image of a still segment area in a high-resolution still image, and uses the cut-out image as a still segment image.
  • step S90 When the process of step S90 is performed, the processes of step S91 to step S96 are performed thereafter, but these processes are the same as the processes of steps S15 to S20 of FIG.
  • steps S91 to S96 a segment image or a segment loop moving image of each motion segment is generated and supplied from the loop moving image calculation unit 25 to the segment combination processing unit 26.
  • step S91 to step S96 a segment image and a segment loop moving image are generated using a continuous shot image converted (upsampled) to the same resolution as the high-resolution still image.
  • step S96 If it is determined in step S96 that all motion segments have been processed, the process proceeds to step S97.
  • step S97 the segment combination processing unit 26 performs a segment combination process based on the segment map supplied from the segment calculation unit 23, and generates a loop moving image. That is, the segment combination processing unit 26 combines the segment image generated by the process of step S90 with the segment image and the segment loop moving image supplied from the loop moving image calculation unit 25 to generate one loop moving image. .
  • the segment image of each segment and the image of the corresponding frame of the segment loop moving image are duplicated, arranged at the same position as those segments, combined,
  • the image is one frame of the image.
  • the segment combination processing unit 26 when generating the loop moving image, supplies the generated loop moving image to the image memory 21 for recording. Then, the loop moving image generation process ends, and then the process returns to step S53 in FIG. 9 and the shooting process also ends.
  • the loop moving image thus recorded in the image memory 21 is then supplied to the recording unit 102 for recording or supplied to the display unit 103 for display. Note that the images of the segments may be individually recorded and output in the image memory 21 without being combined.
  • the photographing apparatus 81 determines whether the continuous shooting image is suitable for the loop moving image, and the continuous shooting image is not suitable for the loop moving image. The user is informed that the loop moving image cannot be formed. Thus, the user can know that the loop moving image cannot be captured at the preview shooting stage, and can immediately start shooting again. Therefore, the user can appropriately capture a loop moving image, and can easily obtain a high-quality loop moving image.
  • the image capturing device 81 since the image capturing device 81 generates a segment image or a segment loop moving image for each segment, even if the continuous shot image includes a plurality of subjects that move in a complicated manner, it is suitable for each segment. High quality images can be generated. Thereby, a higher-quality loop moving image can be obtained.
  • the image processing unit realized by the CPU 91 and the DSP 97 of the photographing apparatus 81 executing the program has a configuration shown in FIG. 11, for example.
  • FIG. 11 parts corresponding to those in FIG. 8 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the image processing unit 171 includes an image memory 21, an alignment unit 22, a loop moving image calculation unit 25, and an error notification unit 141.
  • a continuous shot image shot by the shooting device 81 and a loop moving image generated by the loop moving image calculation unit 25 are recorded.
  • the loop moving image calculation unit 25 generates a loop moving image based on the continuous shot image supplied from the image memory 21.
  • step S121 the photographing device 81 starts photographing. That is, the image sensor 93 photoelectrically converts light incident from the lens 101 in accordance with an instruction from the CPU 91, and supplies a continuous shot image obtained as a result to the display unit 103 and the image memory 21. The image sensor 93 captures continuous shot images of each frame at a predetermined time interval.
  • step S122 the alignment unit 22 reads the continuous shot image from the image memory 21, performs alignment processing, and supplies the aligned continuous shot image to the image memory 21 for recording.
  • step S122 processing similar to that in step S82 in FIG. 10 is performed.
  • the continuously shot images that have been aligned are recorded in the image memory 21 and then supplied to the loop moving image calculation unit 25.
  • step S123 the loop moving image calculation unit 25 calculates an integrated SAD value of continuous shot images based on the continuous shot images from the image memory 21.
  • the loop moving image calculation unit 25 sets any two frames that are separated by the number of frames indicated by the shortest cycle length Lmin among the frames of the plurality of continuous shot images as the frames to be processed. Then, the loop moving image calculation unit 25 obtains an integrated SAD value for the number of consecutive frame sections indicated by the integrated tap length Lsad, centered on the processing target frame. Note that when calculating the integrated SAD value, the sum of absolute differences is calculated using the pixels of the entire continuous shot image.
  • the loop moving image calculation unit 25 calculates the integrated SAD value for each pair of frames while changing the pair of frames to be processed, and uses the calculated integrated SAD value as the integrated SAD value of the continuous shot image. And The loop moving image calculation unit 25 supplies the accumulated SAD value of the continuous shot image thus obtained to the error notification unit 141.
  • step S124 the error notification unit 141 determines whether the continuous shot image can be converted into a loop moving image based on the integrated SAD value of the continuous shot image supplied from the loop moving image calculation unit 25. For example, the error notification unit 141 determines that the loop moving image can be formed when the integrated SAD value of the continuous shot image is equal to or less than a predetermined threshold value.
  • the error notification unit 141 When it is determined in step S124 that loop moving image formation is not possible, the error notification unit 141 performs error notification in step S125. For example, the error notification unit 141 supplies information indicating that the continuous shot image cannot be converted into a loop moving image to the display unit 103 for display.
  • step S125 the process returns from step S125 to step S122, and the above-described process is repeated. That is, it is determined whether or not the continuous shot image can be converted into a loop moving image based on a plurality of frames continuously shot.
  • step S126 the loop moving image calculation unit 25 generates a loop moving image of the continuous shooting image based on the continuous shooting image.
  • the loop moving image calculation unit 25 sets a pair of frames when the integrated SAD value calculated in the process of step S123 is minimum as a processing target frame, and sets these two frames as a start end and an end end, respectively.
  • the continuous shot image of the section to be extracted is extracted.
  • the loop moving image calculation unit 25 performs the above-described cross fading process, processing by the graph cut method, random dissolve, etc. on the continuous shot image of the extracted section to generate a loop moving image, and stores it in the image memory 21. Supply.
  • the loop moving image obtained in this way is a loop moving image obtained by looping the entire continuous shot image without dividing the continuous shot image into segments.
  • the loop moving image calculating unit 25 supplies the generated loop moving image to the image memory 21 for recording. Then, the loop moving image generation process ends, and then the process returns to step S53 in FIG. 9 and the shooting process also ends.
  • the photographing apparatus 81 presents to the user that the loop moving image cannot be formed. Thereby, the user can immediately redo the shooting. Accordingly, it is possible to appropriately capture a loop moving image, and to obtain a high-quality loop moving image more easily.
  • the continuous shooting image is captured.
  • the series of processes described above can be executed by hardware or software.
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
  • FIG. 13 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU 501 In the computer, a CPU 501, a ROM (Read Only Memory) 502, and a RAM (Random Access Memory) 503 are connected to each other by a bus 504.
  • An input / output interface 505 is further connected to the bus 504.
  • the input / output interface 505 includes an input unit 506 including a keyboard, mouse, and microphone, an output unit 507 including a display and a speaker, a recording unit 508 including a hard disk and a non-volatile memory, and a communication unit 509 including a network interface.
  • a drive 510 for driving a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • a program executed by the computer (CPU 501) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor.
  • the program is recorded on a removable medium 511 that is a package medium including a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in the ROM 502 or the recording unit 508 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本技術は、より簡単に高品位なループ動画像を得ることができるようにする画像処理装置および方法、並びにプログラムに関する。ループ動画像の素材となる複数フレームの連写画像が入力されると、動く被写体を含む動きセグメント、または動きのない被写体を含む静止セグメントを含む、複数のセグメントに連写画像が分割される。そして、連写画像の動きセグメントの領域の画像がループ動画像化されて、セグメントループ動画像が生成される。また、連写画像の静止セグメントの領域の画像が切り出されて、静止画像であるセグメント画像が生成される。さらに、これらのセグメントループ動画像とセグメント画像とが結合されて、1つのループ動画像とされる。本発明は、画像処理装置に適用することができる。

Description

画像処理装置および方法、並びにプログラム
 本技術は画像処理装置および方法、並びにプログラムに関し、特に、より簡単に高品位なループ動画像を得ることができるようにした画像処理装置および方法、並びにプログラムに関する。
 従来、入力ビデオ映像を用いてループ動画像を生成する技術が知られている(例えば、非特許文献1参照)。ループ動画像とは、動画像の所定の区間や、複数の静止画像が繰り返し再生される画像である。
 例えば、ループ動画像の生成時には、動画像の所定区間の開始端のフレームと終了端のフレームが時間的に連続していない場合でも、フレーム間の画像の差異による継ぎ目が視覚的に目立たなくなるように、動画像の所定区間が加工される。
 そのため、ループ動画像を繰り返し再生すると、ループ動画像の開始端と終了端がはっきりとは分からなくなるため、あたかも無限長の動画像が提示されているかのように感じさせることができる。ループ動画像は、CG(Computer Graphics)のテクスチャ素材や背景動画像など、多くのアプリケーションプログラムにおいて有用である。
 このようなループ動画像は、基本的に以下のようにして生成される。すなわち、まず入力された複数のフレームからなる動画像から、時間の離れた類似度の高い2つのフレームが選択され、それらのフレームを開始端および終了端とする区間が抽出されてループ動画像とされる。
 ここで、ループ動画像の再生時には、動画像から抽出された区間の終了端と開始端とが連続して再生されるようにされる。したがって、ループ動画像とされた動画像の区間の開始端と終了端のフレームの画像が類似しているほど、ループ動画像の再生時に、それらのフレームの画像を滑らかに連結することができることになる。例えば、ループ動画像とされる動画像の区間の開始端と終了端の連結をより滑らかなものとするために、動画像におけるそれらの開始端と終了端の近傍のフレームの画像同士をブレンドして、ループ動画像のフレームの画像とするクロスフェード処理なども行われる。
Arno Schodl, Richard Szeliski, David H. Salesin, and Irfan Essa.「Video textures」. Proceedings of SIGGRAPH 2000, pages 489-498, July 2000.
 ところが、ループ動画像の素材となるビデオ映像(動画像)によっては、ループ動画像の開始端と終了端とがうまくつながらず、処理結果が大きく破綻してしまうことがある。具体的には、例えばビデオ映像内に複数の動被写体があり、それらの被写体が同時にうまくつながるタイミング(フレーム)がなかったり、そもそも2つの類似するフレームがビデオ映像内になかったりする場合があった。
 このような不適切なビデオ映像を素材としてループ動画像を生成すると、ループ動画像の開始端と終了端のフレームの画像が破綻してしまったり、再生時に開始端と終了端が滑らかにつながらなかったりする。そのような場合、ユーザは、素材となるビデオ映像の撮影をやり直したり、ループ動画像の生成に用いられるパラメータを手動で変更したりして、所望のループ動画像が得られるように対応しなければならなかった。
 本技術は、このような状況に鑑みてなされたものであり、より簡単に高品位なループ動画像を得ることができるようにするものである。
 本技術の第1の側面の画像処理装置は、異なる時刻に撮影された複数の撮影画像に基づいて、前記撮影画像をいくつかのセグメントに分割するセグメント計算部と、前記複数の前記撮影画像のうちの連続するいくつかの前記撮影画像から、動きのある被写体が含まれる前記セグメントである動きセグメントの画像を切り出し、前記動きセグメントの画像に基づいて、ループ動画像として再生可能な画像を生成するループ動画像生成部とを備える。
 前記ループ動画像を、連続する複数の前記動きセグメントの画像のうち、類似度の高い2つの画像の間にある画像が順番に繰り返し表示される動画像とすることができる。
 画像処理装置には、前記複数の前記撮影画像のうちのいくつかの前記撮影画像から、動きのない被写体が含まれる前記セグメントである静止セグメントの画像を切り出して、前記静止セグメントの画像に基づいて、1つの静止画像であるセグメント画像を生成するセグメント画像生成部をさらに設けることができる。
 画像処理装置には、前記ループ動画像として再生可能な画像と前記セグメント画像とを結合して、1つのループ動画像を生成するセグメント結合処理部をさらに設けることができる。
 前記セグメント画像生成部には、いくつかの前記静止セグメントの画像を重ね合わせることで、前記セグメント画像を生成させることができる。
 前記ループ動画像生成部には、連続する複数の前記動きセグメントの画像のうち、類似度の高い2つの画像がある場合、前記類似度の高い2つの画像を含む、連続する複数の前記動きセグメントの画像に基づいて、前記ループ動画像として再生可能な画像を生成させることができる。
 前記ループ動画像生成部には、連続する複数の前記動きセグメントの画像のうち、類似度の高い2つの画像がない場合、1つの前記動きセグメントの画像に基づいて、1つの静止画像であるセグメント画像を生成させることができる。
 画像処理装置には、前記撮影画像よりも解像度の高い高解像度画像から、動きのない被写体が含まれる前記セグメントである静止セグメントに対応する領域の画像を切り出し、前記静止セグメントに対応する領域の画像に基づいて、1つの静止画像であるセグメント画像を生成するセグメント画像生成部をさらに設け、前記ループ動画像生成部には、前記高解像度画像と同じ解像度に変換された前記撮影画像に基づいて、前記ループ動画像として再生可能な画像を生成させることができる。
 画像処理装置には、撮影モードを切り替えるための操作部をさらに設け、前記操作部に対する操作により、前記撮影モードとして所定のモードが選択された場合、前記撮影画像および前記高解像度画像が撮影されるようにすることができる。
 前記高解像度画像の撮影前に、前記複数の前記撮影画像が撮影されるようにし、画像処理装置には、前記複数の前記撮影画像における前記動きセグメントの画像のうち、類似度の高い2つの画像があるか否かを判定し、その判定結果を出力する通知部をさらに設けることができる。
 前記類似度の高い2つの画像があると判定された場合、前記高解像度画像が撮影され、前記ループ動画像として再生可能な画像、および前記セグメント画像が生成されるようにすることができる。
 本技術の第1の側面の画像処理方法またはプログラムは、異なる時刻に撮影された複数の撮影画像に基づいて、前記撮影画像をいくつかのセグメントに分割し、前記複数の前記撮影画像のうちの連続するいくつかの前記撮影画像から、動きのある被写体が含まれる前記セグメントである動きセグメントの画像を切り出し、前記動きセグメントの画像に基づいて、ループ動画像として再生可能な画像を生成するステップを含む。
 本技術の第1の側面においては、異なる時刻に撮影された複数の撮影画像に基づいて、前記撮影画像がいくつかのセグメントに分割され、前記複数の前記撮影画像のうちの連続するいくつかの前記撮影画像から、動きのある被写体が含まれる前記セグメントである動きセグメントの画像が切り出され、前記動きセグメントの画像に基づいて、ループ動画像として再生可能な画像が生成される。
 本技術の第2の側面の画像処理装置は、異なる時刻に撮影された複数の撮影画像のなかに類似度の高い2つの前記撮影画像があるか否かを判定し、その判定結果を出力する通知部と、前記複数の前記撮影画像のうち、類似度の高い2つの前記撮影画像を含む、連続する複数の前記撮影画像に基づいて、ループ動画像として再生可能な画像を生成するループ動画像生成部とを備える。
 本技術の第2の側面の画像処理方法は、異なる時刻に撮影された複数の撮影画像のなかに類似度の高い2つの前記撮影画像があるか否かを判定し、その判定結果を出力し、前記複数の前記撮影画像のうち、類似度の高い2つの前記撮影画像を含む、連続する複数の前記撮影画像に基づいて、ループ動画像として再生可能な画像を生成するステップを含む。
 本技術の第2の側面においては、異なる時刻に撮影された複数の撮影画像のなかに類似度の高い2つの前記撮影画像があるか否かが判定され、その判定結果が出力され、前記複数の前記撮影画像のうち、類似度の高い2つの前記撮影画像を含む、連続する複数の前記撮影画像に基づいて、ループ動画像として再生可能な画像が生成される。
 本技術の第1の側面および第2の側面によれば、より簡単に高品位なループ動画像を得ることができる。
ループ動画像の生成について説明する図である。 画像の類似度合いの比較について説明する図である。 本技術を適用したループ動画像の生成について説明する図である。 画像処理装置の構成例を示す図である。 ループ動画像生成処理を説明するフローチャートである。 画像処理装置の他の構成例を示す図である。 撮影装置の構成例を示す図である。 画像処理部の構成例を示す図である。 撮影処理を説明するフローチャートである。 ループ動画像生成処理を説明するフローチャートである。 画像処理部の他の構成例を示す図である。 ループ動画像生成処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[ループ動画像の生成手法について]
 まず、ループ動画像の生成手法の概要について説明する。例えば、図1に示すように、ループ動画像の素材として、複数フレームからなる動画像MP11が入力され、この動画像MP11の所定の区間を切り出してループ動画像を生成する場合を考える。なお、図1において、横方向は時間を示しており、図中、1つの四角形は1つのフレームの画像を表している。
 ループ動画像を生成するにあたり、まず素材となる動画像MP11から、時間的に離れた位置にある、最も類似度が高いフレームのペアが検出される。この例では、動画像MP11を構成するフレームのうち、フレームiと、そのフレームiよりも時間的に後にあるフレームjが最も類似度の高いフレームペアとして検出される。このようにしてフレームのペアが検出されると、動画像MP11のフレームiからフレームjまでの区間が切り出される。
 一般的に、動画像内で類似度の高いフレームのペアが検出されても、それらのフレームの画像が完全に一致することはない。そのため、検出された2つのフレームを開始端および終了端とする区間を繰り返し再生すると、ユーザには、終了端から開始端への遷移(継ぎ目)が明らかに分かってしまう。
 そこで、動画像MP11から切り出された区間の開始端近傍のフレームの画像と、終了端近傍のフレームの画像とが加工されて、ループ動画像LM11とされる。
 すなわち、動画像MP11から切り出された区間の開始端のフレームiの画像と、終了端のフレームjの画像とがブレンドされて、その結果得られた画像が、ループ動画像LM11の開始端のフレームi’の画像とされる。つまり、フレームiの画像とフレームjの画像との同じ位置にある画素が、所定の重みにより重み付き加算されて、それらの画素と同じ位置にあるフレームi’の画像の画素とされる。
 また、フレームiの1つ後のフレーム(i+1)と、フレームjの1つ後のフレーム(j+1)とが所定の重みによりブレンドされて、フレームi’の1つ後のフレーム(i+1)’とされる。さらに、フレーム(i+1)の1つ後のフレーム(i+2)と、フレーム(j+1)の1つ後のフレーム(j+2)とが所定の重みによりブレンドされて、フレーム(i+1)’の1つ後のフレーム(i+2)’とされる。
 同様に、フレームjの1つ前のフレーム(j-1)と、フレームiの1つ前のフレーム(i-1)とが所定の重みによりブレンドされて、ループ動画像LM11の終了端のフレーム(j-1)’とされる。また、フレーム(j-1)の1つ前のフレーム(j-2)と、フレーム(i-1)の1つ前のフレーム(i-2)とが所定の重みによりブレンドされて、フレーム(j-1)’の1つ前のフレーム(j-2)’とされる。
 ここで、動画像MP11から切り出された区間の開始端近傍に対するブレンド処理では、開始端よりも後にあるフレームほど、開始端側のフレームの画像に乗算される重みが大きくなる。つまり、ブレンドにより得られる画像に対する、開始端側のフレームの画像の寄与率が大きくなる。逆に、動画像MP11から切り出された区間の終了端近傍に対するブレンド処理では、終了端よりも前にあるフレームほど、終了端側のフレームの画像に乗算される重みが大きくなる。
 このように、フレームの位置に応じて、ブレンド処理に用いられる重み(ブレンド率)を徐々に変化させていくことで、動画像の継ぎ目の顕在化を軽減させる手法は、クロスフェードと呼ばれている。
 以上の処理で得られたループ動画像LM11の再生時には、開始端のフレームi’から順番に、フレーム(i+1)’,フレーム(i+2)’・・・と再生されていく。そして、終端のフレーム(j-1)’が再生されると、その後、再びフレームi’に戻り、各フレームが繰り返し再生される。
 このように、動画像MP11から切り出した区間の開始端および終了端に対し、それぞれ開始端近傍のフレームと終了端近傍のフレームを用いたブレンド処理を行うことで、ループ動画像LM11の開始端と終了端のフレームを滑らかにつなげることができる。すなわち、動画像MP11の時間的に離れた位置のフレームiとフレーム(j-1)の画像間の差異が視覚的に顕在化しないようにすることができる。
 なお、動画像MP11から切り出した区間を構成するフレームのうち、その区間の開始端および終了端から時間的に遠い位置にある中央付近のフレームについては、それらのフレームの画像が、そのままループ動画像LM11を構成するフレームの画像とされる。
[類似度の高いフレームペアの検出方法について]
 また、ループ動画像の生成時に、素材となる動画像の最も類似度が高いフレームのペアが検出されるが、このようなフレームのペアの検出では、例えば画像同士が比較されて類似度が計算され、計算により得られた類似度に基づいて、最適なペアが決定される。
 具体的には、画像同士の類似度として、画像の各画素の差分絶対値和などが利用される。すなわち、2つの画像の同じ位置にある各画素について、それらの画素の輝度値の差分の絶対値が求められ、各画素の差分の絶対値の総和が差分絶対値和(SAD(Sum of Absolute Difference))とされる。
 画像同士が類似しているほど、差分絶対値和は小さくなるので、最も差分絶対値和が小さくなるフレームのペアをループ動画像の開始端および終了端とすれば、ループ動画像の開始端と終了端での視覚的な差異は少なくなるはずである。
 しかしながら、2つの画像同士の差分絶対値和による評価では、それらの画像上における被写体の時間方向の動きは考慮されない。具体的には、例えば画像上で時計の振り子が左右に振れている場合、特定のフレームのみに注目しても、振り子が左側から振れてきたのか、右側から振れてきたのかを特定することはできない。
 そのため、2つの画像同士の差分絶対値和のみから、ループ動画像の開始端および終了端とするフレームのペアを検出すると、ループ動画像の再生時に、終了端のフレームから開始端のフレームに遷移するときに、被写体の動きが不連続になってしまうことがある。
 そこで、例えば図2に示すように、連続する複数のフレームからなる区間同士を比較すれば、ループ動画像の開始端および終了端とするのに、より適切なフレームのペアを検出することができるようになる。
 なお、図2において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。また、図中、動画像MP11内の四角形は1つのフレームを表しており、その四角形内の文字はフレームを特定する文字となっている。
 例えば、動画像MP11から類似する2つのフレームのペアを検出する場合に、フレームiとフレームjとが互いに類似しているかが評価されるとする。この場合、フレームiを中心とする7つの連続するフレーム(i-3)乃至フレーム(i+3)と、フレームjを中心とする7つの連続するフレーム(j-3)乃至フレーム(j+3)とが比較される。
 具体的には、図中、中央に示すように、フレーム(i+k)の画像と、フレーム(j+k)の画像との差分絶対値和(但し、k=-3,-2,-1,0,1,2,3)が求められ、それらの差分絶対値和が重みG11により重み付き加算されて、積算SAD値が求められる。つまり、各差分絶対値和に重みG11が付けられて積算され、積算SAD値とされる。
 図2の例では、重みG11は、フレームiに近いフレームが用いられて算出された差分絶対値和に乗算される重みほど、より大きくなる正規分布重みとなっている。
 このようにして求めた積算SAD値は、複数の連続するフレームからなる区間同士を比較したときに、各被写体の位置や動きが類似するほど小さくなる。つまり、区間同士の類似の度合いが高いほど、積算SAD値は小さくなる。したがって、動画像MP11において、最も積算SAD値が小さくなるフレームのペアが、ループ動画像の開始端および終了端とするのに最も適したフレームのペアということができる。
 このように、複数の連続するフレームについて積算SAD値を求めることで、連続する複数のフレームからなる区間同士の類似の度合いを評価することができる。この場合、積算SAD値が小さいほど、より類似の度合いが高いことになる。
 なお、動画像MP11において、連続する何フレームからなる区間同士を比較し、それらの区間の積算SAD値を求めるかは、フレーム長を単位とするパラメータ(以下、積算タップ長Lsadとも称する)として指定されるようにしてもよい。そのような場合、例えばユーザにより積算タップ長Lsadが指定されると、積算タップ長Lsadに示される数の連続するフレームの区間について積算SAD値が算出される。
 また、積算SAD値が最小となるフレームペアを検出する場合、時間的に近いフレーム同士では画像の変化が少ないため、積算SAD値が小さくなる。そのため、過度に短い周期のループ動画像が生成されてしまうことを防止するには、比較されるフレーム(区間)同士が最低限離れていなければならない距離を定め、その距離よりもフレーム間の距離が短いフレームペアを候補から除外する必要がある。
 この場合、例えばユーザにより、比較されるフレーム同士の最低限の距離を示すパラメータ(以下、最短周期長Lminとも称する)が指定される。すると、動画像MP11において、最短周期長Lminにより示される距離以上離れているフレームの各ペアについて積算SAD値が求められ、それらのペアのうち、積算SAD値が最小となるペアのフレームが、ループ動画像に用いられる区間の開始端および終了端とされる。
 なお、最短周期長Lminは、入力パラメータとしてプログラムに対して指定されてもよいし、素材となる動画像MP11の全長に対する割合としてプログラムにより算出されるようにしてもよい。
[画像の位置合わせについて]
 また、ループ動画像の生成時には、必要に応じて素材となる画像の位置合わせが行なわれる。一般的に、ユーザが手持ちでカメラによるビデオ撮影を行なうと、手ぶれが発生する可能性が高い。こうしたカメラ姿勢の動きは、撮影により得られた動画像を視聴する際に不快なだけでなく、ループ動画像の生成時に差分絶対値和などの画像間の類似度を計算する場合にも悪影響となる。
 そのため、撮影時における手ぶれ等のカメラの動きを補正する位置合わせ処理を、撮影された画像に対して行い、位置合わせ処理された画像を用いてループ動画像を生成すれば、より高品位なループ動画像を得ることができる。つまり、素材となる画像に対して位置合わせ処理を行えば、三脚を用いてカメラを固定した状態で撮影したような、ぶれのない動画像を得ることができる。
 このような位置合わせ処理では、1つの画像(以下、基準画像と称する)を基準として、別の画像(以下、処理対象画像と称する)が射影変換され、基準画像と処理対象画像上の被写体の位置合わせが行なわれる。例えば基準画像は、ループ動画像の素材となる動画像の先頭フレームの画像であってもよいし、任意のフレームの画像であってもよい。
 また、位置合わせに必要な射影変換行列は、基準画像と処理対象画像のそれぞれについて、特徴点の抽出を行い、基準画像上の特徴点に対して、処理対象画像上の特徴点が適合するような変換行列を算出することで得られる。
 さらに、特徴点は、視点が変化しても再現性のある点とされる。すなわち、特徴点の位置と特徴量が求められて、それらの位置と特徴量の情報から特徴点間の対応関係が計算され、2つのフレームの位置関係が求められる。このような位置合わせに適した特徴点には、例えばSIFT(Scale Invariant Feature Transform)特徴点などがある。
 次に、位置合わせ処理に用いられる射影変換行列の具体的な算出手法の一例について説明する。まず、基本画像と処理対象画像から、SIFT特徴点などの特徴点が抽出される。そして、処理対象画像上の特徴点が、基本画像上のどの特徴点に対応するかが、特徴量間のユークリッド距離により求められる。
 さらに、RANSAC(Random Sample Consensus)法により、処理対象画像上の特徴点と、その特徴点に対応する基本画像上の特徴点とからなる特徴点ペアがいくつか選択され、これらのペアを構成する特徴点間の位置の変換に最も適合する変換行列が求められる。そして、このようにして得られた変換行列が、位置合わせ処理に用いられる射影変換行列とされる。このようなRANSAC法によれば、特徴点の位置や対応関係に誤りが含まれていても、その誤りが除去されて正しい変換行列が得られる。
 なお、RANSAC法やSIFT特徴点の算出の詳細は、例えば「Brown, M. and Lowe, D. G. 2003. "Recognising Panoramas.",In Proceedings of the Ninth IEEE international Conference on Computer Vision-Volume 2 (October 13 - 16, 2003). ICCV. IEEE Computer Society, Washington,DC, 1218.」などに記載されている。
 また、位置合わせ処理に用いられる変換行列の種類としては、射影変換行列が用いられるのが一般的であるが、変形自由度の異なるアフィン変換行列や剛体変換行列などが用いられるようにしてもよい。
 射影変換行列によって処理対象画像を変形させて、変形後の処理対象画像と基準画像を重ね合わせると、基準画像の端や角部分には処理対象画像と重ならない部分がある。そのため、射影変換後の全ての処理対象画像と基準画像とを重ね合わせたときに、全ての画像の画素が重なる有効な領域のみを残して出力するクロップ処理が行われるようにしてもよい。
 すなわち、射影変換された全ての処理対象画像と基準画像を重ね合わせて、それらの処理対象画像と基準画像の画素のうち、他の画像と重ならない画素の領域があれば、その画素の領域が無効領域とされる。そして、そのような無効領域を除く、全ての処理対象画像と基準画像の画素が重なる領域からなる有効領域内において、面積が最大となる矩形の領域が求められ、その結果得られた矩形領域がクロップ領域とされる。
 このようにしてクロップ領域が求められると、射影変換された動画像を構成する各フレームの画像のクロップ領域が切り出されて、それらの切り出された各フレームの画像からなる動画像が、ループ動画像の素材となる最終的な動画像とされる。
 なお、クロップ処理には、クロップ後の画像が小さくなるという欠点がある。そこで、素材となる動画像の解像度が低下しないように、クロップ処理は行わず、射影変換後の画像に対して、射影変換前の画像と重ならない領域の各画素の画素値として、白または黒の色の画素値を割り当てたり、基準画像の同位置の画素の画素値を割り当てたりしてもよい。
[本技術を適用したループ動画像について]
 ループ動画像の生成には、以上において説明した技術が適宜用いられる。次に、本技術を適用して生成されるループ動画像について説明する。なお、以下においては、ループ動画像の素材となる画像を連写画像と呼ぶこととする。
 いま、図3に示すように、複数の連写画像からなる連写画像群CP11がループ動画像の素材として入力されたとする。
 ここで、連写画像群CP11は、被写体が同じである時間的に連続して撮影された画像であれば、どのような画像であってもよい。例えば、連写画像群CP11は、連写画像を1フレームの画像とする動画像であってもよいし、連続して撮影された各時刻の静止画像からなる静止画像群であってもよい。
 このような連写画像群CP11が入力されると、各連写画像は、動きのある被写体が含まれているセグメント、または動きのない静止した被写体が含まれるセグメントの少なくとも何れかからなる複数のセグメントに分割される。
 図3の例では、連写画像群CP11を構成する各連写画像は、空間方向にセグメントSG1乃至セグメントSG4の4つのセグメントに分割されている。例えば、セグメントSG1は、静止した被写体が含まれるセグメント(以下、静止セグメントとも称する)であり、セグメントSG2乃至セグメントSG4は、動きのある被写体が含まれているセグメント(以下、動きセグメントとも称する)である。
 連写画像がいくつかのセグメントに分割されると、それらのセグメントごとに、連写画像上のセグメントの領域が表示される静止画像(以下、セグメント画像と称する)またはループ動画像(以下、セグメントループ動画像と称する)が生成される。そして、それらの各セグメントのセグメント画像とセグメントループ動画像が結合されて、最終的な1つのループ動画像とされる。
 具体的には、まず静止セグメントであるセグメントSG1について、連写画像群CP11を構成する複数の連写画像のうちの1または複数の連写画像が選択され、選択された連写画像から1つのセグメント画像SGP11が生成される。例えば、連写画像群CP11の最初の数フレームの連写画像における、セグメントSG1の領域の画像が重ね合わされて、セグメント画像SGP11とされる。
 静止セグメントでは被写体の動きは殆どないので、ループ動画像の再生時に、静止画像であるセグメント画像SGP11を継続して表示すれば、連写画像に特別な処理を施すことなく、ループ動画像の終了端から開始端への遷移を滑らかにすることができる。
 次に、動きセグメントであるセグメントSG2について、連写画像群CP11を構成する各連写画像上のセグメントSG2の領域の画像に基づいて、それらの画像がループ動画像の生成に適しているかが判定される。すなわち、それらの画像群のなかに、ループ動画像の生成に適した類似度の高い画像のペアがあるか否かが判定される。
 図3の例では、連写画像のセグメントSG2の領域の画像は、ループ動画像の生成に適していると判定され、これらの画像からループ動画像が生成され、セグメントSG2のセグメントループ動画像SGM11とされる。
 同様に、動きセグメントであるセグメントSG3について、連写画像群CP11を構成する各連写画像上のセグメントSG3の領域の画像が、ループ動画像の生成に適しているかが判定される。この例では、連写画像のセグメントSG3の領域の画像は、ループ動画像の生成に適していないと判定され、連写画像群CP11を構成する連写画像におけるセグメントSG3の領域の画像から、1つのセグメント画像SGP12が生成される。例えば、連写画像群CP11の最初のフレームの連写画像における、セグメントSG3の領域の画像が、そのままセグメント画像SGP12とされる。
 セグメントSG3は動きセグメントであるが、このセグメントSG3の領域は、ループ動画像化に適しておらず、高品位なセグメントループ動画像を得ることができない。そこで、このようなセグメントSG3に対しては、静止セグメントと同様に、静止画像であるセグメント画像を生成し、ループ動画像の再生時に、このセグメント画像が継続して表示されるようにすることで、ループ動画像の破綻を防止することができる。
 さらに、動きセグメントであるセグメントSG4について、連写画像群CP11を構成する各連写画像上のセグメントSG4の領域の画像が、ループ動画像の生成に適しているか否かが判定される。図3の例では、連写画像のセグメントSG4の領域の画像は、ループ動画像の生成に適していると判定され、これらの画像からループ動画像が生成され、セグメントSG4のセグメントループ動画像SGM12とされる。
 そして、連写画像の各セグメントについて得られたセグメント画像SGP11およびセグメント画像SGP12と、セグメントループ動画像SGM11およびセグメントループ動画像SGM12とが結合されて、最終的なループ動画像とされる。
 例えば、最終的なループ動画像の所定のフレームの画像LPF11は、各セグメントのセグメント画像、またはセグメントループ動画像の対応するフレームの画像を、それらのセグメントの位置と同じ位置に配置して結合することにより得られる。
 すなわち、画像LPF11のフレームに対応する、セグメントループ動画像SGM11のフレームの画像が画像SGF11であり、画像LPF11のフレームに対応する、セグメントループ動画像SGM12のフレームの画像が画像SGF12であるとする。
 この場合、セグメント画像SGP11、画像SGF11、セグメント画像SGP12、および画像SGF12が、それぞれ画像LPF11上におけるセグメントSG1乃至セグメントSG4の各位置に配置され、それらの画像が結合されて画像LPF11とされる。
 以上のように、被写体の動きに応じて連写画像をいくつかのセグメントに分割し、セグメントごとに生成したセグメント画像とセグメントループ動画像を結合してループ動画像とすることで、連写画像の内容に応じた高品位なループ動画像を簡単に得ることができる。このようにして得られたループ動画像によれば、静止した被写体の部分は高画質で完全に静止させてより写真らしく提示し、動きのある被写体の部分はその動きを強調して、写真の一部が動いているかのように感じさせることができる。
[画像処理装置の構成例]
 また、複数の連写画像を入力とし、図3を参照して説明したループ動画像を生成する画像処理装置は、例えば図4に示すように構成される。図4は、本技術を適用した画像処理装置の一実施の形態の構成例を示す図である。
 画像処理装置11は、画像メモリ21、位置合わせ部22、セグメント計算部23、三次元NR(Noise Reduction)部24、ループ動画像計算部25、およびセグメント結合処理部26から構成される。
 画像メモリ21は、供給された連写画像を一時的に記録するとともに、記録している連写画像を必要に応じて出力する。また、画像メモリ21は、セグメント結合処理部26から供給されたループ動画像を一時的に記録し、図示せぬ後段の表示部等に出力する。
 位置合わせ部22は、画像メモリ21に記録されている連写画像を読み出して、読み出した連写画像に対して位置合わせ処理を行い、位置合わせされた連写画像を画像メモリ21に供給して記録させる。このようにして位置合わせが行なわれた連写画像は、画像メモリ21に一時的に記録された後、セグメント計算部23乃至ループ動画像計算部25に供給される。
 セグメント計算部23は、画像メモリ21から供給された連写画像を複数のセグメントに分割し、連写画像上における各セグメントの位置を特定するセグメントマップを生成する。セグメント計算部23は、生成したセグメントマップを、三次元NR部24乃至セグメント結合処理部26に供給する。
 三次元NR部24は、画像メモリ21からの連写画像と、セグメント計算部23からのセグメントマップとに基づいて、連写画像上の各静止セグメントについてセグメント画像を生成し、セグメント結合処理部26に供給する。
 ループ動画像計算部25は、画像メモリ21からの連写画像と、セグメント計算部23からのセグメントマップとに基づいて、連写画像上の各動きセグメントについて、セグメント画像またはセグメントループ動画像を生成し、セグメント結合処理部26に供給する。
 セグメント結合処理部26は、セグメント計算部23からのセグメントマップに基づいて、三次元NR部24およびループ動画像計算部25から供給された各セグメントのセグメント画像とセグメントループ動画像を結合し、ループ動画像を生成する。セグメント結合処理部26は、生成したループ動画像を画像メモリ21に供給して記録させる。
[ループ動画像生成処理の説明]
 ところで、画像処理装置11に連写画像が供給され、ループ動画像の生成が指示されると、画像処理装置11はループ動画像生成処理を行って、ループ動画像を生成し、出力する。以下、図5のフローチャートを参照して、画像処理装置11によるループ動画像生成処理について説明する。
 ステップS11において、画像メモリ21は、外部から送信されてきた複数の連写画像を受信して、一時的に記録する。
 ステップS12において、位置合わせ部22は、画像メモリ21から連写画像を読み出して位置合わせ処理を行い、位置合わせされた連写画像を画像メモリ21に供給して記録させる。
 例えば、位置合わせ処理として、上述した射影変換が行なわれる。すなわち、位置合わせ部22は、各連写画像から特徴点を抽出するとともに、複数の連写画像の何れかを基準画像とし、他の連写画像を処理対象画像として、処理対象画像ごとにRANSAC法などにより射影変換行列を求める。そして、位置合わせ部22は、求めた射影変換行列により、連写画像上の同じ被写体が重なるように処理対象画像を射影変換することで、連写画像の位置合わせを行なう。このとき、必要に応じて射影変換された連写画像に対してクロップ処理が行われる。
 このようにして位置合わせが行なわれた連写画像は、画像メモリ21に記録された後、セグメント計算部23乃至ループ動画像計算部25に供給される。
 ステップS13において、セグメント計算部23は、画像メモリ21から供給された連写画像に対してセグメンテーションを行い、連写画像をいくつかのセグメントに分割する。そして、セグメント計算部23は、セグメンテーションにより得られたセグメントマップを、三次元NR部24乃至セグメント結合処理部26に供給する。
 例えば、セグメント計算部23は、複数の連写画像の同じ位置にある画素について、それらの画素の輝度値の分散値を求める。そして、セグメント計算部23は、求められた分散値と所定の閾値τとを比較して、分散値が閾値τ以上である場合、その分散値を求めた画素を、動きのある画素とする。つまり、動きのある被写体が表示される動き画素とされる。逆に、セグメント計算部23は、分散値が閾値τ未満である場合、その分散値を求めた画素を、動きのない静止画素とする。
 連写画像上の所定の画素に、動きのない静止した被写体が継続して表示される場合、その画素の輝度値の時間方向の変化は少ないはずである。つまり、各時刻の連写画像における同じ画素の輝度値は、ばらつきが少なく殆ど同じ値となるため、それらの画素の輝度値の分散値は小さくなるはずである。そこで、セグメント計算部23は、任意のスカラ値を閾値τとして、連写画像上の画素のうち、輝度値の分散値が閾値τ未満である画素を、静止画素とし、分散値が閾値τ以上である画素を、動き画素とする。
 セグメント計算部23は、連写画像上の各画素について、動き画素か、静止画素かを特定すると、その特定結果に基づいて、動きのある被写体の領域を示すビットマップ画像を生成する。ここで、ビットマップ画像の画素の画素値は、その画素と同じ位置にある連写画像の画素が動き画素である場合に「1」とされ、その画素と同じ位置にある連写画像の画素が静止画素である場合に「0」とされる。
 したがって、ビットマップ画像上において、画素値が「1」である画素からなる領域、つまり互いに隣接する画素の画素値が「1」である領域は、その領域と同じ位置にある連写画像の領域が、動きのある被写体が表示される領域であることを示している。以下、ビットマップ画像上において、画素値が「1」である画素からなる領域を動き領域とも称し、画素値が「0」である画素からなる領域を静止領域とも称することとする。
 ビットマップ画像の生成にあたり、連写画像の各画素の輝度値の分散値を単純に閾値処理すると、ビットマップ画像上に面積の小さい動き領域や静止領域がノイズのように散在してしまうことになる。
 そこで、セグメント計算部23は、ビットマップ画像上の面積の小さい動き領域や静止領域を孤立点として、ビットマップ画像に対して、モルフォロジカルフィルタ等の孤立点除去フィルタを用いたフィルタ処理を施し、ビットマップ画像上の画素を連結処理する。
つまり、ビットマップ画像上から孤立点が除去される。
 孤立点除去フィルタを用いたフィルタ処理では、ビットマップ画像の動き領域や静止領域に対する膨張,収縮処理が行われる。例えば、ビットマップ画像上の動き領域が外側に1画素分だけ広げられたり、1画素分だけ内側に狭められたりする。これにより、動き領域や静止領域といった図形に空いた微小な穴や突起部分が除去され、安定したセグメンテーションが可能となる。なお、動き領域や静止領域に対して、何画素分の膨張,収縮処理をどのような順番で行うかは、任意に定めることができる。
 セグメント計算部23は、ビットマップ画像にフィルタ処理を施すと、ビットマップ画像上の画素値が「1」からなる動き領域を動きセグメントとし、画素値が「0」からなる静止領域を静止セグメントとする。したがって、1つのセグメントを構成する画素は、空間方向に連続して並ぶ同じ画素値を有する画素となる。
 また、セグメント計算部23は、ビットマップ画像上の各セグメントに対して、セグメントを特定するラベル(ID)を付与し、各セグメントにラベルが付与されたビットマップ画像を、セグメントマップとする。これにより、例えば、図3のセグメントSG1乃至セグメントSG4のそれぞれに対してラベルが付与される。
 なお、セグメント計算部23によりセグメンテーションが行なわれるのではなく、インタラクティブなツールが利用されて、ユーザにより手動で連写画像のセグメントが指定されるようにしてもよい。また、他のプログラムで生成されたセグメントマップが供給されるようにしてもよい。
 セグメントマップが生成されると、セグメントマップが三次元NR部24乃至セグメント結合処理部26に供給され、処理はステップS13からステップS14へと進む。
 ステップS14において、三次元NR部24は、画像メモリ21からの連写画像と、セグメント計算部23からのセグメントマップとに基づいて、連写画像上の各静止セグメントに対する三次元NR処理を行い、セグメント画像を生成する。
 例えば、三次元NR部24は、セグメントマップから、連写画像上の各静止セグメントの領域を特定する。そして、三次元NR部24は、いくつかの連写画像の静止セグメントの領域の画像の平均画像を生成し、得られた平均画像をセグメント画像とする。すなわち、いくつかの連写画像の静止セグメント内の同じ位置にある画素の画素値の平均値が、その画素と同じ位置にあるセグメント画像の画素の画素値とされる。三次元NR部24は、生成した各静止セグメントのセグメント画像を、セグメント結合処理部26に供給する。
 なお、複数の連写画像のうち、どの連写画像を三次元NR処理に用いるかは、どのようにして定めてもよい。例えば、静止セグメント全体で輝度変化の少ない、連続する所定数のフレームが選択されて、それらの選択されたフレームの連写画像からセグメント画像が生成されるようにしてもよい。また、全てのフレームの連写画像が用いられてセグメント画像が生成されてもよい。
 このように、連写画像の静止セグメントの領域を時間方向に重ね合わせることで、連写画像からノイズを除去し、高品位なセグメント画像を得ることができる。
一般的な連写画像では、被写体が静止しているように見えても、かすかな動きが残ることが普通であり、このような領域についてループ動画像を生成しても、そのループ動画像の再生時に、わずかな被写体の動きやノイズが知覚されてしまう。
 そこで、静止セグメントでは、セグメントの領域をループ動画像化せずに、三次元NR処理によりセグメント画像を生成し、ループ動画像の再生時に、継続して同じセグメント画像を表示し続けることで、高品位なループ動画像を提示することができる。これにより、ループ動画像の再生時に、静止セグメントの領域において、ノイズを低減させ、被写体の動きを完全に静止させることができるようになり、静止画像の一部が動いているように見せる演出効果を強調することができる。
 ステップS15において、ループ動画像計算部25は、セグメント計算部23からのセグメントマップと、画像メモリ21からの連写画像とに基づいて、動きセグメントごとに積算SAD値を算出する。
 例えば、ループ動画像計算部25は、複数の連写画像のフレームのうち、最短周期長Lminに示されるフレーム数以上離れた任意の2つのフレームを処理対象のフレームとして選択する。そして、ループ動画像計算部25は、選択された処理対象のフレームを中心とする、積算タップ長Lsadに示される数の連続するフレームの区間について、図2を参照して説明した計算を行い、積算SAD値を求める。なお、積算SAD値の算出時においては、連写画像上の処理対象となっているセグメントの領域内の画素のみが用いられて、差分絶対値和が算出される。
 ループ動画像計算部25は、処理対象とするフレームのペアを変化させながら、各フレームのペアについて積算SAD値を算出し、算出された積算SAD値が最小となるフレームのペアを、セグメントループ動画像の開始端および終了端のフレームの候補とする。
 このようにして、各動きセグメントの積算SAD値が算出されると、ループ動画像計算部25は、それらの動きセグメントのうち、積算SAD値が最小値となる動きセグメントを選択する。そして、ループ動画像計算部25は、選択された動きセグメントの積算SAD値算出時に処理対象とされたフレームのペア間のフレーム数を、これから得ようとするループ動画像の全体の周期(以下、繰り返し周期と称する)とする。つまり、繰り返し周期とされたフレーム数が、ループ動画像を構成する全フレームの数である。
 また、選択された動きセグメントについてのフレームのペアが、その動きセグメントのセグメントループ動画像における開始端および終了端とされる。
 さらに、ループ動画像計算部25は、ループ動画像の繰り返し周期の長さが求まると、選択された動きセグメント以外の他の動きセグメントについて、積算SAD値を再度計算する。すなわち、各動きセグメントについて、積算SAD値が最小となる、繰り返し周期の長さだけ離れているフレームのペアが検出され、検出されたフレームのペアが、セグメントループ動画像の開始端および終了端のフレームとされる。
 このように、各動きセグメントについて、同じフレーム数だけ離れたフレームのペアを、セグメントループ動画像の開始端および終了端とすることで、各セグメントループ動画像の全体の周期を同じ長さにすることができる。しかも、セグメントループ動画像の開始端と終了端を、各動きセグメントで異なるフレーム(タイミング)とすることができるので、動きセグメントごとに終了端から開始端への遷移時に、視覚的な変化が最も小さいフレームを開始端および終了端とすることができる。これにより、より高品位なセグメントループ動画像を得ることができる。
 なお、各セグメントループ動画像の周期が異なっている場合でも、それらのセグメントループ動画像を、1つのループ動画像として同時に再生できる装置にループ動画像が出力されるときには、積算SAD値の再計算は行なわれない。このような場合には、ループ動画像を再生する装置には、セグメント画像と、周期の異なる複数のセグメントループ動画像とを結合しながら提示する機能が必要となる。
 また、セグメントごとに異なる周期のセグメントループ動画像が生成され、それらの周期の異なるセグメントループ動画像からループ動画像が生成される場合、各セグメントループ動画像の周期を合わせるように再生速度が調整されてからループ動画像が出力されてもよい。そのような場合、例えば、セグメントごとの周期のうち最長の周期を全体の基準周期とし、それよりも短い周期を持つセグメントループ動画像について再生速度調整を行って、基準周期と一致するようにすればよい。
 再生速度の調整は、単純に周期の短いセグメントループ動画像のうちいくつかのフレーム画像については複数回連続して表示するようにして調整してもよい。より厳密な結果を得るには新たに追加したい時間位置のフレーム画像を、その時間位置の前後に存在する2つのフレーム画像を使って、滑らかに動きが連結できるように生成すればよい。
 以上のように、ループ動画像として、少なくとも以下の3つの場合が考えられる。すなわち、全てのセグメントループ動画像の周期が同じとなるように、ループ動画像を生成する場合、いくつかのセグメントループ動画像の周期が異なるループ動画像を生成する場合、およびいくつかの周期の異なるセグメントループ動画像から、再生速度の調整により、全体として1つの周期をもつループ動画像を生成する場合が考えられる。
 ここで、セグメントループ動画像の周期が異なるループ動画像が生成された場合には、ループ動画像の再生側において、異なる周期のセグメントループ動画像を同時に再生する機能が必要となる。また、再生速度の調整を行なう場合には、上述したように、フレーム画像の挿入等により各セグメントループ動画像の周期調整が行なわれる。
 各動きセグメントの積算SAD値と、セグメントループ動画像の開始端および終了端となるフレームペアが求められると、処理はステップS15からステップS16に進む。
 ステップS16において、ループ動画像計算部25は、セグメントマップに基づいて、1または複数の動きセグメントのなかから、1つの動きセグメントを処理対象の動きセグメントとして選択する。
 ステップS17において、ループ動画像計算部25は、処理対象の動きセグメントは、ループ動画像化が可能であるか否かを判定する。例えば、処理対象の動きセグメントの積算SAD値が、所定の閾値以下である場合、ループ動画像化が可能であると判定される。
 ステップS17において、ループ動画像化が可能であると判定された場合、ステップS18において、ループ動画像計算部25は、連写画像に基づいて、処理対象の動きセグメントのセグメントループ動画像を生成する。
 例えば、ループ動画像計算部25は、動きセグメントの積算SAD値の算出時に処理対象とされた2つのフレームを、それぞれ開始端および終了端とする区間について、その区間の各フレームの連写画像から、動きセグメントの領域の画像を切り出す。そして、ループ動画像計算部25は、切り出した画像に対して、上述したクロスフェード処理を施すことで、セグメントループ動画像を生成し、セグメント結合処理部26に供給する。
 このようにして生成されたセグメントループ動画像は、複数の連続するフレームの連写画像上の動きセグメントの画像のうち、類似度が高い2つの画像の間にある画像が順番に繰り返し表示される動画像となる。
 このようにクロスフェード処理を行ってセグメントループ動画像を生成すれば、セグメントループ動画像の終了端から開始端への遷移時における継ぎ目の顕在化を軽減させることができる。しかしながら、クロスフェード処理では、連写画像(動きセグメントの画像)の絵柄の異なる部分では、半透明に複数の連写画像の被写体が混ざり合ってしまうため、継ぎ目が目立ってしまう場合がある。
 そこで、異なるフレームの連写画像をより高品位にブレンドするために、画素単位で最適な遷移タイミングが求められるグラフカット法により、セグメントループ動画像が生成されるようにしてもよい。
 2つの画像の一部を重ね合わせて繋ぎ合わせる場合、グラフカット法では、重ね合わされた2つの画像の重複部分について、それらの2つの画像のうちの何れの画像の画素を採用すれば、画像の繋ぎ合わせによる視覚的な不連続性が小さくなるかが求められる。つまり、各画像における画素値の連続性と、2つの画像間における画素値の連続性とが考慮されて、最適な継ぎ目が算出され、その継ぎ目で2つの画像が接続される。
 これに対して、複数フレームの画像の全ての領域が重なるように、それらの複数の画像を重ね合わせてグラフカット法により繋ぎ合わせる場合、基本的には2つの画像の一部を重ね合わせる場合と同様の処理が行われる。この場合、複数の画像を繋ぎ合わせる継ぎ目は、線ではなく面となる。すなわち、各画像における画素値の連続性と、複数の画像間における画素値の連続性とが考慮されて、各画像の同じ位置にある画素のうちの1つの画素が、画像の継ぎ目となる面上の画素とされる。
 したがって、連続するフレームの動きセグメントの画像からなる区間について、グラフカット法によりセグメントループ動画像を生成する場合、その区間の開始端近傍のフレームの画像と、終了端近傍のフレームの画像とに基づいて、画像のブレンドが行なわれる。すなわち、処理対象となっている区間の開始端近傍のいくつかのフレームと、その区間の終了端近傍のいくつかのフレームとからなる区間をブレンド区間と呼ぶこととする。
 この場合、ブレンド区間に含まれる各フレームの動きセグメントの画像に基づいて、3次元の継ぎ目の面が求められ、その面に基づいて動きセグメントの画像がブレンド処理され、新たな動きセグメントの画像が生成される。そして、このようにして生成された新たな動きセグメントの画像が、処理対象の区間の開始端または終了端のフレームの動きセグメントの画像とされる。
 なお、グラフカット法による画像のブレンドについては、例えば「Vivek Kwatra , Arno Schodl , Irfan Essa , Greg Turk and AaronBobick, "Graphcut Textures: Image and Video Synthesis Using Graph Cuts" Toappear in Proc. ACM Transactions on Graphics, SIGGRAPH 2003」などに詳細に記載されている。
 また、セグメントループ動画像の生成時に、いくつかの連写画像における動きセグメントの領域の画像をブレンドする方法として、クロスフェードやグラフカット法の他、ランダムディゾルブなどが用いられてもよい。
 ステップS18の処理が行われて、セグメントループ動画像が生成されると、その後、処理はステップS20へと進む。
 また、ステップS17において、処理対象の動きセグメントのループ動画像化が可能でないと判定された場合、ステップS19において、ループ動画像計算部25は、連写画像に基づいて、処理対象の動きセグメントのセグメント画像を生成する。
 例えばループ動画像計算部25は、所定のフレームの連写画像における処理対象の動きセグメントの領域の画像を切り出して、切り出した画像をそのままセグメント画像とする。
 動きセグメントについて求めた積算SAD値が大きい場合、その動きセグメントの領域の画像群を、小さい視覚的差異で繰り返し再生することは困難である。そのため、そのような動きセグメントについては、ループ動画像の再生時に静止画像であるセグメント画像が継続して提示され、ループ動画像が視覚的に不連続となってしまうことが防止される。
 なお、セグメント画像が切り出される連写画像のフレームは、連写画像の先頭のフレームや、中間の位置にあるフレームなど、どのようなフレームであってもよい。
 また、このような動きセグメントのセグメント画像を生成するときに、三次元NR処理を行うことも考えられる。しかしながら、動きセグメントでは、被写体の動きが大きいため、前後のフレームで画像の内容(絵柄)が大きく異なり、ノイズ成分を正しく抽出することが困難である。したがって、動きセグメントに対しては、三次元NR処理が行われないようにすることが好ましい。
 このようにして、動きセグメントのセグメント画像が生成されると、ループ動画像計算部25は、生成したセグメント画像をセグメント結合処理部26に供給し、処理はステップS20に進む。
 ステップS18においてセグメントループ動画像が生成されたか、またはステップS19において、セグメント画像が生成されると、ステップS20において、ループ動画像計算部25は、全ての動きセグメントを処理したか否かを判定する。
 ステップS20において、まだ全ての動きセグメントを処理対象として処理していないと判定された場合、処理はステップS16に戻り、上述した処理が繰り返される。
 一方、ステップS20において、全ての動きセグメントを処理したと判定された場合、処理はステップS21に進む。
 ステップS21において、セグメント結合処理部26は、セグメント計算部23から供給されたセグメントマップに基づいて、セグメント結合処理を行い、ループ動画像を生成する。すなわち、セグメント結合処理部26は、三次元NR部24およびループ動画像計算部25から供給されたセグメント画像およびセグメントループ動画像を結合し、1つのループ動画像を生成する。
 例えば、図3を参照して説明したように、各セグメントのセグメント画像、およびセグメントループ動画像の対応するフレームの画像が複製されて、それらのセグメントと同じ位置に配置されて結合され、ループ動画像の1フレーム分の画像とされる。
 セグメント結合処理部26は、ループ動画像を生成すると、生成したループ動画像を画像メモリ21に供給して記録させ、ループ動画像生成処理は終了する。このようにして画像メモリ21に記録されたループ動画像は、その後、図示せぬ表示部等に供給される。
 なお、以上においては、ループ動画像が生成されて出力されると説明したが、各セグメントの画像が結合されずに個別に画像メモリ21に記録され、出力されるようにしてもよい。そのような場合、セグメント結合処理部26は、各セグメントのセグメント画像およびセグメントループ動画像を結合せずに、そのまま画像メモリ21に記録させる。
 この場合、各セグメントのセグメントループ動画像の周期は、必ずしも同じである必要はなく、各セグメントループ動画像の周期が異なる場合には、上述したように、ステップS15において積算SAD値の再計算は行なわれない。
 このように、各セグメントのセグメント画像とセグメントループ動画像が対応付けられて画像メモリ21に記録される場合、例えば、後段の装置では、これらのセグメント画像とセグメントループ動画像が結合されながら、ループ動画像として再生される。また、各セグメントループ動画像が個別に1つの動画像として再生されるようにしてもよい。
 さらに、以上においては、動きセグメントのセグメントループ動画像が生成されると説明したが、ループ動画像を再生するための動きセグメントの画像は、ループ動画像として再生可能な画像であれば、どのような形式の画像であってもよい。例えば、連続する複数フレームの連写画像上における動きセグメントの領域の画像が切り出され、それらの動きセグメントの画像からなる画像群が、ループ動画像を再生するための動きセグメントの画像として出力されてもよい。この場合、動きセグメントの画像群を構成する各画像を順番に繰り返し表示すれば、それらの画像群を、1つのループ動画像として再生可能である。
 以上のようにして、画像処理装置11は、連写画像をいくつかのセグメントに分割し、セグメントごとにセグメント画像またはセグメントループ動画像を生成する。そして、画像処理装置11は、これらのセグメント画像とセグメントループ動画像を結合して、1つのループ動画像を生成する。
 このように、セグメントごとにセグメント画像またはセグメントループ動画像を生成することで、連写画像に複雑な動きをする被写体が複数含まれている場合でも、セグメントごとに、そのセグメントに適した高品位な画像を生成することができる。これにより、より簡単に高品位なループ動画像を得ることができる。
 例えばセグメント分割を行なわずにループ動画像を生成する場合、連写画像に単一の動きではなく、複数の異なる動きの被写体が含まれていると、各被写体の動きを勘案した折衷案的なループ動画像が生成されてしまい、望ましいループ動画像を得ることができない。
 これに対して、連写画像上の輝度変化や被写体の動きに応じて連写画像をセグメントに分割し、処理が施される単位を小分けにすることで、結果として最終的に得られるループ動画像の品質を向上させることができる。例えば、セグメントごとに、セグメントループ動画像の最適な遷移タイミングを設定したり、各セグメントループ動画像に異なる繰り返し周期を与えたりすることができる。また、静止セグメントについては、処理を間引くことができるだけでなく、三次元NR処理により、高画質なセグメント画像を得ることができる。
〈変形例1〉
[画像処理装置の構成例]
 なお、以上においては、生成されたループ動画像が画像処理装置11から出力されると説明したが、ループ動画像が画像処理装置11において再生されるようにしてもよい。
 そのような場合、画像処理装置11は、例えば、図6に示すように構成される。なお、図6において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図6の画像処理装置11は、図4の画像処理装置11の構成に、さらに表示制御部51および表示部52が設けられている点で図4の画像処理装置11と異なり、他の構成は同じとなっている。
 表示制御部51は、画像メモリ21からループ動画像を読み出して、表示部52に供給し、ループ動画像を表示させる。表示部52は、表示制御部51の制御にしたがって、表示制御部51から供給されたループ動画像を表示する。
〈第2の実施の形態〉
[撮影装置の構成例]
 また、以上においては連写画像が入力されるとループ動画像が生成される例について説明したが、連写画像が入力されると、その連写画像を素材として高品位なループ動画像の生成が可能か否かが判定され、必要に応じてその判定結果が表示されるようにしてもよい。
 例えば、ユーザがカメラを被写体に向けて構えている段階で得られるプレビュー画像が連写画像とされ、シャッタ押下により撮影される画像が高解像度静止画像とされるものとする。この場合、連写画像から高品位なループ動画像が生成できないと判定されたときには、その旨のエラー通知が表示される。
 また、連写画像から高品位なループ動画像が生成できると判定されたときには、シャッタが押下されると、高解像度静止画像が撮影されるとともに、ループ動画像が生成される。これにより、一度のシャッタ操作で、ループ動画像の撮影ができるだけでなく、プレビュー段階で、ループ動画像が生成可能かをユーザに通知することができる。
 このような場合、撮影装置は、例えば図7に示すように構成される。
 撮影装置81は、例えばカメラなどかならなり、ユーザの操作に応じて静止画像や動画像を撮影する。撮影装置81では、CPU(Central Processing Unit)91、メモリ92、撮像素子93、ディスプレイコントローラ94、入力インターフェース95、外部機器インターフェース96、およびDSP(Digital Signal Processor)97がバス98を介して相互に接続されている。
 CPU91は、ユーザの操作に応じて、撮影装置81全体の動作を制御する。例えば、モードダイアル99が操作され、撮影モードが指定されると、モードダイアル99に対する操作に応じた信号が、モードダイアル99から入力インターフェース95を介してCPU91に供給される。すると、CPU91は、モードダイアル99からの信号に応じた撮影モードで、撮影処理を制御する。
例えば、撮影モードとして、高解像度静止画像を撮影する通常撮影モードと、ループ動画像を撮影するループ動画像撮影モードとが選択可能とされる。
 また、シャッタ100が操作されると、CPU91は、入力インターフェース95を介してシャッタ100から供給された信号に応じて、撮像素子93に画像を撮影させる。撮像素子93は、例えばCCD(Charge Coupled Devices)などからなり、レンズ101を介して被写体から入射してきた光を受光して光電変換することで、画像を撮影する。撮像素子93により撮影された画像は、メモリ92に供給されて一時的に保持された後、必要に応じてDSP97により画像処理が施され、外部機器インターフェース96を介して記録部102に供給されたり、ディスプレイコントローラ94を介して表示部103に供給されたりする。
 記録部102は、外部機器インターフェース96から供給された画像等のデータを記録する。表示部103は、ディスプレイコントローラ94から供給された画像を表示する。
[画像処理部の機能的構成例]
 次に、図7のCPU91およびDSP97がプログラムを実行することで実現される画像処理部の構成例について説明する。図8は、画像処理部の機能的な構成例を示す図である。なお、図8において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 画像処理部131は、画像メモリ21、位置合わせ部22、セグメント計算部23、ループ動画像計算部25、セグメント結合処理部26、およびエラー通知部141から構成される。
 画像メモリ21には、撮影装置81によりプレビュー画像として撮影された、低解像度の連写画像と、撮影装置81により撮影された高解像度の高解像度静止画像とが記録される。また、画像メモリ21には、セグメント結合処理部26により生成されたループ動画像も記録される。
 セグメント結合処理部26は、セグメント計算部23からのセグメントマップに基づいて、ループ動画像計算部25からのセグメントループ動画像およびセグメント画像と、画像メモリ21からの高解像度静止画像とから、ループ動画像を生成する。
 エラー通知部141は、ループ動画像計算部25から供給された連写画像の各動きセグメントの積算SAD値に基づいて、連写画像のループ動画像化が可能か否かを判定し、その判定結果を出力する。
[撮影処理の説明]
 次に、撮影装置81により行なわれる撮影処理について説明する。ユーザにより撮影装置81が操作され、画像の撮影開始が指示されると、撮影装置81は撮影処理を開始して、ユーザの操作に応じて画像を撮影する。以下、図9のフローチャートを参照して、撮影装置81による撮影処理について説明する。
 ステップS51において、CPU91は、モードダイアル99から供給される信号に基づいて、通常撮影モードが選択されているか否かを判定する。
 ステップS51において通常撮影モードが選択されていると判定された場合、ステップS52において、撮影装置81は、ユーザによるシャッタ100の操作に応じて、高解像度静止画像を撮影し、撮影処理は終了する。
 すなわち、撮像素子93は、レンズ101から入射した光を光電変換して高解像度静止画像を撮影し、メモリ92に記録させる。メモリ92に記録された高解像度静止画像は、必要に応じてDSP97により処理されて、記録部102に供給され、記録される。
 これに対して、ステップS51において、通常撮影モードが選択されていないと判定された場合、つまりループ動画像撮影モードが選択されている場合、処理はステップS53に進む。
 ステップS53において、撮影装置81はループ動画像生成処理を行なって、撮影処理は終了する。なお。ループ動画像生成処理では、ループ動画像の撮影が行なわれる。
[ループ動画像生成処理の説明]
 次に、図10のフローチャートを参照して、図9のステップS53の処理に対応するループ動画像生成処理について説明する。
 ステップS81において、撮影装置81は、プレビュー撮影を開始する。すなわち、撮像素子93は、CPU91の指示にしたがって、レンズ101から入射した光を光電変換し、その結果得られた連写画像を表示部103および画像メモリ21に供給する。撮像素子93では、所定の時間間隔で各フレームの連写画像が撮影されていく。
 画像メモリ21は、撮像素子93から供給された連写画像を一時的に記録する。また、表示部103は、ディスプレイコントローラ94を介して撮像素子93から供給された連写画像を表示する。これにより、ユーザは、表示部103に表示されたプレビュー画像としての連写画像を見ながら、これから撮影しようとするループ動画像の画角や構図を決めることができる。
 ステップS82において、位置合わせ部22は、画像メモリ21から連写画像を読み出して位置合わせ処理を行い、位置合わせされた連写画像を画像メモリ21に供給して記録させる。ステップS82では、図5のステップS12と同様の処理が行なわれる。
 すなわち、例えば、RANSAC法などにより射影変換行列が求められ、求められた射影変換行列により処理対象画像とされた連写画像が射影変換されて、連写画像の位置合わせが行なわれる。このようにして位置合わせが行なわれた連写画像は、画像メモリ21に記録された後、セグメント計算部23およびループ動画像計算部25に供給される。
 ステップS83において、セグメント計算部23は、画像メモリ21から供給された連写画像に対してセグメンテーションを行い、連写画像をいくつかのセグメントに分割する。そして、セグメント計算部23は、セグメンテーションにより得られたセグメントマップを、ループ動画像計算部25に供給する。
 ステップS84において、ループ動画像計算部25は、画像メモリ21からの連写画像と、セグメント計算部23からのセグメントマップとに基づいて、動きセグメントごとに積算SAD値を算出する。
 例えば、ループ動画像計算部25は、複数の連写画像のフレームのうち、最短周期長Lminに示されるフレーム数以上離れた任意の2つのフレームを、処理対象のフレームとする。そして、ループ動画像計算部25は、処理対象のフレームを中心とする、積算タップ長Lsadに示される数の連続するフレームの区間について、積算SAD値を求める。なお、積算SAD値の算出時においては、連写画像上の処理対象となっている動きセグメントの領域内の画素のみが用いられて、差分絶対値和が算出される。
 ループ動画像計算部25は、処理対象とするフレームのペアを変化させながら、各フレームのペアについて積算SAD値を算出し、算出された積算SAD値の最小値を、処理対象となっている動きセグメントの積算SAD値とする。ループ動画像計算部25は、このようにして求めた各動きセグメントの積算SAD値を、エラー通知部141に供給する。
 ステップS85において、エラー通知部141は、ループ動画像計算部25から供給された各動きセグメントの積算SAD値に基づいて、連写画像のループ動画像化が可能であるか否かを判定する。例えば、エラー通知部141は、各動きセグメントの積算SAD値のうちの最も小さい積算SAD値が、予め定められた所定の閾値以下である場合、ループ動画像化が可能であると判定する。
 ステップS85において、ループ動画像化が可能でないと判定された場合、ステップS86において、エラー通知部141は、エラー通知を行なう。例えば、エラー通知部141は、連写画像のループ動画像化ができない旨の情報、つまりループ動画像が撮影できない旨の情報を生成し、生成した情報を表示部103に供給して表示させる。
 これにより、ユーザは、連写画像として撮影された被写体が、ループ動画像の撮影には適していないことを知ることができる。したがって、ユーザは、被写体を変えたり、画角を変えたりして所望のループ動画像が撮影できるように対応することができる。
 エラー通知が行なわれると、その後、処理はステップS86からステップS82に戻り、上述した処理が繰り返される。すなわち、新たに撮影された複数フレームの連写画像に基づいて、その連写画像のループ動画像化が可能であるかが判定される。
 なお、ユーザへのエラー通知は、文字メッセージや図形を表示部103に表示させることで行なわれてもよいし、音声により行なわれるようにしてもよい。
 また、ステップS85において、ループ動画像化が可能であると判定された場合、ステップS87において、撮像素子93は、高解像度静止画像を撮影する。すなわち、ユーザによりシャッタ100が押下されると、CPU91は撮像素子93に対して、高解像度静止画像の撮影を指示する。
 撮像素子93は、CPU91の指示に応じて、レンズ101から入射した光を光電変換し、その結果得られた高解像度静止画像を画像メモリ21に供給する。ここで、高解像度静止画像は、連写画像よりも解像度が高い、つまり画素数の多い静止画像である。
 なお、ステップS85において、ループ動画像化が可能であると判定された場合に、エラー通知部141が、表示部103にループ動画像の撮影(生成)が可能である旨の表示をさせるようにしてもよい。この表示は、例えば文字メッセージとされてもよいし、特定の図形や記号などとされてもよい。また、ループ動画像の撮影が可能である旨の音声が出力されるようにしてもよい。
 ステップS88において、位置合わせ部22は、画像メモリ21から高解像度静止画像と連写画像を読み出して、位置合わせ処理を行なう。
 例えば、位置合わせ部22は、ステップS85でループ動画像化が可能と判定された、複数フレームの位置合わせ前の連写画像と、ステップS87で撮影された高解像度静止画像とを画像メモリ21から読み出す。
 そして、位置合わせ部22は、連写画像を高解像度静止画像と同じ大きさ(解像度)にアップサンプリングして、高解像度静止画像を基準画像とし、アップサンプリング後の連写画像を処理対象画像として、連写画像の位置合わせを行なう。すなわち、RANSAC法などにより射影変換行列が求められ、連写画像が射影変換行列により射影変換される。
 このようにして位置合わせが行なわれた連写画像は、画像メモリ21に記録された後、セグメント計算部23およびループ動画像計算部25に供給される。また、画像メモリ21に記録されている高解像度静止画像は、セグメント結合処理部26に供給される。
 ステップS89において、セグメント計算部23は、画像メモリ21から供給された連写画像に対してセグメンテーションを行い、連写画像をいくつかのセグメントに分割する。そして、セグメント計算部23は、セグメンテーションにより得られたセグメントマップを、ループ動画像計算部25およびセグメント結合処理部26に供給する。
 ステップS90において、セグメント結合処理部26は、セグメント計算部23からのセグメントマップと、画像メモリ21からの高解像度静止画像とに基づいて、各静止セグメントのセグメント画像を生成する。例えば、セグメント結合処理部26は、高解像度静止画像における静止セグメントの領域の画像を切り出して、切り出した画像をそのまま静止セグメントのセグメント画像とする。
 ステップS90の処理が行なわれると、その後、ステップS91乃至ステップS96の処理が行なわれるが、これらの処理は図5のステップS15乃至ステップS20の処理と同様であるので、その説明は省略する。ステップS91乃至ステップS96では、各動きセグメントのセグメント画像またはセグメントループ動画像が生成されて、ループ動画像計算部25からセグメント結合処理部26に供給される。
 但し、ステップS91乃至ステップS96では、高解像度静止画像と同じ解像度に変換(アップサンプリング)された連写画像が用いられて、セグメント画像およびセグメントループ動画像の生成が行なわれる。
 ステップS96において、全ての動きセグメントを処理したと判定された場合、処理はステップS97に進む。
 ステップS97において、セグメント結合処理部26は、セグメント計算部23から供給されたセグメントマップに基づいて、セグメント結合処理を行い、ループ動画像を生成する。すなわち、セグメント結合処理部26は、ステップS90の処理で生成したセグメント画像と、ループ動画像計算部25から供給されたセグメント画像およびセグメントループ動画像とを結合し、1つのループ動画像を生成する。
 例えば、図3を参照して説明したように、各セグメントのセグメント画像、およびセグメントループ動画像の対応するフレームの画像が複製されて、それらのセグメントと同じ位置に配置されて結合され、ループ動画像の1フレーム分の画像とされる。
 セグメント結合処理部26は、ループ動画像を生成すると、生成したループ動画像を画像メモリ21に供給して記録させる。そして、ループ動画像生成処理は終了し、その後、処理は図9のステップS53に戻り、撮影処理も終了する。
 このようにして画像メモリ21に記録されたループ動画像は、その後、記録部102に供給されて記録されたり、表示部103に供給されて表示されたりする。なお、各セグメントの画像が結合されずに個別に画像メモリ21に記録され、出力されるようにしてもよい。
 以上のようにして、撮影装置81は、連写画像が入力された段階で、連写画像がループ動画像化に適しているかを判定し、連写画像がループ動画像化に適していない場合には、ループ動画像化できない旨をユーザに対して提示する。これにより、ユーザは、プレビュー撮影の段階で、ループ動画像の撮影ができないことを知ることができ、直ちに撮影をやり直すことができる。したがって、ユーザは、適切にループ動画像の撮影をすることができ、より簡単に高品位なループ動画像を得ることができるようになる。
 また、撮影装置81では、セグメントごとにセグメント画像またはセグメントループ動画像が生成されるので、連写画像に複雑な動きをする被写体が複数含まれている場合でも、セグメントごとに、そのセグメントに適した高品位な画像を生成することができる。これにより、より高品位なループ動画像を得ることができる。
〈変形例2〉
[画像処理部の構成例]
 なお、以上においては、連写画像をセグメントに分割してループ動画像を生成する場合に、連写画像がループ動画像化に適していないとき、その旨をユーザに通知すると説明したが、連写画像がセグメント分割されない場合にも、ユーザに対して、そのような通知がされるようにしてもよい。
 そのような場合、撮影装置81のCPU91およびDSP97がプログラムを実行することで実現される画像処理部は、例えば図11に示す構成とされる。なお、図11において、図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 画像処理部171は、画像メモリ21、位置合わせ部22、ループ動画像計算部25、およびエラー通知部141から構成される。
 画像メモリ21には、撮影装置81により撮影された連写画像と、ループ動画像計算部25により生成されたループ動画像が記録される。ループ動画像計算部25は、画像メモリ21から供給された連写画像に基づいて、ループ動画像を生成する。
[ループ動画像生成処理の説明]
 次に、図12のフローチャートを参照して、画像処理部が図11に示す構成とされる場合に行なわれる処理について説明する。この場合、撮影装置81により、図9のフローチャートを参照して説明した撮影処理が行なわれる。但し、この場合、ステップS53の処理では、連写画像がセグメント分割されずにループ動画像の生成が行なわれる。
 以下、図12のフローチャートを参照して、連写画像がセグメント分割されずにループ動画像が生成される場合における、ステップS53の処理に対応するループ動画像生成処理について説明する。
 ステップS121において、撮影装置81は撮影を開始する。すなわち、撮像素子93は、CPU91の指示にしたがって、レンズ101から入射した光を光電変換し、その結果得られた連写画像を表示部103および画像メモリ21に供給する。撮像素子93では、所定の時間間隔で各フレームの連写画像が撮影されていく。
 ステップS122において、位置合わせ部22は、画像メモリ21から連写画像を読み出して位置合わせ処理を行い、位置合わせされた連写画像を画像メモリ21に供給して記録させる。ステップS122では、図10のステップS82と同様の処理が行なわれる。位置合わせが行なわれた連写画像は、画像メモリ21に記録された後、ループ動画像計算部25に供給される。
 ステップS123において、ループ動画像計算部25は、画像メモリ21からの連写画像に基づいて、連写画像の積算SAD値を算出する。
 例えば、ループ動画像計算部25は、複数の連写画像のフレームのうち、最短周期長Lminに示されるフレーム数以上離れた任意の2つのフレームを処理対象のフレームとする。そして、ループ動画像計算部25は、処理対象のフレームを中心とする、積算タップ長Lsadに示される数の連続するフレームの区間について、積算SAD値を求める。なお、積算SAD値の算出時には、連写画像全体の画素が用いられて、差分絶対値和が算出される。
 ループ動画像計算部25は、処理対象とするフレームのペアを変化させながら、各フレームのペアについて積算SAD値を算出し、算出された積算SAD値の最小値を、連写画像の積算SAD値とする。ループ動画像計算部25は、このようにして求めた連写画像の積算SAD値を、エラー通知部141に供給する。
 ステップS124において、エラー通知部141は、ループ動画像計算部25から供給された連写画像の積算SAD値に基づいて、連写画像のループ動画像化が可能であるか否かを判定する。例えば、エラー通知部141は、連写画像の積算SAD値が、予め定められた所定の閾値以下である場合、ループ動画像化が可能であると判定する。
 ステップS124において、ループ動画像化が可能でないと判定された場合、ステップS125において、エラー通知部141は、エラー通知を行なう。例えば、エラー通知部141は、連写画像のループ動画像化ができない旨の情報を表示部103に供給して表示させる。
 エラー通知が行なわれると、その後、処理はステップS125からステップS122に戻り、上述した処理が繰り返される。すなわち、新たに撮影された複数フレームの連写画像に基づいて、その連写画像のループ動画像化が可能であるかが判定される。
 また、ステップS124において、ループ動画像化が可能であると判定された場合、ステップS126において、ループ動画像計算部25は、連写画像に基づいて、連写画像のループ動画像を生成する。
 例えば、ループ動画像計算部25は、ステップS123の処理で算出した積算SAD値が最小となるときのフレームのペアを処理対象のフレームとして、それらの2つのフレームを、それぞれ開始端および終了端とする区間の連写画像を抽出する。そして、ループ動画像計算部25は、抽出した区間の連写画像に対して、上述したクロスフェード処理、グラフカット法による処理、ランダムディゾルブなどを行なってループ動画像を生成し、画像メモリ21に供給する。
 このようにして得られたループ動画像は、連写画像がセグメントに分割されずに、連写画像全体がループ化されて得られたループ動画像である。ループ動画像計算部25は、ループ動画像を生成すると、生成したループ動画像を画像メモリ21に供給して記録させる。そしてループ動画像生成処理は終了し、その後、処理は図9のステップS53に戻り、撮影処理も終了する。
 以上のようにして、撮影装置81は、連写画像がループ動画像化に適していない場合には、ループ動画像化できない旨をユーザに対して提示する。これにより、ユーザは、直ちに撮影をやり直すことができる。したがって、適切にループ動画像の撮影をすることができ、より簡単に高品位なループ動画像を得ることができるようになる。
 また、図5のフローチャートを参照して説明したように、連写画像のみが用いられて各セグメントのセグメント画像とセグメントループ動画像から、ループ動画像を生成する場合にも、連写画像の撮影時に、連写画像をループ動画像化可能か否か判定してもよい。そのような場合においても、連写画像がループ動画像化可能か否かの判定結果が、適宜出力される。
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記録部508、ネットワークインターフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
 そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 11 画像処理装置, 22 位置合わせ部, 23 セグメント計算部, 24 三次元NR部, 25 ループ動画像計算部, 26 セグメント処理結合部, 81 撮影装置, 99 モードダイアル, 141 エラー通知部

Claims (15)

  1.  異なる時刻に撮影された複数の撮影画像に基づいて、前記撮影画像をいくつかのセグメントに分割するセグメント計算部と、
     前記複数の前記撮影画像のうちの連続するいくつかの前記撮影画像から、動きのある被写体が含まれる前記セグメントである動きセグメントの画像を切り出し、前記動きセグメントの画像に基づいて、ループ動画像として再生可能な画像を生成するループ動画像生成部と
     を備える画像処理装置。
  2.  前記ループ動画像は、連続する複数の前記動きセグメントの画像のうち、類似度の高い2つの画像の間にある画像が順番に繰り返し表示される動画像である
     請求項1に記載の画像処理装置。
  3.  前記複数の前記撮影画像のうちのいくつかの前記撮影画像から、動きのない被写体が含まれる前記セグメントである静止セグメントの画像を切り出して、前記静止セグメントの画像に基づいて、1つの静止画像であるセグメント画像を生成するセグメント画像生成部をさらに備える
     請求項1に記載の画像処理装置。
  4.  前記ループ動画像として再生可能な画像と前記セグメント画像とを結合して、1つのループ動画像を生成するセグメント結合処理部をさらに備える
     請求項3に記載の画像処理装置。
  5.  前記セグメント画像生成部は、いくつかの前記静止セグメントの画像を重ね合わせることで、前記セグメント画像を生成する
     請求項3に記載の画像処理装置。
  6.  前記ループ動画像生成部は、連続する複数の前記動きセグメントの画像のうち、類似度の高い2つの画像がある場合、前記類似度の高い2つの画像を含む、連続する複数の前記動きセグメントの画像に基づいて、前記ループ動画像として再生可能な画像を生成する
     請求項1に記載の画像処理装置。
  7.  前記ループ動画像生成部は、連続する複数の前記動きセグメントの画像のうち、類似度の高い2つの画像がない場合、1つの前記動きセグメントの画像に基づいて、1つの静止画像であるセグメント画像を生成する
     請求項6に記載の画像処理装置。
  8.  前記撮影画像よりも解像度の高い高解像度画像から、動きのない被写体が含まれる前記セグメントである静止セグメントに対応する領域の画像を切り出し、前記静止セグメントに対応する領域の画像に基づいて、1つの静止画像であるセグメント画像を生成するセグメント画像生成部をさらに備え、
     前記ループ動画像生成部は、前記高解像度画像と同じ解像度に変換された前記撮影画像に基づいて、前記ループ動画像として再生可能な画像を生成する
     請求項1に記載の画像処理装置。
  9.  撮影モードを切り替えるための操作部をさらに備え、
     前記操作部に対する操作により、前記撮影モードとして所定のモードが選択された場合、前記撮影画像および前記高解像度画像が撮影される
     請求項8に記載の画像処理装置。
  10.  前記高解像度画像の撮影前に、前記複数の前記撮影画像が撮影され、
     前記複数の前記撮影画像における前記動きセグメントの画像のうち、類似度の高い2つの画像があるか否かを判定し、その判定結果を出力する通知部をさらに備える
     請求項9に記載の画像処理装置。
  11.  前記類似度の高い2つの画像があると判定された場合、前記高解像度画像が撮影され、前記ループ動画像として再生可能な画像、および前記セグメント画像が生成される
     請求項10に記載の画像処理装置。
  12.  異なる時刻に撮影された複数の撮影画像に基づいて、前記撮影画像をいくつかのセグメントに分割するセグメント計算部と、
     前記複数の前記撮影画像のうちの連続するいくつかの前記撮影画像から、動きのある被写体が含まれる前記セグメントである動きセグメントの画像を切り出し、前記動きセグメントの画像に基づいて、ループ動画像として再生可能な画像を生成するループ動画像生成部と
     を備える画像処理装置の画像処理方法であって、
     前記セグメント計算部が、前記撮影画像を前記セグメントに分割し、
     前記ループ動画像生成部が、前記ループ動画像として再生可能な画像を生成する
     ステップを含む画像処理方法。
  13.  異なる時刻に撮影された複数の撮影画像に基づいて、前記撮影画像をいくつかのセグメントに分割し、
     前記複数の前記撮影画像のうちの連続するいくつかの前記撮影画像から、動きのある被写体が含まれる前記セグメントである動きセグメントの画像を切り出し、前記動きセグメントの画像に基づいて、ループ動画像として再生可能な画像を生成する
     ステップを含む処理をコンピュータに実行させるプログラム。
  14.  異なる時刻に撮影された複数の撮影画像のなかに類似度の高い2つの前記撮影画像があるか否かを判定し、その判定結果を出力する通知部と、
     前記複数の前記撮影画像のうち、類似度の高い2つの前記撮影画像を含む、連続する複数の前記撮影画像に基づいて、ループ動画像として再生可能な画像を生成するループ動画像生成部と
     を備える画像処理装置。
  15.  異なる時刻に撮影された複数の撮影画像のなかに類似度の高い2つの前記撮影画像があるか否かを判定し、その判定結果を出力する通知部と、
     前記複数の前記撮影画像のうち、類似度の高い2つの前記撮影画像を含む、連続する複数の前記撮影画像に基づいて、ループ動画像として再生可能な画像を生成するループ動画像生成部と
     を備える画像処理装置の画像処理方法であって、
     前記通知部が、前記判定結果を出力し、
     前記ループ動画像生成部が、前記ループ動画像として再生可能な画像を生成する
     ステップを含む画像処理方法。
PCT/JP2012/056080 2011-03-18 2012-03-09 画像処理装置および方法、並びにプログラム Ceased WO2012128066A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
BR112012028780A BR112012028780A2 (pt) 2011-03-18 2012-03-09 dispositivo e método de processamento de imagem, e, programa
RU2012147781/08A RU2012147781A (ru) 2011-03-18 2012-03-09 Устройство, способ и программа обработки изображений
CA2798579A CA2798579A1 (en) 2011-03-18 2012-03-09 Image processing device and method, and program
US13/696,711 US9390535B2 (en) 2011-03-18 2012-03-09 Image processing device and method, and program
EP12760064.1A EP2557773B1 (en) 2011-03-18 2012-03-09 Image processing device, method and program
CN201280001329.9A CN102893595B (zh) 2011-03-18 2012-03-09 图像处理装置和方法以及程序
US15/168,445 US10277812B2 (en) 2011-03-18 2016-05-31 Image processing to obtain high-quality loop moving image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-060651 2011-03-18
JP2011060651A JP5733565B2 (ja) 2011-03-18 2011-03-18 画像処理装置および方法、並びにプログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/696,711 A-371-Of-International US9390535B2 (en) 2011-03-18 2012-03-09 Image processing device and method, and program
US15/168,445 Continuation US10277812B2 (en) 2011-03-18 2016-05-31 Image processing to obtain high-quality loop moving image

Publications (1)

Publication Number Publication Date
WO2012128066A1 true WO2012128066A1 (ja) 2012-09-27

Family

ID=46879220

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/056080 Ceased WO2012128066A1 (ja) 2011-03-18 2012-03-09 画像処理装置および方法、並びにプログラム

Country Status (8)

Country Link
US (2) US9390535B2 (ja)
EP (1) EP2557773B1 (ja)
JP (1) JP5733565B2 (ja)
CN (2) CN102893595B (ja)
BR (1) BR112012028780A2 (ja)
CA (1) CA2798579A1 (ja)
RU (1) RU2012147781A (ja)
WO (1) WO2012128066A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013146508A1 (ja) * 2012-03-30 2013-10-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5924127B2 (ja) * 2012-05-24 2016-05-25 カシオ計算機株式会社 動画生成装置、動画生成方法、及び、プログラム
JP6021594B2 (ja) * 2012-11-08 2016-11-09 オリンパス株式会社 撮像装置及びプログラム
US20140241573A1 (en) * 2013-02-27 2014-08-28 Blendagram, Inc. System for and method of tracking target area in a video clip
JP5906524B2 (ja) 2013-04-24 2016-04-20 株式会社モルフォ 画像合成装置、画像合成方法およびプログラム
WO2014203901A1 (ja) * 2013-06-19 2014-12-24 株式会社トプコン 眼科撮影装置および眼科画像表示装置
KR101533309B1 (ko) * 2013-11-25 2015-07-03 신동현 시네마 그래프 형성방법
WO2015081528A1 (en) * 2013-12-05 2015-06-11 Nokia Technologies Oy Causing the display of a time domain video image
WO2016013634A1 (ja) * 2014-07-24 2016-01-28 国立研究開発法人科学技術振興機構 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム
FR3033919B1 (fr) * 2015-03-20 2018-09-07 Niel Vassort Thomas Procede de generation d'une sequence video cyclique
JP7009997B2 (ja) * 2015-12-04 2022-01-26 日本電産株式会社 動画生成システムおよび動画表示システム
JP6411991B2 (ja) * 2015-12-16 2018-10-24 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
KR102591581B1 (ko) * 2016-01-07 2023-10-20 삼성전자주식회사 촬영 디바이스 및 그 제어 방법
CN106447607B (zh) * 2016-08-25 2017-11-03 中国科学院长春光学精密机械与物理研究所 一种图像拼接方法及装置
US10176845B2 (en) 2016-09-23 2019-01-08 Apple Inc. Seamless forward-reverse video loops
US9934818B1 (en) 2016-09-23 2018-04-03 Apple Inc. Automated seamless video loop
US10122940B2 (en) * 2016-09-23 2018-11-06 Apple Inc. Automated seamless video loop
US10062410B2 (en) * 2016-09-23 2018-08-28 Apple Inc. Automated seamless video loop
US10062409B2 (en) 2016-09-23 2018-08-28 Apple Inc. Automated seamless video loop
JP6883761B2 (ja) * 2016-10-17 2021-06-09 パナソニックIpマネジメント株式会社 プログラム生成方法、プログラム生成装置および制御プログラム
US10734025B2 (en) 2017-05-16 2020-08-04 Apple Inc. Seamless output video variations for an input video
DE112017007815T5 (de) * 2017-08-03 2020-04-16 Eizo Corporation Bildverarbeitungsvorrichtung, Bildvergrbeitungsverfahren und Bildverarbeitungsprogramm
JP6572500B1 (ja) * 2018-03-14 2019-09-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 画像処理装置、撮像装置、移動体、画像処理方法、及びプログラム
CN108765522B (zh) * 2018-05-15 2022-08-02 维沃移动通信有限公司 一种动态图像生成方法及移动终端
CN109922256B (zh) * 2019-01-28 2020-09-15 维沃移动通信有限公司 拍摄方法及终端设备
CN112686981B (zh) * 2019-10-17 2024-04-12 华为终端有限公司 画面渲染方法、装置、电子设备及存储介质
US11798136B2 (en) 2021-06-10 2023-10-24 Bank Of America Corporation Automated teller machine for detecting security vulnerabilities based on document noise removal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167095A (ja) * 1999-09-27 2001-06-22 Mitsubishi Electric Corp 画像検索システムおよび画像検索方法
JP2006130148A (ja) * 2004-11-08 2006-05-25 Aruze Corp 遊技機及びシミュレーションプログラム
JP2008149113A (ja) * 2006-11-24 2008-07-03 Heiwa Corp 遊技機
WO2009083854A2 (en) * 2007-12-20 2009-07-09 Koninklijke Philips Electronics N.V. Segmentation of image data

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5404316A (en) 1992-08-03 1995-04-04 Spectra Group Ltd., Inc. Desktop digital video processing system
US5752160A (en) 1995-05-05 1998-05-12 Dunn; Matthew W. Interactive entertainment network system and method with analog video startup loop for video-on-demand
US5607356A (en) * 1995-05-10 1997-03-04 Atari Corporation Interactive game film
US6466701B1 (en) * 1997-09-10 2002-10-15 Ricoh Company, Ltd. System and method for displaying an image indicating a positional relation between partially overlapping images
US6636220B1 (en) * 2000-01-05 2003-10-21 Microsoft Corporation Video-based rendering
US7030902B2 (en) * 2001-01-23 2006-04-18 Kenneth Jacobs Eternalism, a method for creating an appearance of sustained three-dimensional motion-direction of unlimited duration, using a finite number of pictures
JP4241709B2 (ja) * 2005-10-11 2009-03-18 ソニー株式会社 画像処理装置
TWI323605B (en) * 2006-05-12 2010-04-11 Realtek Semiconductor Corp Apparatus and method for reducing temporal noise
US7921120B2 (en) * 2006-11-30 2011-04-05 D&S Consultants Method and system for image recognition using a similarity inverse matrix
US8103108B2 (en) * 2007-05-01 2012-01-24 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method
US8379029B2 (en) 2007-05-04 2013-02-19 Autodesk, Inc. Looping motion space registration for real-time character animation
US20090060348A1 (en) * 2007-08-28 2009-03-05 Donald Martin Monro Determination of Image Similarity
US8200063B2 (en) * 2007-09-24 2012-06-12 Fuji Xerox Co., Ltd. System and method for video summarization
JP5223318B2 (ja) * 2007-12-07 2013-06-26 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
EP2266057A1 (en) * 2008-02-28 2010-12-29 Ipharro Media, Gmbh Frame sequence comparison in multimedia streams
US8665326B2 (en) * 2009-01-30 2014-03-04 Olympus Corporation Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method
JP4752935B2 (ja) * 2009-03-06 2011-08-17 カシオ計算機株式会社 画像処理装置及び画像処理プログラム
US20110038612A1 (en) * 2009-08-13 2011-02-17 Imagine Ltd Live images
US9594960B2 (en) * 2010-09-14 2017-03-14 Microsoft Technology Licensing, Llc Visualizing video within existing still images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167095A (ja) * 1999-09-27 2001-06-22 Mitsubishi Electric Corp 画像検索システムおよび画像検索方法
JP2006130148A (ja) * 2004-11-08 2006-05-25 Aruze Corp 遊技機及びシミュレーションプログラム
JP2008149113A (ja) * 2006-11-24 2008-07-03 Heiwa Corp 遊技機
WO2009083854A2 (en) * 2007-12-20 2009-07-09 Koninklijke Philips Electronics N.V. Segmentation of image data

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ARNO SCHODL; RICHARD SZELISKI; DAVID H. SALESIN; IRFAN ESSA: "Video textures", PROCEEDINGS OF SIGGRAPH 2000, July 2000 (2000-07-01), pages 489 - 4 98
BROWN, M.; LOWE, D. G.: "Proceedings of the Ninth IEEE international Conference on Computer Vision", vol. 2, 13 October 2003, IEEE COMPUTER SOCIETY, article "Recognising Panoramas."
See also references of EP2557773A4
VIVEK KWATRA; ARNO SCHODL; IRFAN ESSA; GREG TURK; AARONBOBICK: "Graphcut Textures: Image and Video Synthesis Using Graph Cuts", TOAPPEAR IN PROC. ACM TRANSACTIONS ON GRAPHICS, SIGGRAPH, 2003

Also Published As

Publication number Publication date
US10277812B2 (en) 2019-04-30
US20130051771A1 (en) 2013-02-28
CA2798579A1 (en) 2012-09-27
RU2012147781A (ru) 2014-05-20
CN102893595A (zh) 2013-01-23
CN106027891A (zh) 2016-10-12
US20160277677A1 (en) 2016-09-22
JP2012199613A (ja) 2012-10-18
BR112012028780A2 (pt) 2016-07-19
US9390535B2 (en) 2016-07-12
CN106027891B (zh) 2019-09-03
EP2557773A1 (en) 2013-02-13
JP5733565B2 (ja) 2015-06-10
EP2557773A4 (en) 2014-07-30
EP2557773B1 (en) 2019-05-08
CN102893595B (zh) 2016-08-03

Similar Documents

Publication Publication Date Title
JP5733565B2 (ja) 画像処理装置および方法、並びにプログラム
JP5347890B2 (ja) 画像処理装置および方法、並びにプログラム
JP4760973B2 (ja) 撮像装置及び画像処理方法
JP5105550B2 (ja) 画像合成装置及びプログラム
JP5418127B2 (ja) 画像処理装置および方法、並びにプログラム
JP2012242821A (ja) 表示画像生成方法
JP2012191486A (ja) 画像合成装置と画像合成方法およびプログラム
JP4483501B2 (ja) 静止画を動画再生するための前処理を行う画像処理装置、プログラム、および方法
JP2010050795A (ja) カメラ、画像合成方法、およびプログラム
JP4924228B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5267279B2 (ja) 画像合成装置及びプログラム
JP5402166B2 (ja) 画像合成装置及びプログラム
JP2009044329A (ja) プログラム、画像処理方法および画像処理装置
JP5476900B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP4742813B2 (ja) 画像処理装置および画像処理方法
JP2011041041A (ja) 撮像装置、撮像方法及びプログラム
JP5402148B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP5636660B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5493839B2 (ja) 撮像装置、画像合成方法及びプログラム
JP5354059B2 (ja) 撮像装置、画像処理方法及びプログラム
JP5381207B2 (ja) 画像合成装置及びプログラム
JP2009302665A (ja) 撮像装置および撮像装置用プログラム
JP2016092795A (ja) 動画像再生装置、および動画像再生方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280001329.9

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2798579

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 13696711

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012760064

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2012147781

Country of ref document: RU

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 9720/DELNP/2012

Country of ref document: IN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12760064

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112012028780

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112012028780

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20121109