JPH09181966A - 画像処理方法及び装置 - Google Patents

画像処理方法及び装置

Info

Publication number
JPH09181966A
JPH09181966A JP7335041A JP33504195A JPH09181966A JP H09181966 A JPH09181966 A JP H09181966A JP 7335041 A JP7335041 A JP 7335041A JP 33504195 A JP33504195 A JP 33504195A JP H09181966 A JPH09181966 A JP H09181966A
Authority
JP
Japan
Prior art keywords
image
blur
distance
subject
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7335041A
Other languages
English (en)
Inventor
Tetsuya Toyoda
哲也 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP7335041A priority Critical patent/JPH09181966A/ja
Publication of JPH09181966A publication Critical patent/JPH09181966A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

(57)【要約】 【課題】口径の小さいレンズを持つカメラで撮影された
画像から、大口径のレンズを備えたカメラで撮影したよ
うなボケ味を持った写真を得る。 【解決手段】この画像処理方法は、所定の視差を有し、
一対の撮影レンズを通過して同時撮影された一対の画像
と上記視差情報とを入力し、上記入力された情報に基づ
いて上記画像中の被写体群の距離分布を算出し、撮影レ
ンズの属性に依存するボケ情報を与えるためのボケパラ
メータを適宜選択し、上記算出された被写体群の距離分
布と、上記選択されたボケパラメータとに応じて、上記
被写体群に実際の撮影レンズによるものとは異なる光学
的ボケを付加し、上記ボケを付加した画像を出力するこ
とを特徴とする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像にボケを付加しボ
ケ味のある画像を生成する画像処理方法及び画像処理装
置に関するものである。
【0002】
【従来の技術】一般に、銀塩写真の画質は撮影レンズの
性能によるところが大きいとされているが、一眼レフレ
ックスカメラ等といった高級機と呼ばれるカメラの撮影
レンズは、口径が大きいため明るい像を得ることができ
る。
【0003】そして、被写体輝度が同じ場合であって
も、絞りとシャッタ速度の組み合わせを種々選択するこ
とにより被写界深度を変えることができ、その結果、主
要被写体以外の被写体のボケ具合を自由に制御できる。
高級機により魅力ある写真が得られるのはこのような理
由によるところが大きい。
【0004】
【発明が解決しようとする課題】しかしながら、上記大
口径のレンズを有したカメラは、一般に撮影レンズが大
型である為にカメラ全体が大型・重量化してしまうとい
う欠点がある。これに対して、レンズシャッタカメラや
レンズ付きフィルムは、小型・軽量であるという利点こ
そあるが、これらの撮影レンズは口径が小さく、被写界
深度は大きくなる為に、大口径のレンズを備えたカメラ
で撮影したようなボケ味のある写真を撮ることが困難で
ある。
【0005】本発明は、上記問題に鑑みてなされたもの
で、その目的とするところは、レンズシャッタカメラ等
といった口径の小さいレンズを備えたカメラで撮影され
た画像から、大口径のレンズを備えたカメラで撮影した
ようなボケ味を持った写真を得ることにある。
【0006】
【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様による画像処理方法は、所定の
視差を有する一対の撮影レンズを通過して同時撮影され
た一対の画像と上記視差情報とを入力し、上記入力され
た情報に基づいて上記画像中の被写体群の距離分布を算
出し、上記撮影レンズの属性に依存するボケ情報を与え
るためのボケパラメータを適宜選択し、上記算出された
被写体群の距離分布と上記選択されたボケパラメータと
に応じて上記被写体群に実際の撮影レンズによるものと
は異なるボケを付加し、上記ボケを付加した画像を出力
することを特徴とする。
【0007】そして、第2の態様による画像処理方法
は、上記パラメータは、撮影レンズの焦点距離、F値及
びピント位置の少なくともいずれかを含むことを特徴と
する。さらに、第3の態様による画像処理装置は、所定
の視差を有する一対の撮影レンズを通過して同時撮影さ
れた一対の画像と上記視差情報とを入力する入力手段
と、上記入力手段より入力された情報に基づいて、上記
画像中の被写体群の距離分布を算出する距離分布算出手
段と、上記撮影レンズの属性に依存するボケ情報を与え
るためのボケパラメータを適宜選択するパラメータ選択
手段と、上記距離分布算出手段により算出された被写体
群の距離分布と、上記パラメータ選択手段により選択さ
れたボケパラメータとに応じて、上記被写体群に実際の
撮影レンズによるものとは異なるボケを付加するボケ付
加手段と、上記ボケ付加手段によりボケを付加した画像
を出力する画像出力手段とを具備することを特徴とす
る。
【0008】
【実施の形態】以下、図面を参照して、本発明の実施の
形態について説明する。図1は本発明の実施の形態に係
る画像処理方法の概念図である。同図に於いて、画像
A,Bは、同一被写体を視差を持たせて撮影した画像の
組である。各被写体の各画像A,B上における位置(座
標)情報に基づいて、各被写体までの距離を算出し(ス
テップS1)、こうして算出された距離情報から各被写
体に付加すべきボケ量を算出し(ステップS2)、当該
ボケ量に基づいて画像A,Bにボケを付加して(ステッ
プS3)、生成画像を得る。
【0009】続いて、上記画像処理方法を実現する画像
処理装置について詳述する。図2は視差を有する画像の
組を撮影するカメラの構成を示す図である。同図に於い
て、カメラ1には2つのレンズ2a,2bが配設されて
おり、当該レンズ2a,2bを介して視差を有する2つ
の画像が同時に撮影される。カメラ1で被写体を撮影す
ると、潜像1及び潜像2がそれぞれフィルム3の領域4
a及び4bに露光される。ファインダ5は、ユーザーが
領域4aに撮像される被写体を確認するためのものであ
り、領域4aに撮像された画像に最終的にボケ付加処理
が施される。カメラ1で使用するフィルムは、長尺巻き
のカートリッジ付フィルムであり、現像後もフィルムは
カートリッジに収納され、スプールを回動させることに
より、当該フィルムの挿脱が可能な構造となっている。
【0010】図3は上記カメラ1で撮像された画像にボ
ケを付加するためのボケ付加装置100及び処理された
画像を表示する外部モニタ200の外観図である。同図
に於いて、ボケ付加装置100は、ユーザーが処理の内
容を指示する際に必要な情報を表示する液晶パネル11
と、ユーザーが操作を指示・選択する際に使用する指示
パッド12と、操作を決定するための決定釦13と、電
源をオン/オフするためのパワースイッチ14と、撮影
現像済みフィルムが収納されているフィルムカートリッ
ジ10を挿入するための挿入口15とからなる。ボケ付
加装置100と外部モニタ200とはケーブル300に
よって接続されている。
【0011】図4には上記ボケ付加装置100の詳細な
構成を示し説明する。同図に於いて、ボケ付加装置10
0には、フィルム3を照明する為のランプ21が配設さ
れており、当該ランプ21の照明によるフィルム3の画
像をCCD23に結像すべくレンズ22が配設されてい
る。そして、フィルム3上の画像をRGBフルカラーで
撮像するためにCCD23が配設されている。このCC
D23には、当該CCD23からの信号を増幅、ガンマ
変換、A/D変換するための信号処理回路24が接続さ
れており、当該信号処理回路24の出力は全体の制御を
司るCPU32に接続されている。
【0012】このCPU32は、各部を制御する制御機
能とボケ付加の為の画像処理機能及び処理に必要なパラ
メータを記憶する記憶部を備えており、該CPU32に
は、撮像した画像を一時記憶するRAM25,26と、
画像信号を液晶パネル11や外部モニタ200に適した
信号に変換するI/F回路27と、指示パッド12及び
決定釦13からなる操作指示部28と、フィルム3を巻
き取るためのスプール30と、スプール30を回動させ
るモータ29が接続されている。そして、上記モータ2
9とスプール30を係合させる為のギヤ31も設けられ
ており、更には上記スプール30とフィルムカートリッ
ジ10のスプールとは、不図示のギヤ列で連結されてお
り、連動して回転するような構成となっている。
【0013】以下、図5のフローチャートを参照して、
画像処理装置におけるボケ付加装置100の動作を詳細
に説明する。ユーザーがカメラ1で撮影したフィルムカ
ートリッジ10を挿入口15から挿入し、パワースイッ
チ14をONすると、処理が開始され、直ちにCPU3
2によりモータ29が駆動制御され、スプール30が回
動し、フィルム3がフィルムカートリッジ10より引き
出される(ステップS11)。
【0014】このフィルム3の引き出しは1駒目の露光
域で停止され、続いてランプ21の点灯及びCCD23
の駆動が行われて1駒目の画像が撮像される。撮像され
た画像信号は信号処理回路24にて増幅、ガンマ変換、
A/D変換処理が施され、その後、CPU32に転送さ
れる(ステップS12)。ここでの画像は、RGB各8
bitでA/D変換され、合計24bitのフルカラー
画像になる。
【0015】続いて、画像信号はCPU32よりI/F
回路27へ出力され、液晶パネル11に適した画像信号
に変換された後、液晶パネル11に表示される(ステッ
プS13)。ユーザーは、表示された画像を見て処理を
したい画像である場合は決定釦13を押し、他のコマの
処理を希望する場合は指示パッド12の右を押すことで
希望するコマを選択する。
【0016】指示パッド12の右が押された場合は(ス
テップS15をNOに分岐)、CPU23からの指示で
フィルム3が2駒分送られてステップS12に戻り(ス
テップS14)、次の駒の画像が液晶パネル11に表示
される。ここで、フィルム3が2駒分送られるのは、カ
メラ1で撮像された画像は2駒で1組であり、異なるシ
ーンを撮影した画像を表示するには2駒ずつ送る必要が
ある為である。
【0017】一方、決定釦13が押された場合は(ステ
ップS15をYESに分岐)、撮像、信号処理が行わ
れ、画像信号はRAM25に転送される(ステップS1
6)。続いて、1駒分のフィルム3が送られて(ステッ
プS17)、撮像、信号処理が行われ、画像信号はRA
M26に転送される(ステップS18)。ここで、RA
M26に記憶された画像はRAM25に記憶された画像
と同時刻に視差を持って撮影された画像であり、後に被
写体の距離を算出する為に用いられる。
【0018】続いて、処理はボケ付加処理に移る。即
ち、先ず液晶パネル11に図6のような「設定項目」メ
ニューが表示される。ユーザーは指示パッド12の上下
を押すことにより設定したい項目を選び、決定釦13を
押すことで各設定項目のサブメニューに入ることができ
る。各設定を終えた後に「設定終了」を選択することに
よりボケ付加処理の「パラメータ設定」を終了する(ス
テップS19)。ユーザーが設定をしなかった設定項目
に関しては、図6のようなデフォルト値がパラメータと
して用いられる。尚、「パラメータ設定」については後
に詳述する。
【0019】こうして設定されたパラメータを用いてC
PU32にて「ボケ付加処理」が行われ(ステップS2
0)、処理画像がCPU32よりI/F回路27へ出力
され外部モニタ200に適した画像信号に変換された
後、外部モニタ200に表示されて(ステップS2
1)、本シーケンスを終了する。
【0020】次に図6及び図7を参照して、上記「パラ
メータ設定」について詳述する。ユーザーが処理したい
駒を選び対象の画像が撮像された後、液晶パネル11に
は図6(a)に示されるような「設定項目」メニューが
表示される。
【0021】この図において、枠で囲まれている項目は
現在選択されている項目を示している。選択項目の変更
は、指示パッド12の上下を押下することにより行い、
選択項目の決定は、決定釦13を押下することにより行
う。「設定項目」の中の「レンズ種類設定」により、ユ
ーザーが用いたい撮影レンズの種類、即ち仮想の撮影レ
ンズを選択する。撮影レンズによって撮影される画角や
ボケの大きさが変化するので、これらを考慮して処理を
施すことにより、実際に撮影に用いたレンズとは異なる
レンズで撮影した場合の画像を生成することができる。
【0022】実際に「レンズ種類設定」を選択すると、
図6(b)に示されるような「レンズ種類設定」サブメ
ニューが表示される。「レンズ種類」のデフォルト値
は、「100mmF2」であり、サブメニュー表示直後
には、「100mmF2」が枠で囲まれている。ユーザ
ーが選択するレンズの変更及び決定を行うと、再び「設
定項目」メニューが表示される。
【0023】そして、「処理範囲設定」では、画像全体
の中で処理すべき範囲を設定する。図7(a)に示され
るように、ここではA〜Dの4種類の範囲から選択でき
るようになっている。これらA〜Dは、それぞれ50m
m、100mm、200mm、300mmのレンズで撮
影した場合の画角に等しく、「レンズ種類設定」で設定
する4種類のレンズに対応している。図7(a)は、B
を選択した場合の処理範囲の例示である。「処理範囲設
定」を選択すると、RAM1に記憶されている画像が液
晶パネル11に表示される。「処理範囲設定」のデフォ
ルト値はBであり、画像表示直後には処理範囲Bが実線
枠で表示されている。また、その他の範囲については点
線枠で表示されている。ユーザーが処理範囲の変更・決
定を行うと、再び「設定項目」メニューが表示される。
【0024】続いて、「Fナンバ設定」では、撮影時に
用いたい撮影レンズ、即ち仮想の撮影レンズのFナンバ
を設定する。撮影時のFナンバによって撮影される画像
のボケ具合が変化するので、これらを考慮してボケ付加
処理を施すことで、実際の撮影時のFナンバとは異なる
Fナンバで撮影した場合の画像を生成することができ
る。「Fナンバ設定」を選択すると、図6(c)に示さ
れるような「Fナンバ」サブメニューが表示される。
「Fナンバ」のデフォルト値は「2.8」であり、サブ
メニュー表示直後には「2.8」が枠で囲まれている。
ユーザーが選択するFナンバの変更・決定を行うと、再
び「設定項目」メニューが表示される。
【0025】そして、「ジャストピント位置設定」によ
り、ピントを合わせたい被写体の位置を設定する。本設
定には、撮影者からピントを合わせたい被写体までの距
離によりジャストピント位置を設定する「距離設定」
と、画像内の被写体の位置を指定することでジャストピ
ント位置を設定する「位置設定」との2種類の設定方法
がある。「距離設定」を選択すると、図6(e)に示さ
れるように「距離設定」サブメニューが表示される。
「距離設定」のデフォルト値は「5m」であり、サブメ
ニュー表示直後には「5m」が枠で囲まれている。ユー
ザーが選択する「距離」の変更、決定を行うと、再び
「設定項目」メニューが表示される。一方、「位置設
定」を選択すると、上記「レンズ種類設定」若しくは
「処理範囲設定」で設定されている処理範囲を上記液晶
パネル11に表示する。
【0026】図7(b)は「レンズ種類設定」を示して
おり、「100mmF2」若しくは「処理範囲設定」で
「B」を選択した場合に表示される画像の例である。こ
の図7(b)に示されるようなボインティングカーソル
を指示パッド12で移動させ決定釦13を押すことでジ
ャストピント位置を指定する。この図7(b)は人物の
額をジャストピント位置に設定した例である。以上の設
定を終了すると再び「設定項目」メニューが表示され
る。
【0027】上記「設定項目」メニューの中の「設定終
了」を選択することによって、以上のパラメータ設定が
終了する。設定されたパラメータを列挙すると、 レンズ種類(デフォルト値 100mmF2) 処理範囲 (デフォルト値 B) Fナンバ (デフォルト値 F2.8) ジャストピント位置(デフォルト値 5m) となる。
【0028】次に「ボケ付加処理」について詳述する。
フィルム3上の画像をCCD23にて撮像する際の撮像
範囲は、図8に示されるように、画像の左上に位置する
パーフォレーション3aと潜像4aを含むように設定さ
れている。このパーフォレーションを含んだ画像(画像
A)のパーフォレーションの左下隅に相当する画素の座
標位置を点Oとし、画像上の任意の点Pの座標位置を、
点Oを基準としてベクトルOPで表す。これは、後に被
写体距離を算出する際に、2つの視差画像上の異なる位
置に撮像された各被写体の位置のずれ量が必要になるか
らである。
【0029】被写体が撮像された絶対位置を決めるため
に何らかの基準位置が必要になるので、ここではフィル
ム3のパーフォレーションの左下隅を基準位置として、
そこからの相対位置で各被写体の絶対位置を定義してい
る。画像の左上隅の画素位置を点O′とすると、パーフ
ォレーション3aからの相対位置ベクトルOO′はカメ
ラ1の構造上一定値に決まっている。よって、ベクトル
OPからベクトルOO′を引くことによりベクトルO′
Pが求められ、点Pの絶対位置座標として用いることが
できる。
【0030】この点O′を原点として画像Aのフィルム
画像部分のみを切り出したものが画像Bである。画像B
は横N画素、縦M画素に離散化されており、横、縦それ
ぞれの画素位置をi、jで表す。更に画像Bを横をn
個、縦をm個の領域に分割した画像を画像Cとし、分割
された領域をR(I,J)とする。こうした画像Cを同
時に撮影した2枚の視差画像毎に用意し、潜像4aに対
する画像を画像C1、潜像4bに対する画像を画像C2
とする。
【0031】次に画像C1及びC2から被写体の距離を
算出する手順を説明する。先ず画像C1上の領域R1
(I0 ,J0 )に相当する被写体が撮像されている画像
C2上の領域R2 (I,J)を算出する。ここでは、R
1 (I0 ,J0 )とR2 (I,J)との相関を計算し、
最も相関の高い領域をR1 (I0 ,J0 )の対応領域と
する。
【0032】即ち、相関COL(I,J)を、 COL(I,J)=ΣΣ(P1 (i,j)−P2 (k,
l))-2 とする。
【0033】ここで、P1 (i,j)及びP2 (k,
l)はそれぞれ、R1 (I0 ,J0 )及びR2 (I,
J)に含まれる画素のGの値を示している。相関値の計
算にGの値を使用するのは、RGBの中でGが最も空間
解像度が高く、相関値の精度が良いからである。この相
関値を画像全域に亘って算出し、COL(I,J)が最
も大きくなるI,Jを求める。それらを、それぞれI1
,J1 とすると、領域R2 (I1 ,J1 )が、R1
(I0 ,J0 )と略同一の被写体が撮像されている領域
である。領域4aの幅を例えば36mmとすると、画像
C1及び画像C2の解像度RSLは、 RSL=N/36[pixel/mm] となる。
【0034】ここで、図9は被写体1を撮影したときの
被写体1とカメラ1との位置関係を示す図である。レン
ズ2a及びレンズ2bの開口が十分小さいときには、被
写体の像はフィルム3上に点像として写る。先に求めた
R1 (I0 ,J0 )とR2 (I1 ,J1 )との位置関係
から被写体の距離を算出することができる。レンズ2a
及びレンズ2bからフィルム3までの距離をfとする
と、レンズ2a及びレンズ2bから被写体までの距離L
は次式で求められる。
【0035】L=a*f*RSL/|I0 −I1 | 例えば、a=50[mm]、f=50[mm]、RSL
=100[pixel/mm]、I0 =500、I1 =
400、とすると、L=2500mmとなり、つまり、
この画像が撮像されたとき、カメラから被写体までの距
離は2.5mであったことが判る。以上のような計算を
画像C1の各領R1 について繰り返し行うことにより、
画像C1に撮像されている被写体の距離分布が求まる。
【0036】次に被写体距離からボケ量を判断しボケを
付加する手順を説明する。画像C1はデジタル画像なの
で、マトリックスを画像の各画素に畳み込むことにより
ボケを付加する。CPU32にはレンズのポイントスプ
レッド関数(PSF;point spread fanction )に対応する
複数のマトリックスが製造時に記憶されている。なお、
このPSFとは、被写体の点像がピント状態によってど
のように広がるかを示す関数であり、フィルム平面上座
標での光強度(明るさ)を示すものである。上記の「パ
ラメータ設定」で設定されたパラメータと既に算出した
被写体距離に応じて、各領域R(I,J)毎に適当なマ
トリックスを選択し畳み込むことでボケを付加する。
【0037】マトリックスを選択するパラメータとし
て、「レンズの焦点距離」、「Fナンバ」、「ジャスト
ピント距離」、「被写体距離」の4つがある。レンズの
焦点距離は「パラメータ設定」で設定した「レンズ種
類」及び「処理範囲」から判断される。ジャストピント
距離は「ジャストピント位置」で「距離設定」を行った
場合はそのままの値を「位置設定」を行った場合は既に
求めた被写体距離を用いて指定された「位置」を「距
離」に変換した値を使用する。
【0038】レンズの焦点距離とFナンバをある値に決
めると、レンズの性質よりボケの大きさはジャストピン
ト距離の逆数と被写体距離の逆数との差に略比例する。
このことから、ジャストピント距離の逆数と被写体距離
の逆数との差を新たなパラメータとして用いることによ
り、ボケ付加の精度を落とすことなくパラメータの数を
減らすことができる。このパラメータを「距離差」とす
る。
【0039】これらのパラメータを図10のテーブルに
従って番号付けして、これらを引数として持つボケマト
リックスを次のように定義する。 Mf,F,D (k,l):f(焦点距離)=1,2,3,4 F(Fナンバ)=1,2,3,4,5,6,7,8 D(距離差) =1,2,3,4,5,6 f,F,Dの可能な組み合わせの数から、マトリックス
はM1 〜M156 の156種類が用意されている。k,l
の範囲はボケマトリックスMの大きさで決まるが、ここ
では、−2<k<2、−2<1<2の5×5のマトリッ
クスを使用する。各マトリックスの要素は、ボケを再現
すべきレンズのPSFから算出されるもので、各パラメ
ータによって値は変わってくる。画像C1特有のパラメ
ータとしてfとFが決まるので、画像内の位置に応じて
作用させるマトリックスを変えるパラメータはDのみに
なる。
【0040】ここで、図11にデフォルト値(f=2,
F=3)の際のマトリックスの例を示す。こうした複数
のマトリックスの中からパラメータに応じて適当なマト
リックスを選択するようにしたのは、画像の各点毎にボ
ケマトリックスを算出する方法に比べて計算時間を大幅
に短縮できるからである。このように選択されたマトリ
ックスを用いるとボケを付加した画素値P′は、 P′(i,j)=ΣΣMf,F,D (k,l)・P(i-k,j-1)/
ΣΣMf,F,D (k,l) となる。
【0041】このような計算を画像C1の各点について
繰り返し行うことにより、被写体距離に応じたボケを画
像C1に付加することができる。以上、本発明の実施の
形態について説明したが、本発明はこれに限定されるこ
となく、その趣旨を逸脱しない範囲で種々の改良・変更
が可能であることは勿論である。例えば、上記実施の形
態では、フィルム上の絶対位置をフィルムのパーフォレ
ーションを基準位置として求めたが、潜像のエッジを基
準にしたりフィルムに基準となるマーカーを記録してそ
れを基準位置としてもよい。
【0042】さらに、上記実施の形態では、相関値を計
算する際にGの値を用いた例を示したが、その他、R,
BやCMY系のCCDを用いた場合はC,M,Yのいず
れを用いても良い。また、RGB値やCMY値から適当
な輝度信号を算出し、それを用いて相関値を算出しても
良い。また、上記実施の形態では、ボケを付加する際に
予め用意した複数のマトリックスから適当なマトリック
スを選択し畳み込む方式を使用したが、焦点距離、Fナ
ンバなどのパラメータからボケ関数を生成し、それを基
に畳み込み演算する方法を用いても良い。
【0043】以上説明したように、本発明の画像処理方
法及び装置によれば、被写体距離に応じたボケを付加す
ることにより、ユーザーは、小口径のレンズを持つ小型
軽量なカメラにて大口径のレンズを持つカメラで撮影し
たようなボケ味を持った写真を得ることができる。
【0044】以上、本発明の実施形態に基づいて説明し
たが、本明細書には以下の発明が含まれている。 (1)同一の被写体を含み視差を有する複数枚一組の画
像から被写体の距離を判断し、距離に応じたボケを被写
体に付加することを特徴とする画像処理方法。 (2)付加すべきボケパラメータを複数種類有し、被写
体の距離に応じて複数のパラメータの中からボケの付加
に使用すべきパラメータを選択することを特徴とする上
記(1)に記載の画像処理方法。 (3)同一被写体を異なる視差で撮影した複数のフィル
ム画像のフィルム上の画素位置データと、その画素デー
タを取り込む画像取り込み手段と、上記取り込まれた画
像データから、フィルム画面の複数の微小領域における
距離を算出する距離算出手段と、ジャストピント距離設
定手段と、上記距離算出手段の出力とジャストピント距
離に基づいて、微小領域に所定のボケを付与するボケ付
与手段と、を有することを特徴とするボケ画像処理装
置。 (4)上記画像取り込み手段はフィルム上の画素位置デ
ータをフィルム上の基準位置を基準として取り込むこと
を特徴とする上記(3)に記載の画像処理装置。 (5)上記フィルム上の基準位置はフィルムのパーフォ
レーションであることを特徴とする上記(4)に記載の
画像処理装置。 (6)上記距離算出手段は、複数の色画素のうちの1つ
を用いることを特徴とする上記(3)に記載の画像処理
装置。 (7)上記色画素は、RGBのうちのGであることを特
徴とする上記(6)に記載の画像処理装置。 (8)上記距離算出手段は、複数の色画素のうち、もっ
とも空間解像力の高い色画素データを用いることを特徴
とする上記(3)に記載の画像処理装置。 (9)上記ボケ付与手段のボケ量は、上記微小領域の被
写体距離の逆数とジャストピント距離の逆数の差の絶対
値に応じて線形に増加することを特徴とする上記(3)
に記載の画像処理装置。 (10)上記ボケ付与手段のボケ関数は、上記微小領域
の被写体距離の逆数とジャストピント距離の逆数の差に
応じて選択されることを特徴とする上記(3)に記載の
画像処理装置。 (11)上記ボケ付与手段のボケ関数は、複数種類のボ
ケ関数テーブルから選択されることを特徴とする上記
(3)に記載の画像処理装置。 (12)同一被写体を異なる視差で撮影した複数のフィ
ルム画像のフィルム上の画素位置データと、その画素デ
ータを取り込む画像取り込み手段と、上記取り込まれた
画像データからフィルム画面の複数の微小領域における
距離を算出する距離算出手段と、ジャストピント距離設
定手段と、複数のボケ形状関数を記述したボケ形状テー
ブルと、上記テーブルからボケ形状関数を選択する選択
手段と、上記距離算出手段の出力とジャストピント距離
と上記選択されたボケ形状関数に基づいて微小領域に所
定のボケを付与するボケ付与手段と、を有することを特
徴とする画像処理装置。 (13)上記選択手段は、レンズの種類を指定すること
により選択することを特徴とする上記(12)に記載の
画像処理装置。 (14)上記選択手段は、レンズのFナンバを指定する
ことにより選択することを特徴とする上記(12)に記
載の画像処理装置。 (15)同一被写体を異なる視差で撮影した複数のフィ
ルム画像のフィルム上の画素位置データと、その画像デ
ータを取り込む画像取り込み手段と、出力画像範囲を指
示する出力画像範囲指示手段と、上記出力画像範囲指示
手段による指示に対応する焦点距離を設定する焦点距離
設定手段と、Fナンバ設定手段と、上記取り込まれた画
像データからフィルム画面の複数の微小領域における距
離を算出する距離算出手段と、ジャストピント距離設定
手段と、複数のボケ形状関数を記述したボケ形状テーブ
ルと、上記テーブルからボケ形状関数を選択する選択手
段と、上記、距離算出手段の出力とジャストピント距離
と上記選択されたボケ形状関数に基づいて、微小領域に
所定のボケを付与するボケ付与手段と、を有することを
特徴とする画像処理装置。 (16)同一被写体を異なる視差で撮影した複数のフィ
ルム画像のフィルム上の画素位置データと、その画像デ
ータを取り込む画像取り込み手段と、出力画像範囲を指
示する出力画像範囲指示手段と、上記出力画像範囲指示
手段による指示に対応する焦点距離を設定する焦点距離
設定手段と、Fナンバ設定手段と、レンズ種類設定手段
と、上記取り込まれた画像データからフィルム画面の複
数の微小領域における距離を算出する距離算出手段と、
ジャストピント距離設定手段と、複数のボケ形状関数を
記述したボケ形状テーブルと、上記テーブルからボケ形
状関数を選択する選択手段と、上記距離算出手段の出力
とジャストピント距離と上記選択されたボケ形状関数に
基づいて、微小領域に所定のボケを付与するボケ付与手
段と、を有することを特徴とする画像処理装置。
【0045】
【発明の効果】以上詳述したように、本発明のよれば、
レンズシャッタカメラ等といった口径の小さいレンズを
持つカメラで撮影された画像から、大口径のレンズを備
えたカメラで撮影したようなボケ味を持った写真を得る
画像処理方法及び装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像処理方法の概念
図である。
【図2】視差を有した画像の組を撮影するカメラの構成
を示す図である。
【図3】図2のカメラで撮像された画像にボケを付加す
るためのボケ付加装置及び処理された画像を表示する外
部モニタの外観図である。
【図4】画像処理装置におけるボケ付加装置の詳細な構
成を示す図である。
【図5】画像処理装置におけるボケ付加装置の動作を説
明するためのフローチャートである。
【図6】画像処理装置の液晶パネルに表示された「設定
項目」のメニューを示す図である。
【図7】「処理範囲設定」にて画像全体の中で処理すべ
き範囲を設定する様子を示す図である。
【図8】フィルム上の画像をCCDにて撮像する際の撮
像範囲を示す図である。
【図9】被写体を撮影したときの被写体とカメラとの位
置関係を示す図である。
【図10】パラメータを番号付けするためのテーブルを
示す図である。
【図11】デフォルト値f=2,F=3の際のマトリッ
クスの例を示す図である。
【符号の説明】
S1…各被写体の距離を算出するステップ、S2…各被
写体のボケを算出するステップ、S3…画像にボケを付
加するステップ、1…カメラ本体、2…撮影レンズ、3
…フィルム、4a,4b…領域、5…ファインダ、10
…カートリッジ、11…液晶パネル、12…指示パッ
ド、13…決定釦、14…パワースイッチ、15…挿入
口、21…ランプ、22…レンズ、23…CCD、24
…信号処理回路、25,26…RAM、27…I/F回
路、28…操作指示部、29…モータ、30…スプー
ル、31…ギヤ、32…CPU。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/40 H04N 1/40 101Z

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 所定の視差を有する一対の撮影レンズを
    通過して同時撮影された一対の画像と上記視差情報とを
    入力し、 上記入力された情報に基づいて上記画像中の被写体群の
    距離分布を算出し、 上記撮影レンズの属性に依存するボケ情報を与えるため
    のボケパラメータを適宜選択し、 上記算出された被写体群の距離分布と、上記選択された
    ボケパラメータとに応じて、上記被写体群に実際の撮影
    レンズによるものとは異なるボケを付加し、 上記ボケを付加した画像を出力することを特徴とする画
    像処理方法。
  2. 【請求項2】 上記パラメータは、撮影レンズの焦点距
    離、F値及びピント位置の少なくともいずれかを含むこ
    とを特徴とする請求項1に記載の画像処理方法。
  3. 【請求項3】 所定の視差を有する一対の撮影レンズを
    通過して同時撮影された一対の画像と上記視差情報とを
    入力する入力手段と、 上記入力手段より入力された情報に基づいて、上記画像
    中の被写体群の距離分布を算出する距離分布算出手段
    と、 上記撮影レンズの属性に依存するボケ情報を与えるため
    のボケパラメータを適宜選択するパラメータ選択手段
    と、 上記距離分布算出手段により算出された被写体群の距離
    分布と、上記パラメータ選択手段により選択されたボケ
    パラメータとに応じて、上記被写体群に実際の撮影レン
    ズによるものとは異なるボケを付加するボケ付加手段
    と、 上記ボケ付加手段によりボケを付加した画像を出力する
    画像出力手段と、を具備することを特徴とする画像処理
    装置。
JP7335041A 1995-12-22 1995-12-22 画像処理方法及び装置 Pending JPH09181966A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7335041A JPH09181966A (ja) 1995-12-22 1995-12-22 画像処理方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7335041A JPH09181966A (ja) 1995-12-22 1995-12-22 画像処理方法及び装置

Publications (1)

Publication Number Publication Date
JPH09181966A true JPH09181966A (ja) 1997-07-11

Family

ID=18284090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7335041A Pending JPH09181966A (ja) 1995-12-22 1995-12-22 画像処理方法及び装置

Country Status (1)

Country Link
JP (1) JPH09181966A (ja)

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6900841B1 (en) 1999-01-11 2005-05-31 Olympus Optical Co., Ltd. Image processing system capable of applying good texture such as blur
KR100617659B1 (ko) * 2004-12-06 2006-08-28 엘지전자 주식회사 디지털 카메라 기기 및 아웃포커싱 처리 방법
US7286168B2 (en) 2001-10-12 2007-10-23 Canon Kabushiki Kaisha Image processing apparatus and method for adding blur to an image
EP1841215A3 (en) * 2006-03-31 2007-11-21 Samsung Electronics Co., Ltd. Apparatus and method for out-of-focus shooting using portable terminal
JP2010074425A (ja) * 2008-09-17 2010-04-02 Ricoh Co Ltd 画像処理装置、プログラム、および画像処理方法
US7978253B2 (en) * 2007-07-18 2011-07-12 Ricoh Company, Ltd. Image pickup device using blur processing and control method thereof
WO2011148556A1 (ja) * 2010-05-25 2011-12-01 パナソニック株式会社 画像符号化装置、画像符号化方法、プログラムおよび集積回路
WO2012073575A1 (ja) * 2010-12-03 2012-06-07 シャープ株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2013047875A (ja) * 2011-08-29 2013-03-07 Univ Of Yamanashi 立体感提示装置および方法ならびにぼけ画像生成処理装置,方法およびプログラム
CN102986221A (zh) * 2011-07-19 2013-03-20 松下电器产业株式会社 图像编码装置及其集成电路、以及图像编码方法
WO2013136403A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 画像処理装置、集積回路、プログラム、撮像装置、表示装置
JP2013214854A (ja) * 2012-04-02 2013-10-17 Nippon Telegr & Teleph Corp <Ntt> 立体的画像表示装置、立体的画像表示方法及び立体的画像表示プログラム
US20140009585A1 (en) * 2012-07-03 2014-01-09 Woodman Labs, Inc. Image blur based on 3d depth information
US8988592B2 (en) 2012-05-17 2015-03-24 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
KR20150086333A (ko) * 2013-01-18 2015-07-27 인텔 코포레이션 디포커스 블러에 대한 분산 추정 광 필드 재구성
WO2016175043A1 (ja) * 2015-04-28 2016-11-03 ソニー株式会社 画像処理装置及び画像処理方法
CN102986221B (zh) * 2011-07-19 2016-11-30 松下电器(美国)知识产权公司 图像编码装置及其集成电路、以及图像编码方法
JP2016213744A (ja) * 2015-05-12 2016-12-15 キヤノン株式会社 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム
US9787862B1 (en) 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US10096341B2 (en) 2015-01-05 2018-10-09 Gopro, Inc. Media identifier generation for camera-captured media
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
US10192585B1 (en) 2014-08-20 2019-01-29 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US10338955B1 (en) 2015-10-22 2019-07-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
JP2020078079A (ja) * 2013-09-11 2020-05-21 ソニー株式会社 画像処理装置および方法
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle

Cited By (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6900841B1 (en) 1999-01-11 2005-05-31 Olympus Optical Co., Ltd. Image processing system capable of applying good texture such as blur
US7286168B2 (en) 2001-10-12 2007-10-23 Canon Kabushiki Kaisha Image processing apparatus and method for adding blur to an image
KR100617659B1 (ko) * 2004-12-06 2006-08-28 엘지전자 주식회사 디지털 카메라 기기 및 아웃포커싱 처리 방법
EP1841215A3 (en) * 2006-03-31 2007-11-21 Samsung Electronics Co., Ltd. Apparatus and method for out-of-focus shooting using portable terminal
US7978253B2 (en) * 2007-07-18 2011-07-12 Ricoh Company, Ltd. Image pickup device using blur processing and control method thereof
JP2010074425A (ja) * 2008-09-17 2010-04-02 Ricoh Co Ltd 画像処理装置、プログラム、および画像処理方法
WO2011148556A1 (ja) * 2010-05-25 2011-12-01 パナソニック株式会社 画像符号化装置、画像符号化方法、プログラムおよび集積回路
CN102474647A (zh) * 2010-05-25 2012-05-23 松下电器产业株式会社 图像编码装置、图像编码方法、程序以及集成电路
US8994788B2 (en) 2010-05-25 2015-03-31 Panasonic Intellectual Property Corporation Of America Image coding apparatus, method, program, and circuit using blurred images based on disparity
CN102474647B (zh) * 2010-05-25 2015-08-19 松下电器(美国)知识产权公司 图像编码装置、图像编码方法以及集成电路
WO2012073575A1 (ja) * 2010-12-03 2012-06-07 シャープ株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US9070223B2 (en) 2010-12-03 2015-06-30 Sharp Kabushiki Kaisha Image processing device, image processing method, and image processing program
JP5473173B2 (ja) * 2010-12-03 2014-04-16 シャープ株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN102986221A (zh) * 2011-07-19 2013-03-20 松下电器产业株式会社 图像编码装置及其集成电路、以及图像编码方法
CN102986221B (zh) * 2011-07-19 2016-11-30 松下电器(美国)知识产权公司 图像编码装置及其集成电路、以及图像编码方法
JP2013047875A (ja) * 2011-08-29 2013-03-07 Univ Of Yamanashi 立体感提示装置および方法ならびにぼけ画像生成処理装置,方法およびプログラム
WO2013136403A1 (ja) * 2012-03-15 2013-09-19 パナソニック株式会社 画像処理装置、集積回路、プログラム、撮像装置、表示装置
US9002128B2 (en) 2012-03-15 2015-04-07 Panasonic Intellectual Property Corporation Of America Image processing apparatus, integrated circuit, program, imaging apparatus, and display apparatus
JPWO2013136403A1 (ja) * 2012-03-15 2015-07-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像処理装置、集積回路、プログラム、撮像装置、表示装置
JP2013214854A (ja) * 2012-04-02 2013-10-17 Nippon Telegr & Teleph Corp <Ntt> 立体的画像表示装置、立体的画像表示方法及び立体的画像表示プログラム
US8988592B2 (en) 2012-05-17 2015-03-24 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
US9621786B2 (en) 2012-05-17 2017-04-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
US10021290B2 (en) 2012-05-17 2018-07-10 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing program, and image pickup apparatus acquiring a focusing distance from a plurality of images
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US20140009585A1 (en) * 2012-07-03 2014-01-09 Woodman Labs, Inc. Image blur based on 3d depth information
JP2014014076A (ja) * 2012-07-03 2014-01-23 Woodman Labs Inc 3d深度情報に基づいたイメージぼかし
EP2683169A3 (en) * 2012-07-03 2017-04-12 GoPro, Inc. Image blur based on 3D depth information
US10015469B2 (en) 2012-07-03 2018-07-03 Gopro, Inc. Image blur based on 3D depth information
KR20150086333A (ko) * 2013-01-18 2015-07-27 인텔 코포레이션 디포커스 블러에 대한 분산 추정 광 필드 재구성
JP2020078079A (ja) * 2013-09-11 2020-05-21 ソニー株式会社 画像処理装置および方法
US12243307B2 (en) 2014-07-23 2025-03-04 Gopro, Inc. Scene and activity identification in video summary generation
US11776579B2 (en) 2014-07-23 2023-10-03 Gopro, Inc. Scene and activity identification in video summary generation
US11069380B2 (en) 2014-07-23 2021-07-20 Gopro, Inc. Scene and activity identification in video summary generation
US10776629B2 (en) 2014-07-23 2020-09-15 Gopro, Inc. Scene and activity identification in video summary generation
US9792502B2 (en) 2014-07-23 2017-10-17 Gopro, Inc. Generating video summaries for a video using video summary templates
US10074013B2 (en) 2014-07-23 2018-09-11 Gopro, Inc. Scene and activity identification in video summary generation
US10339975B2 (en) 2014-07-23 2019-07-02 Gopro, Inc. Voice-based video tagging
US10643663B2 (en) 2014-08-20 2020-05-05 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
US10192585B1 (en) 2014-08-20 2019-01-29 Gopro, Inc. Scene and activity identification in video summary generation based on motion detected in a video
US10262695B2 (en) 2014-08-20 2019-04-16 Gopro, Inc. Scene and activity identification in video summary generation
US10559324B2 (en) 2015-01-05 2020-02-11 Gopro, Inc. Media identifier generation for camera-captured media
US10096341B2 (en) 2015-01-05 2018-10-09 Gopro, Inc. Media identifier generation for camera-captured media
WO2016175043A1 (ja) * 2015-04-28 2016-11-03 ソニー株式会社 画像処理装置及び画像処理方法
US10529057B2 (en) 2015-04-28 2020-01-07 Sony Corporation Image processing apparatus and image processing method
JP2016213744A (ja) * 2015-05-12 2016-12-15 キヤノン株式会社 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム
US10338955B1 (en) 2015-10-22 2019-07-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US9787862B1 (en) 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US10402445B2 (en) 2016-01-19 2019-09-03 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
US10740869B2 (en) 2016-03-16 2020-08-11 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US11398008B2 (en) 2016-03-31 2022-07-26 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10817976B2 (en) 2016-03-31 2020-10-27 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US10341712B2 (en) 2016-04-07 2019-07-02 Gopro, Inc. Systems and methods for audio track selection in video editing
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US10742924B2 (en) 2016-06-15 2020-08-11 Gopro, Inc. Systems and methods for bidirectional speed ramping
US11223795B2 (en) 2016-06-15 2022-01-11 Gopro, Inc. Systems and methods for bidirectional speed ramping
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US11062143B2 (en) 2016-08-23 2021-07-13 Gopro, Inc. Systems and methods for generating a video summary
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US11508154B2 (en) 2016-08-23 2022-11-22 Gopro, Inc. Systems and methods for generating a video summary
US10726272B2 (en) 2016-08-23 2020-07-28 Go Pro, Inc. Systems and methods for generating a video summary
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10560591B2 (en) 2016-09-30 2020-02-11 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10560655B2 (en) 2016-09-30 2020-02-11 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
US10643661B2 (en) 2016-10-17 2020-05-05 Gopro, Inc. Systems and methods for determining highlight segment sets
US10923154B2 (en) 2016-10-17 2021-02-16 Gopro, Inc. Systems and methods for determining highlight segment sets
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US10776689B2 (en) 2017-02-24 2020-09-15 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US10817992B2 (en) 2017-04-07 2020-10-27 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10817726B2 (en) 2017-05-12 2020-10-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10614315B2 (en) 2017-05-12 2020-04-07 Gopro, Inc. Systems and methods for identifying moments in videos
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos

Similar Documents

Publication Publication Date Title
JPH09181966A (ja) 画像処理方法及び装置
JP5036599B2 (ja) 撮像装置
CN106550184B (zh) 照片处理方法及装置
JPH09181913A (ja) カメラシステム
JPH11355617A (ja) 画像表示器付きカメラ
JP2003110884A (ja) 警告メッセージカメラ及び方法
JP2003116046A (ja) 画像修正カメラ及び方法
JPH1188672A (ja) 画像処理方法および装置、画像再生方法および装置並びにその方法に使用する画像確認装置
JP2003078813A (ja) 修正再撮影カメラ及び方法
CN109688321B (zh) 电子设备及其图像显示方法、具有存储功能的装置
KR101599872B1 (ko) 디지털 영상 처리 장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체
JP2004118711A (ja) 画像処理装置、方法及びプログラム
CN115379075A (zh) 月亮拍摄方法、装置、存储介质及拍摄设备
JP2002158919A (ja) 撮像装置及び画像取得ステップ
JP2010141609A (ja) 撮像装置
CN106878606B (zh) 一种基于电子设备的图像生成方法和电子设备
JP4652998B2 (ja) 撮影装置
JP5822700B2 (ja) 画像撮影方法および画像撮影装置、プログラム
JP2008104069A (ja) デジタルカメラ及びデジタルカメラのプログラム
JP2001281754A (ja) カメラ、画像変換装置、画像変換表示装置、立体画像表示システム及び画像変換プログラムが記録された可読記録媒体
JP2024102803A (ja) 撮像装置
JP2001223935A (ja) 電子カメラ
JP2004120600A (ja) デジタル双眼鏡
JP4586578B2 (ja) デジタルカメラ及びプログラム
JP2001251553A (ja) 電子カメラ

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050510