JP2019207635A - 移動体、画像生成方法、プログラム、及び記録媒体 - Google Patents

移動体、画像生成方法、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP2019207635A
JP2019207635A JP2018103758A JP2018103758A JP2019207635A JP 2019207635 A JP2019207635 A JP 2019207635A JP 2018103758 A JP2018103758 A JP 2018103758A JP 2018103758 A JP2018103758 A JP 2018103758A JP 2019207635 A JP2019207635 A JP 2019207635A
Authority
JP
Japan
Prior art keywords
image
moving body
zoom magnification
imaging
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018103758A
Other languages
English (en)
Inventor
杰旻 周
Jiemin Zhou
杰旻 周
青宇 盧
Qingyu Lu
青宇 盧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018103758A priority Critical patent/JP2019207635A/ja
Priority to PCT/CN2019/088775 priority patent/WO2019228337A1/zh
Priority to CN201980003198.XA priority patent/CN110800287B/zh
Publication of JP2019207635A publication Critical patent/JP2019207635A/ja
Priority to US16/950,461 priority patent/US20210092306A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】高速移動エフェクトが施された画像を容易に得られることが望ましい。【解決手段】撮像部と処理部とを備える移動体であって、処理部は、移動体の移動速度を取得し、撮像部を介して、撮像部のズーム倍率を固定して第1の画像を撮像し、ズーム倍率が変化しながら第1の画像がズームアップされた第2の画像を取得し、移動体の移動速度に基づいて、第1の画像と第2の画像とを合成するための合成比率を決定し、決定された合成比率に基づいて、第1の画像と第2の画像とを合成して、合成画像を生成する。【選択図】図10

Description

本開示は、移動体、画像生成方法、プログラム、及び記録媒体に関する。
従来、画像編集ソフト(例えばPhotoshop(登録商標))を用いて、PC(Personal Computer)等でマウス等の入力デバイスを介して人が手動で操作し、撮像した画像に対し、事後的に編集して高速移動するようにエフェクトをかけることが行われている(非特許文献1参照)。このエフェクトは、ぼかし(移動)を使って写真に臨場感を与える。具体的に、例えばバイクが映っている画像に対し、バイクの範囲を選択し、バイクのレイヤを作る。次に、バイク以外の背景を2枚コピーして背景のレイヤを作る。背景のレイヤに対し、「フィルタ」→「ぼかし」→「移動」を適用し、移動の方向をバイクの進行方向に合わせ、距離を適当に与える。次に、バイクのレイヤを移動の方向に少しだけスライドさせると、エフェクトが完成する。この高速移動するエフェクトでは、背景にぼかし(移動)を加えたが、バイクにぼかし(移動)を加えてもよい。
"Photoshop テクニックス"、[online]、 平成30年5月11日検索]、インターネット< URL :http://photoshop76.blog.fc2.com/blog-entry-29.html>
従来、ユーザが例えばPC等を手動で操作しながら高速移動エフェクトをかけるので、例えば移動前や移動後の被写体の位置等を細かく調整しながら画像を編集する必要があった。このため、ユーザの操作が煩雑になり易く、誤操作も生じやすい。
一態様において、移動体は、撮像部と、処理部と、を備え、処理部は、移動体の移動速度を取得し、撮像部を介して、撮像部のズーム倍率を固定して第1の画像を撮像し、ズーム倍率が変化しながら第1の画像がズームアップされた第2の画像を取得し、移動体の移動速度に基づいて、第1の画像と第2の画像とを合成するための合成比率を決定し、決定された合成比率に基づいて、第1の画像と第2の画像とを合成して、合成画像を生成する。
処理部は、撮像部を介して、撮像部のズーム倍率を変更しながら、第2の画像を撮像してよい。
処理部は、第1の画像を撮像するための第1の露光時間よりも第2の画像を撮像するための第2の露光時間を長くして、第2の画像を撮像してよい。
処理部は、第1の画像が複数の異なるズーム倍率でズームアップされた複数の第3の画像を生成し、複数の第3の画像を合成して、第2の画像を生成してよい。
処理部は、移動体の移動速度に基づいて、第2の画像を取得するためのズーム倍率の変更範囲を決定してよい。
移動体の移動速度が速い程、ズーム倍率の変更範囲が大きくてよい。
合成画像は、合成画像の中心部から端部に向かって順に、第1の画像の成分を含み第2の画像の成分を含まない第1の領域と、第1の画像の成分と第2の画像の成分とを含む第2の領域と、第1の画像の成分を含まず第2の画像の成分を含む第3の領域と、を含んでよい。
第2の領域では、第2の領域における位置が合成画像の端部に近い程、第2の画像の成分が多くてよい。
合成画像では、移動体の移動速度が速い程、第1の領域が小さく、第3の領域が大きくてよい。
一態様において、移動体における画像生成方法であって、移動体の移動速度を取得するステップと、移動体が備える撮像部のズーム倍率を固定して第1の画像を撮像するステップと、ズーム倍率が変化しながら第1の画像がズームアップされた第2の画像を取得するステップと、移動体の移動速度に基づいて、第1の画像と第2の画像とを合成するための合成比率を決定するステップと、決定された合成比率に基づいて、第1の画像と第2の画像とを合成して、合成画像を生成するステップと、を有する。
第2の画像を取得するステップは、撮像部のズーム倍率を変更しながら、第2の画像を撮像するステップを含んでよい。
第2の画像を取得するステップは、第1の画像を撮像するための第1の露光時間よりも第2の画像を撮像するための第2の露光時間を長くして、第2の画像を撮像するステップを含んでよい。
第2の画像を取得するステップは、第1の画像が複数の異なるズーム倍率でズームアップされた複数の第3の画像を生成するステップと、複数の第3の画像を合成して、第2の画像を生成するステップと、を含んでよい。
第2の画像を取得するステップは、移動体の移動速度に基づいて、第2の画像を取得するためのズーム倍率の変更範囲を決定するステップを含んでよい。
移動体の移動速度が速い程、ズーム倍率の変更範囲が大きくてよい。
合成画像は、合成画像の中心部から端部に向かって順に、第1の画像の成分を含み第2の画像の成分を含まない第1の領域と、第1の画像の成分と第2の画像の成分とを含む第2の領域と、第1の画像の成分を含まず第2の画像の成分を含む第3の領域と、を含んでよい。
第2の領域では、第2の領域における位置が合成画像の端部に近い程、第2の画像の成分が多くてよい。
合成画像では、移動体の移動速度が速い程、第1の領域が小さく、第3の領域が大きくてよい。
一態様において、プログラムは、移動体に、移動体の移動速度を取得するステップと、移動体が備える撮像部のズーム倍率を固定して第1の画像を撮像するステップと、ズーム倍率が変化しながら第1の画像がズームアップされた第2の画像を取得するステップと、移動体の移動速度に基づいて、第1の画像と第2の画像とを合成するための合成比率を決定するステップと、決定された合成比率に基づいて、第1の画像と第2の画像とを合成して、合成画像を生成するステップと、を実行させるためのプログラムである。
一態様において、記録媒体は、移動体に、移動体の移動速度を取得するステップと、移動体が備える撮像部のズーム倍率を固定して第1の画像を撮像するステップと、ズーム倍率が変化しながら第1の画像がズームアップされた第2の画像を取得するステップと、移動体の移動速度に基づいて、第1の画像と第2の画像とを合成するための合成比率を決定するステップと、決定された合成比率に基づいて、第1の画像と第2の画像とを合成して、合成画像を生成するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
実施形態における飛行体システムの第1構成例を示す模式図 実施形態における飛行体システムの第2構成例を示す模式図 無人航空機の具体的な外観の一例を示す図 無人航空機のハードウェア構成の一例を示すブロック図 端末のハードウェア構成の一例を示すブロック図 撮像部のハードウェア構成の一例を示す図 無人航空機の飛行速度に対応するズーム倍率の変更範囲の一例を示すグラフ 撮像部で撮像された2枚の撮像画像を合成した合成画像の一例を示す図 撮像画像の中心からの距離に対応するブレンド率の変化の一例を示すグラフ 飛行体システムの撮像動作の一例を示すシーケンス図 高速飛行エフェクトをかけて生成される合成画像の一例を示す図 1枚の撮像画像を基に合成画像を生成することを説明するための図
以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。
以下の実施形態では、移動体として、無人航空機(UAV:Unmanned Aerial Vehicle)を例示する。無人航空機は、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」と表記する。画像生成方法は、移動体の動作が規定されたものである。また、記録媒体は、プログラム(例えば移動体に各種の処理を実行させるプログラム)が記録されたものである。
図1は、実施形態における飛行体システム10の第1構成例を示す模式図である。飛行体システム10は、無人航空機100及び端末80を備える。無人航空機100及び端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1では、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。
なお、飛行体システムは、無人航空機、送信機(プロポ)、及び携帯端末を備えた構成であってよい。送信機を備える場合、送信機の前面に配置された左右の制御棒を使って、ユーザは、無人航空機の飛行の制御を指示可能である。また、この場合、無人航空機、送信機、及び携帯端末は、相互に有線通信又は無線通信により通信可能である。
図2は、実施形態における飛行体システム10の第2構成例を示す模式図である。図2では、端末80がPCであることを例示している。図1及び図2のいずれであっても、端末80が有する機能は同じでよい。
図3は、無人航空機100の具体的な外観の一例を示す図である。図3には、無人航空機100が移動方向STV0に飛行する場合の斜視図が示される。無人航空機100は移動体の一例である。
図3に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(x軸参照)が設定される。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(y軸参照)が設定され、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が設定される。
無人航空機100は、UAV本体102と、ジンバル200と、撮像部220と、複数の撮像部230とを含む構成である。
UAV本体102は、複数の回転翼(プロペラ)を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人航空機100を飛行させる。UAV本体102は、例えば4つの回転翼を用いて無人航空機100を飛行させる。回転翼の数は、4つに限定されない。また、無人航空機100は、回転翼を有さない固定翼機でもよい。
撮像部220は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラでよい。
複数の撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラでよい。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データ(3次元形状データ)が生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えていればよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部220で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。
図4は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。
UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。UAV制御部110は、処理部の一例である。
UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。UAV制御部110は、飛行を制御してよい。UAV制御部110は、画像を空撮してよい。
UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。UAV制御部110は、超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。
UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。
UAV制御部110は、撮像部220が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、3次元地図データベースを参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。
UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得してよい。撮像部220の姿勢情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示してよい。
UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。
UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。
UAV制御部110は、ジンバル200、回転翼機構210、撮像部220及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御してよい。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御してよい。
撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でもよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。
UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。
UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木等の風景の一部でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。
UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部220の撮像範囲を制御してよい。UAV制御部110は、撮像部220が備えるズームレンズを制御することで、撮像部220の画角を制御してよい。UAV制御部110は、撮像部220のデジタルズーム機能を利用して、デジタルズームにより、撮像部220の画角を制御してよい。
撮像部220が無人航空機100に固定され、撮像部220を動かせない場合、UAV制御部110は、特定の日時に特定の位置に無人航空機100を移動させることにより、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。あるいは撮像部220がズーム機能を有さず、撮像部220の画角を変更できない場合でも、UAV制御部110は、特定された日時に、特定の位置に無人航空機100を移動させることで、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。
通信インタフェース150は、端末80と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してよい。通信インタフェース150は、空撮画像や空撮画像に関する付加情報(メタデータ)を、端末80に送信してよい。
メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人航空機100から取り外し可能であってよい。メモリ160は、作業用メモリとして動作してよい。
ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、無人航空機100から取り外し可能であってよい。ストレージ170は、空撮画像を記録してよい。
ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。
回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでもよいし、その他の数でもよい。また、無人航空機100は、回転翼を有さない固定翼機でもよい。
撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データ(例えば空撮画像)は、撮像部220が有するメモリ、又はストレージ170に格納されてよい。
撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。
GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。
磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。
気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。
超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。
レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。
図5は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備える。端末80は、無人航空機100の飛行制御の指示を希望するユーザに所持され得る。
端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
端末制御部81は、通信部85を介して、無人航空機100からのデータや情報を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報を取得してもよい。端末制御部81は、メモリ87に保持されたデータや情報を取得してもよい。端末制御部81は、通信部85を介して、無人航空機100へ、データや情報を送信してもよい。端末制御部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてもよい。
端末制御部81は、画像を合成して合成画像を生成するためのアプリケーションを実行してもよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してもよい。
操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチスクリーン、マイクロホン、等の入力装置を含んでもよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83により入力された情報は、無人航空機100へ送信されてもよい。
通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してよい。
メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してもよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。
表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータを表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してもよい。
ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてもよい。ストレージ89は、端末80から取り外し可能に設けられてもよい。ストレージ89は、無人航空機100から取得された空撮画像や付加情報を保持してよい。付加情報は、メモリ87に保持されてよい。
なお、飛行体システム10が送信機(プロポ)を備える場合、端末80が実行する処理は、送信機が実行してもよい。送信機は、端末80と同様の構成部を有するので、詳細な説明については省略する。送信機は、制御部、操作部、通信部、表示部、メモリ、等を有する。飛行体システム10が送信機を有する場合、端末80が設けられなくてもよい。
図6は、無人航空機100が備える撮像部220のハードウェア構成を示す図である。撮像部220は、筐体220zを有する。撮像部220は、筐体220zの内部に、カメラプロセッサ11、シャッタ12、撮像素子13、画像処理部14、メモリ15、シャッタ駆動部19、素子駆動部20、ゲイン制御部21、及びフラッシュ18を有する。なお、撮像部220における各構成の少なくとも一部は、設けられなくてもよい。
カメラプロセッサ11は、露光時間、絞り(アイリス)などの撮影条件を決定する。カメラプロセッサ11は、NDフィルタ32による減光分を加味して露光(AE:Automatic Exposure)制御を行ってよい。カメラプロセッサ11は、画像処理部14から出力された画像データから輝度レベル(例えば画素値)を算出してよい。カメラプロセッサ11は、算出した輝度レベルに基づいて撮像素子13に対するゲインの値を算出し、この算出結果をゲイン制御部21に送出してよい。カメラプロセッサ11は、算出した輝度レベルに基づいてシャッタ12を開閉するためのシャッタスピードの値を算出し、算出結果をシャッタ駆動部19に送出してよい。カメラプロセッサ11は、撮像素子13にタイミング信号を供給する素子駆動部20に、撮像の指示を送出してよい。
シャッタ12は、例えばフォーカルプレーンシャッタであり、シャッタ駆動部19により駆動される。シャッタ12の開放時に入射した光は、撮像素子13の撮像面上に結像する。撮像素子13は、撮像面上に結像した光学像を光電変換し、画像信号として出力する。撮像素子13には、CCD(Charge Coupled Device:電荷結合素子)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor:相補型MOS)イメージセンサが用いられてよい。
ゲイン制御部21は、撮像素子13から入力された画像信号に対してノイズを低減し、撮像信号を増幅するゲイン(利得)を制御する。画像処理部14は、ゲイン制御部21によって増幅された撮像信号に対し、アナログデジタル変換を行って画像データを生成する。画像処理部14は、シェーディング補正、色補正、輪郭強調、ノイズ除去、ガンマ補正、ディベイヤ、圧縮等の各処理を行ってよい。
メモリ15は、各種データや画像データを記憶する記憶媒体である。メモリ15は、例えば、シャッタスピードS、F値、ISO感度、ND値を基に露光量を算出するための露光制御情報を保持してよい。ISO感度は、ゲインに対応する値である。ND値は減光フィルタによる減光度を表す。
シャッタ駆動部19は、カメラプロセッサ11から指示されたシャッタスピードでシャッタ12を開閉する。素子駆動部20は、タイミングジェネレータであり、カメラプロセッサ11からの撮像の指示に従い、撮像素子13にタイミング信号を供給し、撮像素子13の電荷の蓄積動作、読み出し動作、リセット動作等を行う。
フラッシュ18は、カメラプロセッサ11の指示に従い、夜間撮像時や逆光時に閃光し、被写体を照明する。フラッシュ18には、例えばLED(light Emitting Diode)ライトが用いられる。なお、フラッシュ18は省かれてもよい。
また、撮像部220は、筐体220zの内部に、NDフィルタ32、絞り33、レンズ群34、レンズ駆動部36、ND駆動部38、及び絞り駆動部40を有する。
レンズ群34は、被写体からの光を集光して撮像素子13に結像する。レンズ群34は、フォーカスレンズ、ズームレンズ、像振れ補正用レンズ、等を含む。レンズ群34は、レンズ駆動部36によって駆動される。レンズ駆動部36は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、ズームレンズ及びフォーカスレンズを含むレンズ群34を光軸opの方向(光軸方向)に移動させてよい。レンズ駆動部36は、ズームレンズを移動させてズーム倍率を変更するズーミング動作を行う場合、筐体220zの一部でありレンズ群34を収容する鏡筒を前後方向に伸縮させてよい。
絞り33は、絞り駆動部40によって駆動される。絞り駆動部40は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、絞り33の開口を拡縮する。
NDフィルタ32は、光軸opの方向(光軸方向)において、例えば絞り33の近傍に配置され、入射する光の量を制限する減光を行う。ND駆動部38は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、NDフィルタ32を光軸op上に挿抜してよい。
次に、無人航空機100のUAV制御部110が有する画像生成に関する機能について説明する。UAV制御部110は、処理部の一例である。UAV制御部110は、撮像画像の合成に関する処理を行うことで、無人航空機100の飛行速度を超える速度で移動しているような効果(以下、高速飛行エフェクトとも称する)を施し、臨場感のある画像を生成可能である。UAV制御部110は、無人航空機100の停止中(例えばホバリング)に撮像される撮像画像を基に、高速飛行エフェクトを施してよい。
UAV制御部110は、無人航空機100の動作モード(例えば飛行モード、撮像モード)を設定する。撮像モードは、撮像部220で撮像された撮像画像に高速飛行エフェクトを施すためのハイパースピード(Hyper Speed)撮像モードを含む。無人航空機100の動作モード(例えばハイパースピード撮像モード)は、例えば時間帯や無人航空機100の所在位置に基づいて無人航空機100自身のUAV制御部110により指示されてもよいし、通信インタフェース150を介して、端末80により遠隔で指示されてもよい。
UAV制御部110は、撮像部220で撮像された少なくとも1つの撮像画像を取得する。UAV制御部110は、撮像部220を介して、所定の露光量で、第1画像Gaを撮像して取得してよい。露光量は、例えば、シャッタスピード、絞り、ISO感度、ND値、等の少なくとも1つに基づいて決定されてよい。第1画像Gaが撮像される際の露光量は、任意であり、例えば0EVでよい。第1画像Gaが撮像される際の撮像部220のズーム倍率は、任意であり、例えば1.0でよい。第1画像Gaが撮像される際の撮像部220のシャッタスピードに対応する露光時間は、例えば1/30秒でよい。第1画像Gaは、1回の撮像の間に、ズーム倍率が変更されずに固定されて撮像される。第1画像Gaは、基本となる撮像であり、一般的な撮像であるので、通常画像とも称する。
UAV制御部110は、撮像部220を介して、所定の露光量で、第2画像Gbを撮像して取得してよい。第2画像Gbが撮像される際の露光量は、第1画像Gaが撮像される際の露光量と同じでよく、例えば1.0でよい。第1画像Gaと第2画像Gbとで露光量を同程度とすることで、第1画像Gaと第2画像Gbの明るさが変わらないように調整される。また、第2画像Gbが撮像される際のシャッタスピードは、第1画像Gaが撮像される際のシャッタスピード以下である。つまり、第2画像Gbが撮像される際の露光時間は、第1画像Gaが撮像される際の露光時間以上であり、例えば1秒である。なお、第1画像Gaと第2画像Gbとで露光量を不変であっても、第1画像Gaの撮像時の露光時間より第2画像Gbの撮像時の露光時間が長い場合、他のカメラパラメータ(例えば絞り、ISO感度、ND値)が適宜調整される。UAV制御部110は、カメラパラメータの情報を、例えば、メモリ160に保持させてよく、又は、撮像部220のカメラプロセッサ11を介してメモリ15に保持させてよい。
第2画像Gbは、1回の撮像の間に、ズーム倍率が変更される。ズーム倍率の変更範囲は任意であるが、第1画像Gaが撮像される際のズーム倍率以上となる変更範囲である。UAV制御部110は、第2画像Gbを撮像するための撮像部220のズーム倍率の変更範囲を決定する。UAV制御部110は、無人航空機100の飛行速度に基づいて、ズーム倍率の変更範囲を決定してよい。撮像部220のズーム倍率を大きくすると、撮像部220の画角が大きくなり、より被写体に接近した画像となる。第2画像Gbは、1回の撮像の間にズーム倍率が大きくなるよう変更されることで、被写体に接近するように進んでいるような画像となり、高速移動している感覚(高速感)を強調して演出できる。UAV制御部110は、ズーム倍率の情報やズーム倍率の変更範囲の情報を、例えば、メモリ160に保持させてよく、又は、撮像部220のカメラプロセッサ11を介してメモリ15に保持させてよい。
第2画像Gbは、第1画像Gaが撮像される際よりも長時間にわたって露光されて撮像される場合、長時間露光画像とも称する。
UAV制御部110は、無人航空機100の飛行速度を算出する。UAV制御部110は、慣性計測装置250により計測される加速度を積分演算することで、無人航空機100の飛行速度を算出して取得してよい。UAV制御部110は、GPS受信機240により計測される時間毎の現在位置を微分演算することで、無人航空機100の飛行速度を算出して取得してよい。
UAV制御部110は、第1画像Gaと第2画像Gbとを合成するためのブレンド率を決定する。UAV制御部110は、無人航空機100の飛行速度に基づいて、ブレンド率を決定してよい。UAV制御部110は、決定されたブレンド率に基づいて、第1画像Gaと第2画像Gbとを合成し、合成画像を生成する。第1画像Gaの画像範囲(画像サイズ)と第2画像Gbの画像範囲(画像サイズ)とは、同じ範囲(同じサイズ)でよい。よって合成画像の画像範囲(画像サイズ)も同じ範囲(同じサイズ)でよい。
合成画像では、合成画像の画素毎にブレンド率が異なってよい。合成画像では、合成画像における複数の画素が集合した領域毎に、ブレンド率が異なってよい。合成画像では、同一の領域内の各画素で、ブレンド率が同一でもよいし異なってもよい。
なお、UAV制御部110は、3つ以上の画像を合成してよい。UAV制御部110は、3つ以上の画像を合成するための各画像のブレンド率を、上記と同様に決定してよい。
図7は、無人航空機100の飛行速度に対応する、第2画像Gbが撮像される場合のズーム倍率の変更範囲を示すグラフである。このグラフは、光学ズーム及びデジタルズームの双方に適用可能であり、同時に適用されてもよい。このグラフに示すような無人航空機100の飛行速度に対応するズーム倍率の変更範囲の情報は、メモリ160に記憶されてよい。なお、ここでは、ズーム倍率の変更範囲の下端がズーム倍率1.0であることを想定するが、ズーム倍率の他の値を変更範囲の下端としてもよい。
図7では、飛行速度に対するズーム倍率の変更範囲の上端が直線で表されている。具体的には、飛行速度1km/hの場合、ズーム倍率の上端が値1.1である。この場合、ズーム倍率の変更範囲は、1.0〜1.1となる。飛行速度10km/hの場合、ズーム倍率の変更範囲の上端が値1.3である。この場合、ズーム倍率の変更範囲は、1.0〜1.3となる。飛行速度35km/hの場合、ズーム倍率の変更範囲の上端が値2.0(上端の最大値の一例)である。この場合、ズーム倍率の変更範囲は、1.0〜2.0となる。飛行速度50km/hの場合、ズーム倍率の変更範囲の上端は、同じく最大値2.0である。この場合、ズーム倍率の変更範囲は、1.0〜2.0となる。
なお、図7では、ズーム倍率の変更範囲の上端の最大値が2.0であることを例示したが、他の値が変更範囲の上端の最大値であってもよい。また、図7では、飛行速度に対するズーム倍率の変更範囲の上端の変化は、直線で表されたが、S字カーブ等の曲線で表されてもよい。
このように、ズーム倍率の変更範囲の上端は、無人航空機100の飛行速度が速くなる程、ズーム倍率が高くなるように設定される。つまり、無人航空機100の飛行速度が速くなる程、ズーム倍率の変更範囲が大きくなるよう設定される。これにより、第2画像Gbは、画像内の被写体の大きさがズーム倍率に応じて大きく変化するように描画される。これにより、飛行速度が速い程、高速感が高くなるような高速飛行エフェクトが実施され得る。
なお、ズーム倍率の最大値は、光学ズームやデジタルズームの最大倍率によって定まってよい。例えば、ズーム倍率の最大値は、撮像部220における光学ズームによるズーミング動作に要する時間(ズーミング時間)が、第2画像Gbが撮像される際の露光時間より長い場合、この露光時間の経過までに、ズーミング動作(鏡筒の移動)が到達できるズーム倍率によって制限され得る。よって、例えば、光学ズームするための機構動作が高速であれば、ズーム倍率の変更可能範囲が大きくなり、ズーム倍率の変更範囲が大きくてもズーミング動作が追従可能となってよい。
このように、UAV制御部110は、無人航空機100の飛行速度に基づいて、第2画像Gbを取得するためのズーム倍率の変更範囲を決定してよい。
これにより、無人航空機100は、無人航空機100の飛行速度に基づくズーム倍率の変更範囲が得られるので、無人航空機100は、どの程度の飛行速度を感じさせる画像とするかを決定できる。したがって、ユーザは、高速飛行エフェクトが施された画像を視認することで、無人航空機100がどの程度の飛行速度で飛行しているかを意識しながら、高速感を楽しめる。
また、無人航空機100の飛行速度が速い程、ズーム倍率の変更範囲が大きくなることで、第2画像Gb内の被写体への接近度合がより高く見える。よって、ユーザは、このズーム倍率の変化を、第1画像Gaと第2画像Gbとが合成された合成画像で感知でき、直感的に高速感を得やすくなる。
図8は、撮像部220で撮像された2枚の撮像画像としての第1画像Ga及び第2画像Gbを合成した合成画像Gmを示す図である。
合成画像Gmは、合成画像の中心(画像中心)から第1半径r1で囲まれる円形の画像領域gr1と、画像中心から第2半径r2で表される円形の内側と第1半径r1で表される円形の外側で囲まれるリング状の画像領域gr2と、画像領域gr2の外側の画像領域gr3と、を含む。例えば、画像中心から合成画像Gmの隅までの距離Lを値1.0とすると、第1半径r1は、値0.3であってよく、第2半径r2は、値0.7であってよい。なお、これらの値は一例であり、他の値(割合)で合成画像Gm中の領域が形成されてもよい。第1半径r1、第2半径r2の長さは、無人航空機100の飛行速度に応じて決定されてよい。
合成画像Gmでは、第1画像Gaと第2画像Gbとが、決定されたブレンド率で合成されている。ブレンド率は、合成画像Gmの各画素における第2画像Gbの成分の割合で示されてよい。例えば、画像領域gr1には、第1画像Gaが、100%占め、第2画像Gbの成分が含まれない。つまり、画像領域gr1でのブレンド率は、値0.0である。画像領域gr3には、第2画像Gbが、100%占める。つまり、画像領域gr2でのブレンド率は、値1.0である。画像領域gr2には、第1画像Gaの成分と第2画像Gbの成分とを含み、ブレンド率が値0.0より大きく値1.0より小さくなる。
つまり、合成画像Gmにおいて、第2画像Gbの成分が多くなる程、ブレンド率が高くなり、全て第2画像Gbの成分になるとブレンド率が値1.0になる。一方、合成画像Gmにおいて、第2画像Gbの成分が少なくなる程、つまり第1画像Gaの成分が多くなる程、ブレンド率が低くなり、全て第1画像Gaの成分になるとブレンド率が値0.0になる。なお、画像領域gr1,gr2,gr3を同心円で区画されたが、三角、四角等の多角形やその他の形状で区画されてよい。
このように、合成画像Gmは、合成画像Gmの中心部(画像中心)から端部に向かって順に、第1画像Gaの成分を含み第2画像Gbの成分を含まない画像領域gr1(第1の領域の一例)と、第1画像Gaの成分と第2画像Gbの成分とを含む画像領域gr2(第2の領域の一例)と、第1画像Gaの成分を含まず第2画像Gbの成分を含む画像領域gr3(第3の領域の一例)と、を含んでよい。
これにより、合成画像Gmの中心部に近い画像領域gr1に、固定のズーム倍率で撮像された第1画像Gaが描画されるので、被写体が鮮明に描画され、ユーザは被写体を認識し易い。また、合成画像Gmの端部に近い画像領域gr3に、ズーム倍率が変化しながらズームアップされた第2画像Gbが描画されるので、ユーザは高速感を得ることができる。また、画像領域gr1と画像領域gr3との間に、第1画像Gaの成分と第2画像Gbの成分とが含まれるので、無人航空機100は、画像領域gr1と画像領域gr3との間の遷移を滑らかにし、ユーザに違和感が低減された合成画像gmを提供できる。
図9は、合成画像Gmの画像中心からの距離に対応するブレンド率の変化を示すグラフである。このグラフで示されるブレンド率と半径との関係性の情報は、メモリ160に記憶されてよい。ここでは、5つのグラフg1,g2,g3,g4,g5が例示されている。
グラフg1,g2,g3,g4,g5は、無人航空機100の飛行速度の速さに対応して設定される。例えば、グラフg1は、飛行速度が50km/hである場合を示す。グラフg5は、飛行速度が10km/hである場合を示す。
グラフg1〜g5では、合成画像Gmの画像中心から第1半径r1までの範囲(画像領域gr1に相当)では、ブレンド率が値0.0(0%)である。つまり、合成画像Gmにおいて、第1画像Gaが100%占める。グラフg1〜g5では、例えば第1半径r1が値0.15〜0.3に設定される。
グラフg1〜g5では、第1半径r1から第2半径r2までの範囲(画像領域gr2に相当)では、合成画像Gmの画像中心からの距離が長くなる程、ブレンド率が大きな値になるように設定される。例えば、グラフg1では、画像中心からの距離が値0.15から0.55に変化する間、ブレンド率は、値0.0〜値1.0に変化する。この区間における画像中心からの距離の変化に対するブレンド率の変化は、直線で表されてよい。直線の傾きは、任意に変更可能である。また、画像中心からの距離の変化に対するブレンド率の変化は、直線で表される他、S字カーブ等の曲線で表されてもよい。
グラフg1〜g5では、第2半径r2を超える範囲(撮像画像の中心からの距離が第2半径r2以上よりも大きい範囲であり、画像領域gr3に相当)では、ブレンド率は、値1.0(100%)に設定される。つまり、合成画像Gmにおいて、第2画像Gbが100%を占める。
このように、画像領域gr2では、画像領域gr1に近い端部ほど、第1画像Gaの比率が高い画像となり、画像領域gr3に近い端部ほど、第2画像Gbの比率が高い画像となってよい。例えば、図9では、グラフg1〜5のいずれにおいても、画像領域gr2に相当するブレンド率が変化している箇所では、右上がりのグラフとなっており、つまり合成画像Gmの画像中心からの距離が長い程、ブレンド率が高くなり、第2画像Gbの比率が高いことが理解できる。よって、画像領域gr2では、合成画像Gmの端部に近い程、第2画像Gbの成分が多くなってよい。
これにより、画像領域gr2において合成画像Gmの中心側に向かう程、実空間上の被写体に近い画像となり、合成画像Gmの端部側に向かう程、高速感のある高速飛行エフェクトが強くなる。したがって、無人航空機100は、被写体を視認し易い状態を維持しつつ、高速感を得ることができる。また、無人航空機100は、画像領域gr1と画像領域gr3とを違和感なく滑らかに繋げることができる。
また、合成画像Gmでは、無人航空機100の飛行速度が速い程、画像領域gr1が小さく、画像領域gr3が大きくなってよい。例えば、より低速飛行に対応する図9のグラフg5では、画像中心からの距離が値0.75の位置からブレンド率1.0の画像領域gr3となっているのに対し、より高速飛行に対応する図9のグラフg1では、画像中心からの距離が値0.55の位置からブレンド率1.0の画像領域gr3となっている。
これにより、無人航空機100の飛行速度が速い場合には、鮮明な被写体が描画される第1画像Gaの面積が小さくなり、高速に移動する場合と同様の効果が得られる。また、高速感のある画像領域gr3が大きくなることで、より高速に飛行しているように演出可能である。
図10は、飛行体システム10の動作例を示すシーケンス図である。図10では、無人航空機100が飛行中である場合を想定する。
端末80では、端末制御部81は、操作部83を介して、ユーザからハイパースピード撮像モードとするための操作を受け付けると、ハイパースピード撮像モードを設定する(T1)。端末制御部81は、通信部85を介して、ハイパースピード撮像モードの設定を含む設定情報を無人航空機100に送信する(T2)。
無人航空機100では、UAV制御部110は、通信インタフェース150を介して、端末80から設定情報を受信し、ハイパースピード撮像モードに設定し、設定情報をメモリ160に記憶する。UAV制御部110は、例えば、無人航空機100の飛行速度を算出して取得する(T3)。
UAV制御部110は、メモリ160に記憶された、例えば図7に示したグラフの情報を基に、飛行速度に対応するズーム倍率を決定する(T4)。UAV制御部110は、メモリ160に記憶された、例えば図9に示すグラフを基に、飛行速度に対応する、合成画像における各領域や各画素でのブレンド率の変化を決定する(T5)。UAV制御部110は、決定されたズーム倍率及びブレンド率の変化を設定し、メモリ160及びメモリ15に記憶する。
UAV制御部110は、撮像部220による撮像を制御する。撮像部220のカメラプロセッサ11は、シャッタ駆動部19を制御し、被写体を含む第1画像Gaを撮像する(T6)。カメラプロセッサ11は、第1画像Gaをメモリ160に記憶させてよい。
カメラプロセッサ11は、メモリ15等に記憶されたズーム倍率の変更範囲の情報を基に、ズーミング動作を行いながら、シャッタ駆動部19を制御し、被写体を含む第2画像Gbを撮像する(T7)。カメラプロセッサ11は、第2画像Gbをメモリ160に記憶させてよい。
UAV制御部110は、メモリ160に記憶された第1画像Ga及び第2画像Gbを、T5で決定されたブレンド率に従って合成し、合成画像Gmを生成する(T8)。
なお、ここでは、撮像開始前の飛行速度でブレンド率の変化が決定されたが、これに限られない。例えば、UAV制御部110は、飛行速度の情報を、逐次取得してよい。例えば、UAV制御部110は、手順T6,T7で撮像する際の飛行速度の値を用いて、ブレンド率を決定してよいし、手順T6,T7で撮像する際の飛行速度の値の平均値に従って、ブレンド率を決定してもよい。
UAV制御部110は、通信インタフェース150を介して、端末80に合成画像Gmを送信する(T9)。
端末80では、端末制御部81は、通信部85を介して、無人航空機100から合成画像Gmを受信すると、表示部88に合成画像Gmを表示させる(T10)。
なお、手順T8では、手順T6で撮像された第1画像Gaと、手順T7で撮像された第2画像Gbとの2枚の撮像画像を使って合成画像Gmを生成したが、1枚の撮像画像を基に、合成画像Gmを生成してよい。
図10の処理によれば、無人航空機100は、無人航空機100で撮像された際の実際の移動速度よりも、高速感が強調された画像を生成でき、人工的に高速感を演出できる。よって、例えば無人航空機100の飛行高度が高く、高速飛行感が出にくい場合でも、高速感を得やすい画像を生成できる。
なお、無人航空機100は、無人航空機100が飛行していない場合でも、無人航空機100が撮像された撮像画像に対して上記の高速移動エフェクトを施すことで、無人航空機100が高速移動しているような画像を疑似的に生成してよい。
図11は、第1画像Gaと第2画像Gbと合成画像Gmとの一例を示す図である。合成画像Gmは、高速飛行エフェクトが施された画像となる。
被写体は、一例として人物及び背景を含む。第1画像Gaは、無人航空機100の飛行速度に見合った速度で流れる比較的被写体が鮮明な画像である。第2画像Gbは、ズーミング動作されながら撮像された画像であり、高速に移動するような視覚効果を有する画像である。よって、第2画像Gbは、例えば、第2画像Gbの画像中心に位置する被写体の周囲に放射状の光の筋が入ったような画像となる。合成画像Gmは、第1画像Gaと第2画像Gbとが、飛行速度に応じたブレンド率で合成された画像である。よって、合成画像Gmは、画像中心にいる人物に急接近するように人物の周囲(背景)が流れたような画像となる。
具体的には、合成画像Gmは、画像中心付近は第1画像Gaと同一であり、画像端部付近は第2画像Gbと同一であり、画像中心付近と画像端部付近との間は第1画像Gaの成分と第2画像Gbの成分とが混在した画像となる。よって、合成画像Gmは、画像中心付近では鮮明な画像となるので、どのような被写体が描画されているか理解し易い。また、合成画像Gmは、画像端部付近ではズーム倍率が変化する画像つまり複数のズーム倍率の画像成分を含む画像となるので、合成画像Gmを見るユーザに対し、高速感や臨場感を演出できる。
このように、無人航空機100では、UAV制御部110は、無人航空機100の飛行速度(移動速度の一例)を取得する。撮像部220は、ズーム倍率を固定して第1画像Ga(第1の画像の一例)を撮像して取得する。撮像部220は、ズーム倍率を変化させながら第1画像Ga(第1画像Gaに写り込んだ被写体)が拡大された第2画像Gb(第2の画像の一例)を取得する。UAV制御部110は、無人航空機100の飛行速度に基づいて、第1画像Gaと第2画像Gbとを合成するためのブレンド率(合成比率の一例)を決定する。UAV制御部110は、決定されたブレンド率に基づいて、第1画像Gaと第2画像Gbとを合成し、合成画像Gmを生成する。
これにより、無人航空機100は、無人航空機100で撮像される画像を用いて、高速移動エフェクトが施された画像を容易に得ることができる。よって、ユーザは、例えばPC等を手動で操作しながらエフェクトをかける必要がなく、高速移動エフェクトが施された画像を得るために、例えば移動前や移動後の被写体の位置等を細かく調整しながら画像を編集しないで済む。したがって、無人航空機100は、ユーザの操作の煩雑性を低減でき、誤操作も低減できる。
また、UAV制御部110は、撮像部220のズーム倍率を変更しながら、第2画像Gbを撮像して取得してよい。
これにより、無人航空機100は、第2画像Gbとして実空間の画像を撮像するので、例えば、第2画像Gbを演算により生成する場合と比較すると、第2画像Gbを取得するための無人航空機100の処理負荷を低減できる。
また、UAV制御部110は、撮像部220を介して、第1画像Gaを撮像するための露光時間t1(第1の露光時間の一例)よりも第2画像Gbを撮像するための露光時間t2(第2の露光時間の一例)を長くして、第2画像Gbを撮像してよい。つまり、第2画像Gbが長時間露光画像であってよい。
これにより、無人航空機100は、高速移動エフェクトに主に寄与する第2画像Gbの露光時間を長くすることで、第2画像Gbの撮像中にズーム倍率を変更するための時間を確保できる。よって、無人航空機100は、例えばズーミング動作において光学ズームを用いる場合でも、ユーザが所望するズーム倍率に変更しながら、第2画像Gbを撮像し易くなる。
次に、1枚の撮像画像に基づく合成画像Gmの生成について説明する。
図10では、撮像画像として複数枚の画像(第1画像Ga,第2画像Gb)が撮像されることを示したが、1枚の撮像画像(第1画像Ga)を基に、合成画像Gmが生成されてもよい。この場合、UAV制御部110は、第1画像Gaに対し、異なるズーム倍率で拡大された複数の拡大画像を生成してよい。UAV制御部110は、生成されたこれらの複数の拡大画像を所定のサイズに切り出して複数の切り出し画像を生成し、複数の切り出し画像を合成して、第2画像Gbを生成してよい。この第2画像Gbは、例えば複数の切り出し画像の各画素値を平均化することで生成されてよい。そして、UAV制御部110は、撮像により得られた第1画像Gaと演算により得られた第2画像Gbとを合成し、合成画像Gmを生成してよい。
図12は、1枚の撮像画像を基に合成画像Gmを生成することを説明するための図である。
図12では、UAV制御部110は、1枚の第1画像Gaを基に、10枚の拡大画像B1〜B10を生成している。具体的には、UAV制御部110は、ズーム倍率を1.1として撮像画像Aが1.1倍に拡大された拡大画像B1、ズーム倍率を1.2として撮像画像Aが1.2倍に拡大された拡大画像B2、・・・、ズーム倍率を2.0として撮像画像Aが2.0倍に拡大された拡大画像B10、を生成してよい。
なお、各ズーム倍率は一例であり、各ズーム倍率を他の値に変更してもよい。また、ズーム倍率を一定の差分で変更せずに、様々な差分値でズーム倍率を変更してもよい。
UAV制御部110は、拡大画像B1〜B10の各々から、主被写体を含むように、撮像画像Aと同じサイズの範囲を切り出し、切り出し画像B1’〜B10’を生成する。UAV制御部110は、切り出し画像B1’〜B10’を合成し、1枚の第2画像Gbを生成する。この場合、UAV制御部110は、切り出し画像B1’〜B10’のそれぞれ対応する画素値を加算して平均し、第2画像Gbを生成してよい。よって、演算により得られた第2画像Gbは、1回の撮像でズーム倍率を変更しながら主被写体に接近するように撮像された画像と同様に、高速感が得られる画像となる。
なお、図12の例では、図7に示した無人航空機100の飛行速度が35km/hや50km/hの場合を想定している。そのため、図12で得られた第2画像Gbは、ズーム倍率を1.0から2.0に変更しながら撮像して得られる第2画像と同様の効果が得られる。
このように、UAV制御部110は、複数の異なるズーム倍率で第1画像Gaが拡大(ズームアップ)されて切り出された複数の切り出し画像B1’〜B10’(第3の画像の一例)を生成し、複数の切り出し画像B1’〜B10’を合成して第2画像Gbを生成してよい。
これにより、撮像部220による撮像が1回で済むので、撮像部220の撮像負担を軽減できる。つまり、撮像部220が第2画像Gbを撮像する代わりに、第1画像Gaを基に画像を加工して第2画像Gbを生成してよい。また、第1画像Gaを1回撮像した後には無人航空機100が移動しなくてもよく、例えば無人航空機100が停止した状態でも、高速感のある画像を合成画像Gmとして生成できる。
以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
上記実施形態では、移動体として、無人航空機を示したが、本開示は、これに限らず、カメラを搭載した無人自動車、カメラを搭載した自転車、人が移動しながら把持するカメラ付きのジンバル装置等に適用することも可能である。
10 飛行体システム
11 カメラプロセッサ
12 シャッタ
13 撮像素子
14 画像処理部
15 メモリ
18 フラッシュ
19 シャッタ駆動部
20 素子駆動部
21 ゲイン制御部
32 NDフィルタ
33 絞り
34 レンズ群
36 レンズ駆動部
38 ND駆動部
40 絞り駆動部
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100 無人航空機
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
200 ジンバル
210 回転翼機構
220,230 撮像部
220z 筐体
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
op 光軸

Claims (20)

  1. 撮像部と処理部とを備える移動体であって、
    前記処理部は、
    前記移動体の移動速度を取得し、
    前記撮像部を介して、前記撮像部のズーム倍率を固定して第1の画像を撮像し、
    ズーム倍率が変化しながら前記第1の画像がズームアップされた第2の画像を取得し、
    前記移動体の移動速度に基づいて、前記第1の画像と前記第2の画像とを合成するための合成比率を決定し、
    決定された前記合成比率に基づいて、前記第1の画像と前記第2の画像とを合成して、合成画像を生成する、
    移動体。
  2. 前記処理部は、前記撮像部を介して、前記撮像部のズーム倍率を変更しながら、前記第2の画像を撮像する、
    請求項1に記載の移動体。
  3. 前記処理部は、前記撮像部を介して、前記第1の画像を撮像するための第1の露光時間よりも前記第2の画像を撮像するための第2の露光時間を長くして、前記第2の画像を撮像する、
    請求項2に記載の移動体。
  4. 前記処理部は、
    前記第1の画像が複数の異なるズーム倍率でズームアップされた複数の第3の画像を生成し、
    複数の前記第3の画像を合成(例えば各画像の画素値を平均化)して、前記第2の画像を生成する、
    請求項1に記載の移動体。
  5. 前記処理部は、前記移動体の移動速度に基づいて、前記第2の画像を取得するための前記ズーム倍率の変更範囲を決定する、
    請求項1〜4のいずれか1項に記載の移動体。
  6. 前記移動体の移動速度が速い程、前記ズーム倍率の変更範囲が大きい、
    請求項5に記載の移動体。
  7. 前記合成画像は、前記合成画像の中心部から端部に向かって順に、前記第1の画像の成分を含み前記第2の画像の成分を含まない第1の領域と、前記第1の画像の成分と前記第2の画像の成分とを含む第2の領域と、前記第1の画像の成分を含まず前記第2の画像の成分を含む第3の領域と、を含む、
    請求項1〜6のいずれか1項に記載の移動体。
  8. 前記第2の領域では、前記第2の領域における位置が前記合成画像の端部に近い程、前記第2の画像の成分が多い、
    請求項7に記載の移動体。
  9. 前記合成画像では、前記移動体の移動速度が速い程、前記第1の領域が小さく、前記第3の領域が大きい、
    請求項7または8に記載の移動体。
  10. 移動体における画像生成方法であって、
    前記移動体の移動速度を取得するステップと、
    前記移動体が備える撮像部のズーム倍率を固定して第1の画像を撮像するステップと、
    ズーム倍率が変化しながら前記第1の画像がズームアップされた第2の画像を取得するステップと、
    前記移動体の移動速度に基づいて、前記第1の画像と前記第2の画像とを合成するための合成比率を決定するステップと、
    決定された前記合成比率に基づいて、前記第1の画像と前記第2の画像とを合成して、合成画像を生成するステップと、
    を有する画像生成方法。
  11. 前記第2の画像を取得するステップは、前記撮像部のズーム倍率を変更しながら、前記第2の画像を撮像するステップを含む、
    請求項10に記載の画像生成方法。
  12. 前記第2の画像を取得するステップは、前記第1の画像を撮像するための第1の露光時間よりも前記第2の画像を撮像するための第2の露光時間を長くして、前記第2の画像を撮像するステップを含む、
    請求項11に記載の画像生成方法。
  13. 前記第2の画像を取得するステップは、
    前記第1の画像が複数の異なるズーム倍率でズームアップされた複数の第3の画像を生成するステップと、
    複数の前記第3の画像を合成して、前記第2の画像を生成するステップと、を含む、
    請求項10に記載の画像生成方法。
  14. 前記第2の画像を取得するステップは、前記移動体の移動速度に基づいて、前記第2の画像を取得するための前記ズーム倍率の変更範囲を決定するステップを含む、
    請求項10〜13のいずれか1項に記載の画像生成方法。
  15. 前記移動体の移動速度が速い程、前記ズーム倍率の変更範囲が大きい、
    請求項14に記載の画像生成方法。
  16. 前記合成画像は、前記合成画像の中心部から端部に向かって順に、前記第1の画像の成分を含み前記第2の画像の成分を含まない第1の領域と、前記第1の画像の成分と前記第2の画像の成分とを含む第2の領域と、前記第1の画像の成分を含まず前記第2の画像の成分を含む第3の領域と、を含む、
    請求項10〜15のいずれか1項に記載の画像生成方法。
  17. 前記第2の領域では、前記第2の領域における位置が前記合成画像の端部に近い程、前記第2の画像の成分が多い、
    請求項16に記載の画像生成方法。
  18. 前記合成画像では、前記移動体の移動速度が速い程、前記第1の領域が小さく、前記第3の領域が大きい、
    請求項16または17に記載の画像生成方法。
  19. 移動体に、
    前記移動体の移動速度を取得するステップと、
    前記移動体が備える撮像部のズーム倍率を固定して第1の画像を撮像するステップと、
    ズーム倍率が変化しながら前記第1の画像がズームアップされた第2の画像を取得するステップと、
    前記移動体の移動速度に基づいて、前記第1の画像と前記第2の画像とを合成するための合成比率を決定するステップと、
    決定された前記合成比率に基づいて、前記第1の画像と前記第2の画像とを合成して、合成画像を生成するステップと、
    を実行させるための、プログラム。
  20. 移動体に、
    前記移動体の移動速度を取得するステップと、
    前記移動体が備える撮像部のズーム倍率を固定して第1の画像を撮像するステップと、
    ズーム倍率が変化しながら前記第1の画像がズームアップされた第2の画像を取得するステップと、
    前記移動体の移動速度に基づいて、前記第1の画像と前記第2の画像とを合成するための合成比率を決定するステップと、
    決定された前記合成比率に基づいて、前記第1の画像と前記第2の画像とを合成して、合成画像を生成するステップと、
    を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2018103758A 2018-05-30 2018-05-30 移動体、画像生成方法、プログラム、及び記録媒体 Ceased JP2019207635A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018103758A JP2019207635A (ja) 2018-05-30 2018-05-30 移動体、画像生成方法、プログラム、及び記録媒体
PCT/CN2019/088775 WO2019228337A1 (zh) 2018-05-30 2019-05-28 移动体、图像生成方法、程序以及记录介质
CN201980003198.XA CN110800287B (zh) 2018-05-30 2019-05-28 移动体、图像生成方法、程序以及记录介质
US16/950,461 US20210092306A1 (en) 2018-05-30 2020-11-17 Movable body, image generation method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103758A JP2019207635A (ja) 2018-05-30 2018-05-30 移動体、画像生成方法、プログラム、及び記録媒体

Publications (1)

Publication Number Publication Date
JP2019207635A true JP2019207635A (ja) 2019-12-05

Family

ID=68697156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103758A Ceased JP2019207635A (ja) 2018-05-30 2018-05-30 移動体、画像生成方法、プログラム、及び記録媒体

Country Status (4)

Country Link
US (1) US20210092306A1 (ja)
JP (1) JP2019207635A (ja)
CN (1) CN110800287B (ja)
WO (1) WO2019228337A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11869236B1 (en) * 2020-08-24 2024-01-09 Amazon Technologies, Inc. Generating data for training vision-based algorithms to detect airborne objects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035777A (ja) * 2009-08-04 2011-02-17 Aisin Seiki Co Ltd 車両周辺認知支援装置
JP2015170989A (ja) * 2014-03-07 2015-09-28 西日本高速道路エンジニアリング関西株式会社 トンネル壁面撮影装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178539A (ja) * 1996-12-17 1998-06-30 Fuji Xerox Co Ltd 画像処理装置及び画像処理方法
JPH10233919A (ja) * 1997-02-21 1998-09-02 Fuji Photo Film Co Ltd 画像処理装置
JP3695119B2 (ja) * 1998-03-05 2005-09-14 株式会社日立製作所 画像合成装置、及び画像合成方法を実現するプログラムを記録した記録媒体
CN1197351C (zh) * 2000-01-24 2005-04-13 松下电器产业株式会社 图像合成装置
JP4596219B2 (ja) * 2001-06-25 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596224B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4321287B2 (ja) * 2004-02-10 2009-08-26 ソニー株式会社 撮影装置および撮影方法、並びに、プログラム
KR100657522B1 (ko) * 2006-03-31 2006-12-15 삼성전자주식회사 휴대용 단말기를 이용한 아웃 포커싱 촬영 장치 및 방법
US8687918B2 (en) * 2008-03-05 2014-04-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method, image processing system, and computer program
JP2010268441A (ja) * 2009-04-16 2010-11-25 Sanyo Electric Co Ltd 画像処理装置、撮像装置及び画像再生装置
CN106603931A (zh) * 2017-02-27 2017-04-26 努比亚技术有限公司 一种双目拍摄方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035777A (ja) * 2009-08-04 2011-02-17 Aisin Seiki Co Ltd 車両周辺認知支援装置
JP2015170989A (ja) * 2014-03-07 2015-09-28 西日本高速道路エンジニアリング関西株式会社 トンネル壁面撮影装置

Also Published As

Publication number Publication date
CN110800287A (zh) 2020-02-14
WO2019228337A1 (zh) 2019-12-05
US20210092306A1 (en) 2021-03-25
CN110800287B (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
EP3488603B1 (en) Methods and systems for processing an image
US20200218289A1 (en) Information processing apparatus, aerial photography path generation method, program and recording medium
JP7501535B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム
JP2020036163A (ja) 情報処理装置、撮影制御方法、プログラム及び記録媒体
WO2020011230A1 (zh) 控制装置、移动体、控制方法以及程序
JP2021096865A (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
JP2019110462A (ja) 制御装置、システム、制御方法、及びプログラム
US20230032219A1 (en) Display control method, display control apparatus, program, and recording medium
JP6630939B2 (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム
WO2019238044A1 (zh) 确定装置、移动体、确定方法以及程序
WO2018214401A1 (zh) 移动平台、飞行体、支持装置、便携式终端、摄像辅助方法、程序以及记录介质
JP2019028560A (ja) モバイルプラットフォーム、画像合成方法、プログラム、及び記録媒体
US20210092282A1 (en) Control device and control method
CN110800287B (zh) 移动体、图像生成方法、程序以及记录介质
JP6875269B2 (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
WO2021115192A1 (zh) 图像处理装置、图像处理方法、程序及记录介质
JP6790318B2 (ja) 無人航空機、制御方法、及びプログラム
WO2019061859A1 (zh) 移动平台、摄像路径生成方法、程序、以及记录介质
JP2020003428A (ja) 情報処理装置、飛行経路生成方法、プログラム、及び記録媒体
WO2020108284A1 (zh) 确定装置、移动体、确定方法以及程序
JP2019212961A (ja) 移動体、光量調整方法、プログラム、及び記録媒体
WO2020011198A1 (zh) 控制装置、移动体、控制方法以及程序
JP6803960B1 (ja) 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP2020095519A (ja) 形状推定装置、形状推定方法、プログラム、及び記録媒体
JP6569157B1 (ja) 制御装置、撮像装置、移動体、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220304

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20221220