JP7409370B2 - 映像処理装置および映像処理方法 - Google Patents
映像処理装置および映像処理方法 Download PDFInfo
- Publication number
- JP7409370B2 JP7409370B2 JP2021509041A JP2021509041A JP7409370B2 JP 7409370 B2 JP7409370 B2 JP 7409370B2 JP 2021509041 A JP2021509041 A JP 2021509041A JP 2021509041 A JP2021509041 A JP 2021509041A JP 7409370 B2 JP7409370 B2 JP 7409370B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- scene
- information
- prior information
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 102
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000008859 change Effects 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 32
- 238000004891 communication Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 28
- 238000002360 preparation method Methods 0.000 description 25
- 238000001356 surgical procedure Methods 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 23
- 230000003287 optical effect Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 238000002674 endoscopic surgery Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 17
- 238000004519 manufacturing process Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 8
- 238000010336 energy treatment Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000004091 panning Methods 0.000 description 5
- 208000005646 Pneumoperitoneum Diseases 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 210000003815 abdominal wall Anatomy 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 2
- 239000003153 chemical reaction reagent Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 description 2
- 229960004657 indocyanine green Drugs 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000007789 sealing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 241000110058 Candidatus Phytoplasma pini Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000002073 fluorescence micrograph Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 201000007270 liver cancer Diseases 0.000 description 1
- 208000014018 liver neoplasm Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002406 microsurgery Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000001954 sterilising effect Effects 0.000 description 1
- 238000004659 sterilization and disinfection Methods 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2228—Video assist systems used in motion picture production, e.g. video cameras connected to viewfinders of motion picture cameras or related video signal processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
Description
本開示は、映像処理装置および映像処理方法に関し、特に、各担当者の事前準備を容易にする映像処理装置および映像処理方法に関する。
映画やドラマ、CM(Commercial Message)などの映像コンテンツは、事前に準備されたシナリオに基づいて制作されるのが一般的であり、そのシナリオに従って複数回の撮影(テイク)が行われる。撮影現場では、映像コンテンツによっては数十名から100名を超える多数の撮影スタッフが撮影に関わることがある。
撮影現場においては、撮影スタッフ間でシナリオが十分に共有されていない場合や、リハーサル撮影の度にシナリオが更新される場合がある。このような場合、全ての撮影スタッフが次のシーンを十分に理解できていないことから、互いの機材の操作タイミングが合わず、シーンの撮り直しを行うこともある。
これに対して、撮影スタッフ同士が無線音声通信により次のシーンに向けてどのような準備を行うかを口頭で伝え合ったり、各撮影スタッフがカメラから出力される映像を確認しながら次のシーンを予測することで次のシーンに備えることが行われている。
また、特許文献1には、リハーサルモードにおいて撮影装置の動きを記憶し、再現撮影モードにおいて撮影を行う際に、記憶された撮影装置の動きに基づいて、その動かし方を案内する記号を表示する技術が開示されている。
シナリオが単純な場合を除いて、次のシーンがどのようなシーンであるかを表す情報があらかじめモニタに表示されていれば、撮影スタッフの事前準備は容易になる。
しかしながら、特許文献1には、カメラ担当スタッフ以外の、マイクロフォン(マイク)を扱う音声スタッフや、照明機器を操作する照明スタッフなど、撮影現場の担当者毎に必要な情報を提示することは開示されていない。
本開示は、このような状況に鑑みてなされたものであり、各担当者の事前準備を容易にすることができるようにするものである。
本開示の映像処理装置は、現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示されるように、前記事前情報の提示を制御する提示制御部を備える映像処理装置である。
本開示の映像処理方法は、映像処理装置が、現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示されるように、前記事前情報の提示を制御する映像処理方法である。
本開示においては、現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示される。
以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.本開示に係る技術の概要
2.映像処理装置の構成と動作
3.ユースケース
4.撮影現場における事前情報の提示例
5.効果
6.応用例
2.映像処理装置の構成と動作
3.ユースケース
4.撮影現場における事前情報の提示例
5.効果
6.応用例
<1.本開示に係る技術の概要>
図1は、本開示に係る技術(本技術)を適用した映像処理システムの例を示す図である。
図1は、本開示に係る技術(本技術)を適用した映像処理システムの例を示す図である。
図1のカメラ10は、映画やドラマ、CMなどの映像コンテンツの制作のための撮影を行う。カメラ10は、メモリ11を備えており、本番撮影の前に行われたリハーサル撮影において撮影されたリハーサル映像が保存された記録メディア20から、そのリハーサル映像がメモリ11に読み込まれる。
また、カメラ10は、本番撮影において現在撮影されている本番映像PVをSDI(Serial Digital Interface)に対応した各出力系統に出力する。図1の例では、音声スタッフH1、照明スタッフH2、・・・、そして監督H3それぞれが確認するモニタに本番映像PVが表示されている。
本番撮影では、リハーサル映像とほぼ同じ条件や設定で撮影が行われるが、演者や撮影スタッフ同士の間の動作に微妙なずれが生じることで、本番撮影をやり直すことがある。
本番撮影においては、カメラアングル、音声記録用の外部マイクでの音声収録、照明の照射、カメラを載せる雲台やクレーン・ドリーなどの操作、演者の動きなど、それぞれの役割の人が互いの動きを合わせることにより、良質な映像コンテンツが制作される。
本技術の映像処理システムにおいては、各担当者(撮影スタッフおよび演者)が、担当者毎のモニタに提示される事前情報を確認することで、各担当者の事前準備を容易にすることができる。事前情報は、本番映像の出力先に対応する各担当者に、所定時間後のシーンに対する動作を促す情報であり、カメラ10によって、メモリ11に読み込まれたリハーサル映像が解析されることで生成される。
具体的には、音声スタッフH1が確認するモニタにおいては、カメラ10から出力される本番映像PV上に、所定時間後にカメラが右にパンすることを示す事前情報d1が提示されている。また、照明スタッフH2が確認するモニタにおいては、カメラ10から出力される本番映像PV上に、所定時間後のF値を示す事前情報d2が提示されている。
このような事前情報により、各担当者は、所定時間後のシーンに対する動作の事前準備を行うことができる。
なお、監督H3は、映像自体に集中できればよいことから、監督H3が確認するモニタに表示される本番映像PV上には、いずれの事前情報も提示されていない。
図2は、音声スタッフH1と照明スタッフH2が事前情報を確認することで事前準備を行う例を示す図である。
音声スタッフH1は、カメラ内蔵のマイクではなく外部マイクによって音声収録を行う際、外部マイクが本番映像に映り込まないように、常に注意を払う必要がある。
図2に示されるように、時刻t1にカメラが右にパンするシーンがある場合、時刻t0において、音声スタッフH1が確認している本番映像PV0上に、カメラが右にパンすることを示す右矢印形状の事前情報d11が提示される。
これにより、音声スタッフH1は、本番映像の右側に外部マイクが映り込まないようにするための事前準備を行うことができる。
照明スタッフH2は、反射板で被写体への光の当たり方を調整したり、照明機器で被写体を照らしたりする。
図2に示されるように、時刻t2に光源LSによって被写体(演者)に強い光が照射されるシーンがある場合、時刻t1において、照明スタッフH2が確認している本番映像PV1上に、アイリスが絞られてF値がf/16になることを示す事前情報d12が提示される。事前情報d12は、図中下方向を時間軸方向としたF値の変化を表すグラフとして示され、グラフ曲線上の白丸が現在のF値を表し、黒丸が時刻t3におけるF値(=f/16)を表している。
これにより、照明スタッフH2は、アイリスが絞られることで被写体の顔の輝度が低くなることを避けるために、反射板で被写体の顔に光が当たるようにするための事前準備を行うことができる。
なお、図2の例において、本番映像PV0,PV1,PV2の右端には、今後のシーンを代表する複数枚の代表フレーム画像RIが提示されている。代表フレーム画像RIは、リハーサル映像から抽出された特定のフレーム画像である。代表フレーム画像RIは、例えば、シーンチェンジが発生したり、被写体に大きな動きがあるタイミングのフレーム画像であってもよいし、所定数フレーム毎のフレーム画像であってもよい。図2の例では、複数枚の代表フレーム画像RIが提示されているが、提示される代表フレーム画像RIは1枚のみであってもよい。
以下においては、上述した事前情報の提示を実現する本技術の映像処理装置の構成と動作について説明する。
<2.映像処理装置の構成と動作>
(ブロック構成)
図3は、本技術の映像処理装置としてのカメラ10の機能構成例を示すブロック図である。
(ブロック構成)
図3は、本技術の映像処理装置としてのカメラ10の機能構成例を示すブロック図である。
図3のカメラ10は、メモリ11、撮像部12、映像処理部13、出力部14、事前情報生成部15、メタデータ生成部16、提示制御部17、重畳部18、および記録部19を備えている。
メモリ11は、記録メディア20に保存されている、あらかじめ撮影されて記録された記録映像(リハーサル映像)の映像データD21とそのメタデータD22を読み込んで保存する。リハーサル映像において、メタデータD22は、映像データD21とともにフレーム毎に記録されるが、メモリ11には、映像データD21とメタデータD22とは別個に保存される。メタデータD22には、リハーサル映像に関する時間情報やカメラパラメータ、カメラの姿勢情報、カメラの位置情報、音声情報などが含まれる。
撮像部12は、ズームレンズやアイリスなどの光学系と、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサやCCD(Charge-Coupled Device)イメージセンサなどの固体撮像素子から構成される。撮像部12は、被写体を撮像することで撮影映像(本番映像)を取得し、その撮影映像を表すアナログの映像信号を映像処理部13に供給する。
映像処理部13は、撮像部12からの映像信号をデジタル変換し、ゲインや輝度、色温度などを調整する所定の映像処理を行うことで映像データを生成し、出力部14に供給する。
出力部14は、映像処理部13からの映像データを、SDI出力,LCD(Liquid Crystal Display)モニタ用出力、ビューファインダ用出力、ストリーミング出力などの出力系統毎のフォーマットに変換して、それぞれの出力先となる表示装置に出力する。
事前情報生成部15は、メモリ11に保存されているリハーサル映像の映像データD21とメタデータD22に基づいて、図1や図2を参照して説明したような事前情報を生成する。また、事前情報生成部15は、メモリ11に保存されているリハーサル映像の映像データD21とメタデータD22に基づいて、生成された事前情報を提示する提示タイミングを求める。生成された事前情報は、映像データD21とメタデータD22、および、提示タイミングを示す情報とともに、提示制御部17に供給される。
メタデータ生成部16は、映像処理部13によって生成された本番映像の映像データに対応するメタデータを生成する。メタデータには、本番映像に関する時間情報やカメラパラメータ、カメラ10の姿勢情報、カメラ10の位置情報などが含まれる。生成されたメタデータは、映像処理部13からの映像データとともに、提示制御部17に供給される。
提示制御部17は、リハーサル映像と本番映像を比較することで、事前情報の提示を制御する。
具体的には、提示制御部17は、事前情報生成部15からのリハーサル映像の映像データD21およびメタデータD22と、メタデータ生成部16からの本番映像の映像データおよびメタデータとを比較する。提示制御部17は、リハーサル映像と本番映像の比較の結果、上述した提示タイミングで、事前情報が、本番映像の出力先(出力系統)に応じた態様で提示されるように、事前情報の提示を制御する。より詳細には、提示制御部17は、重畳部18を制御することで、出力部14から出力される出力系統毎の映像(映像データ)への事前情報の重畳を制御する。
重畳部18は、提示制御部17の制御に基づいて、上述した提示タイミングで提示されるように、出力部14から出力される出力系統毎の映像に、事前情報を重畳する。
記録部19は、例えば、磁気テープやハードディスクなどの記録媒体で構成される。記録部19には、出力部14から出力される映像が記録される。出力部14から出力される映像は、カメラ10が備えるスロットに挿入される記録メディア20に記録されてもよい。
以上のような構成により、カメラ10は、リハーサル映像に基づいて事前情報を生成し、適切なタイミングで、本番映像上に事前情報を提示することができる。以下では、上述した構成を備えるカメラ10の動作について説明する。
(事前情報生成処理の流れ)
まず、図4のフローチャートを参照して、カメラ10による事前情報生成処理の流れについて説明する。図4の処理は、記録メディア20に保存されているリハーサル映像がメモリ11に読み込まれた後、例えばユーザの操作により事前情報の生成が指示されることで開始される。
まず、図4のフローチャートを参照して、カメラ10による事前情報生成処理の流れについて説明する。図4の処理は、記録メディア20に保存されているリハーサル映像がメモリ11に読み込まれた後、例えばユーザの操作により事前情報の生成が指示されることで開始される。
ステップS11において、事前情報生成部15は、メモリ11に保存されているリハーサル映像の映像データD21から、メタデータD22を抽出する。
ステップS12において、事前情報生成部15は、メモリ11に保存されているリハーサル映像の映像データD21から、演技開始シーンのタイムコードを検出する。タイムコードは、リハーサル映像全体における各フレーム画像の時間的な位置を示す時間情報である。
演技開始シーンは、リハーサル映像において特定のカットの始まりとなるシーンである。演技開始シーンは、例えば、リハーサル映像において、監督の「アクション」という発声が検出されたシーンや、音の鳴る拍子木部分とショット情報を記載するボード部分からなるカチンコによる演技開始の指示が、映像または音声として検出されたシーンとされる。
ステップS13において、事前情報生成部15は、演技開始シーン以降のリハーサル映像の映像データD21とメタデータD22を解析する。ここでは、少なくとも、演技開始シーン以降のリハーサル映像のメタデータD22が解析されればよく、リハーサル映像の映像データD21は必ずしも解析されなくてもよい。
映像データD21とメタデータD22の解析により、メタデータD22の変化が検知されると、ステップS14において、事前情報生成部15は、演技開始シーンを基準としたメタデータ変化シーンのタイムコードを検出する。
ステップS15において、事前情報生成部15は、変化したメタデータに基づいて、メタデータ変化シーンについての事前情報を生成する。事前情報は、本番映像の出力先に対応するユーザに、メタデータ変化シーンにおける本番映像のメタデータの変化を提示する情報である。事前情報は、数字を含む文字や記号、および図形の少なくともいずれかを含む表示情報として、本番映像が出力される出力系統毎に生成される。
そして、ステップS16において、事前情報生成部15は、事前情報の提示タイミングを求める。
例えば、図5に示されるように、リハーサル映像において、演技開始シーンRV10を基準とした時刻t12においてカメラが右にパンする場合、時刻t12のシーンが、メタデータ変化シーンRV12に特定される。
このメタデータ変化シーンRV12は、例えばリハーサル映像のメタデータのうちのジャイロ情報が解析されることで特定される。これに限らず、例えばリハーサル映像自体の動き解析の解析結果に基づいて、メタデータ変化シーンRV12が特定されてもよい。
メタデータ変化シーンRV12が特定されると、その時刻t12より前の時刻t11に提示される事前情報が生成される。
図5の例では、時刻t12においてカメラが右にパンすることを示す事前情報d51が生成されるが、事前情報d51の他にも、本番映像の出力先となるモニタを確認するユーザに応じた態様の事前情報が生成される。
また、事前情報の提示タイミングとなる時刻t11は、メタデータ変化シーンRV12の時刻t12から時間Taだけ遡ることで求められる。時間Taの長さは、あらかじめ設定された時間長とするが、本番映像の出力先となるモニタを確認するユーザ毎に異なる時間長に設定されてもよい。すなわち、事前情報の提示タイミングとなる時刻t11は、本番映像の出力先毎に異なるタイミングに設定されてもよい。
以上のような処理により、事前情報が生成されるとともに、その提示情報の本番映像における提示タイミングが求められる。
なお、撮影現場においては、複数テイクのリハーサル撮影が行われることがある。この場合、事前情報の生成には、直前のテイクのリハーサル撮影において撮影されたリハーサル映像が用いられてもよいし、メニュー画面において、どのテイクのリハーサル映像を用いるかが選択されるようにしてもよい。
(事前情報提示処理の流れ)
次に、図6のフローチャートを参照して、カメラ10による事前情報提示処理の流れについて説明する。図6の処理は、本番映像の撮影が開始されることで開始される。本番映像の撮影が開始されると、メタデータ生成部16は、映像処理部13によって生成された本番映像の映像データに対応するメタデータの生成を開始し、本番映像のフレーム画像とともに提示制御部17に供給する。
次に、図6のフローチャートを参照して、カメラ10による事前情報提示処理の流れについて説明する。図6の処理は、本番映像の撮影が開始されることで開始される。本番映像の撮影が開始されると、メタデータ生成部16は、映像処理部13によって生成された本番映像の映像データに対応するメタデータの生成を開始し、本番映像のフレーム画像とともに提示制御部17に供給する。
ステップS31において、提示制御部17は、事前情報生成部15から、事前情報とその提示タイミングを示す情報を、リハーサル映像の映像データおよびメタデータとともに取得する。
ステップS32において、提示制御部17は、メタデータ生成部16からの本番映像において、演技開始シーンが検出されたか否かを判定する。ステップS32の処理は、本番映像において演技開始シーンが検出されたと判定されるまで繰り返される。
そして、本番映像において演技開始シーンが検出されたと判定されると、処理はステップS33に進む。
ステップS33において、提示制御部17は、本番映像とリハーサル映像を比較する。具体的には、提示制御部17は、本番映像の演技開始シーン以降の各フレーム画像のメタデータと、リハーサル映像の演技開始シーン以降の各フレーム画像のメタデータの比較を開始する。
ここでは、少なくとも、本番映像の演技開始シーン以降の各フレーム画像のタイムコードと、リハーサル映像の演技開始シーン以降の各フレーム画像のタイムコードが比較される。これにより、本番映像において、リハーサル映像の各シーンに対応するシーンを特定することができる。
また、タイムコード以外にも、本番映像とリハーサル映像それぞれの各フレーム画像のメタデータとして、カメラパラメータ、カメラの姿勢情報、カメラの位置情報、音声情報などが比較されてもよい。
さらに、本番映像とリハーサル映像それぞれの各フレーム画像のメタデータに加え、本番映像とリハーサル映像それぞれの各フレーム画像(映像データ)同士が比較されてもよい。これにより、本番映像において、リハーサル映像の各シーンに対応するシーンを、より確実に特定することができる。
本番映像とリハーサル映像が比較される中、ステップS34において、提示制御部17は、事前情報の提示タイミングであるか否かを判定する。事前情報の提示タイミングであると判定されるまで、本番映像とリハーサル映像の比較(ステップS33の処理)は繰り返される。
そして、事前情報の提示タイミングであると判定されると、処理はステップS35に進む。
ステップS35において、提示制御部17は、重畳部18を制御することで、出力部14から出力される出力系統毎の映像に、事前情報を重畳する。
その後、ステップS36において、撮影終了指示があったか否かが判定される。撮影終了指示があったと判定されると、図6の処理は終了する。
例えば、図7に示されるように、本番映像において、リハーサル映像の演技開始シーンRV10に対応する演技開始シーンPV10が検出されると、本番映像とリハーサル映像の比較が開始される。
演技開始シーンPV10を基準として、事前情報の提示タイミングとなる時刻t11になると、本番映像における時刻t11のシーンPV11に、時刻t12においてカメラが右にパンすることを示す事前情報d51が重畳表示される。
その後、本番映像において、時刻t12のシーンPV12で、カメラが右にパンし、演技が終了する。
上述した例では、リハーサル映像のジャイロ情報が解析されることで、本番映像の右側に外部マイクが映り込まないようにする事前準備を行うための事前情報が生成されるものとした。これに限らず、リハーサル映像の各種のメタデータが解析されることで、様々な事前準備を行うための事前情報が生成されるようにもできる。
図8は、メタデータの解析の例を示す図である。
例えば、リハーサル映像のカメラパラメータの一つであるF値を解析することで、明るさ、被写界深度、フォーカス合わせが分かることから、反射板や外部照明の調節のタイミングを確認するための事前情報を生成することができる。
リハーサル映像のカメラパラメータの一つであるフォーカスポジションを解析することで、合焦度、手前または奥にピントがあっているか否かが分かることから、人や車、物体が動くタイミングを確認するための事前情報を生成することができる。
リハーサル映像のカメラパラメータの一つであるレンズのズーム倍率を解析することで、画角の変化、広角か望遠かが分かることから、近く/遠くの物体または人が動き出すタイミングを確認するための事前情報を生成することができる。
リハーサル映像のカメラパラメータの一つである電子ズーム倍率を解析することで、画角の変化、広角か望遠かが分かることから、近く/遠くの物体または人が動き出すタイミングを確認するための事前情報を生成することができる。
リハーサル映像のカメラパラメータの一つである色温度を解析することで、色温度はもちろん、屋内/屋外、天候が分かることから、舞台照明、屋内/屋外の光源の切り替えタイミングを確認するための事前情報を生成することができる。
リハーサル映像のカメラパラメータの一つであるKneeポイントやKneeスロープを解析することで、高輝度部分の画(え)の見え方が分かることから、反射板や外部照明の調節のタイミングを確認するための事前情報を生成することができる。
リハーサル映像のカメラパラメータの一つであるゲインを解析することで、ゲイン設定(明暗、ノイズ感)が分かることから、反射板や外部照明の調節のタイミングを確認するための事前情報を生成することができる。
リハーサル映像のカメラパラメータの一つであるNDフィルタやCCフィルタの使用有無を解析することで、フィルタ濃度(明暗、色温度)が分かることから、反射板や外部照明の調節のタイミングを確認するための事前情報を生成することができる。
リハーサル映像の時間情報の一つであるタイムコードや時刻を解析することで、現在の撮影時刻と事前情報を表示する時刻との差分を提示するための事前情報を生成することができる。
リハーサル映像の音声情報を解析することで、音声レベルが分かることから、音を入れる、または、音を抜くタイミングを確認するための事前情報を生成することができる。
リハーサル映像撮影時のカメラの位置情報の一つであるGPS(Global Positioning System)情報を解析することで、撮影位置が分かることから、撮影の邪魔にならないようにするための事前情報や、これから撮影しようとする被写体の準備をするための事前情報を生成することができる。
上述したように、リハーサル映像撮影時のカメラの姿勢情報の一つであるジャイロ情報を解析することで、撮影方向が分かることから、撮影の邪魔にならないようにするための事前情報や、これから撮影しようとする被写体の準備をするための事前情報を生成することができる。
リハーサル映像の顔情報を解析することで、顔の有無、顔の位置、性別、人種が分かることから、演者が映るタイミングや演者が映らなくなるタイミングを確認するための事前情報を生成することができる。
このようにして生成された様々な事前準備を行うための事前情報が、本番映像において演技開始シーンが検出されたことをトリガとして、本番映像の出力先に応じた態様で提示される。すなわち、以上の処理によれば、撮影現場における各担当者の事前準備を容易にすることが可能となる。
<3.ユースケース>
本技術を適用した映像処理システムのユースケースについて説明する。
本技術を適用した映像処理システムのユースケースについて説明する。
(ユースケース1)
図9に示されるカメラ10Aは、映画の制作のための撮影を行う。一般的に、映画制作用のカメラは、ビューファインダ(VF)用出力やLCDモニタ用出力、本線SDI出力やモニタ用SDI出力など複数の出力系統への出力が可能であるが、各出力系統のモニタは、異なる担当の撮影スタッフが確認することが多い。
図9に示されるカメラ10Aは、映画の制作のための撮影を行う。一般的に、映画制作用のカメラは、ビューファインダ(VF)用出力やLCDモニタ用出力、本線SDI出力やモニタ用SDI出力など複数の出力系統への出力が可能であるが、各出力系統のモニタは、異なる担当の撮影スタッフが確認することが多い。
図9の例では、カメラアシスタントH11-1,H11-2が、VFやLCDモニタに出力される本番映像PV31を確認し、照明スタッフH12が、SDIモニタに出力される本番映像PV31を確認している。また、監督H13は、本線系のSDIモニタに表示される本番映像PV31を確認している。
カメラアシスタントH11-1,H11-2が確認している本番映像PV31には、所定時間後にカメラが右にパンすることを示す事前情報d31が重畳されている。これにより、カメラアシスタントH11-1,H11-2は、所定時間後にカメラを右にパンさせるための事前準備を行うことができる。
照明スタッフH12が確認している本番映像PV31にも、所定時間後にカメラが右にパンすることを示す事前情報d31が重畳されている。これにより、照明スタッフH12は、所定時間後にカメラが右にパンすることに対する動作の事前準備を行うことができる。なお、照明スタッフH12が確認している本番映像PV31の右端には、今後のシーンを代表する代表フレーム画像RI31が重畳されている。
監督H13が確認している本番映像PV31には、いずれの事前情報も重畳されていない。これにより、監督H13は、撮影されている本番映像自体に集中することができる。
(ユースケース2)
図10に示されるカメラ10Bもまた、映画の制作のための撮影を行う。
図10に示されるカメラ10Bもまた、映画の制作のための撮影を行う。
図10の例では、図9と同様に、カメラアシスタントH11-1,H11-2が、VFやLCDモニタに出力される本番映像PV31を確認し、監督H13は、本線系のSDIモニタに表示される本番映像PV31を確認している。また、図10の例では、撮影監督H21が、SDIモニタに出力される本番映像PV31を確認している。
撮影監督H21が確認している本番映像PV31には、所定時間後にカメラを右にパンすることを示す事前情報d31が重畳されている。これにより、撮影監督H21は、所定時間後にカメラを右にパンさせるための事前準備を行うことができる。
これに加え、図10の例では、撮影現場の各撮影スタッフH30が所持する小型の表示装置のモニタに、本番映像PV31がワイヤレスでストリーミング出力されている。本番映像PV31は、ハブを介して複数の表示装置にストリーミング出力される。
表示装置のモニタには、本番映像PV31の他、各撮影スタッフH30の担当毎のボタンb1,b2,b3,b4が表示されている。ボタンb1は、音声スタッフのためのボタンであり、ボタンb2は、照明スタッフのためのボタンである。また、ボタンb3は、演者のためのボタンであり、ボタンb4は、クレーン・ドリー操作担当のためのボタンである。
各撮影スタッフH30は、表示装置のモニタにおいて、自分の担当のボタンを選択することで、自身の事前準備に必要な事前情報を確認することができる。
ここで、図11を参照して、各撮影スタッフH30が所持する表示装置の構成について説明する。
図11に示される表示装置110は、例えばタブレット端末やスマートフォンなどの携帯端末として構成される。
表示装置110は、I/F部111、入力部112、提示制御部113、およびモニタ114を備えている。
I/F部111は、Wi-Fi(登録商標)や4G,5Gなどの無線通信規格に適応した通信を行う無線インタフェースである。I/F部111は、カメラ10からストリーミング出力される本番映像を受信し、提示制御部113に供給する。
なお、表示装置110には、出力系統それぞれに応じた態様の事前情報が全て重畳された本番映像がストリーミング出力される。
入力部112は、モニタ114とともにタッチパネルを構成し、そのタッチパネルに対するユーザの操作を受け付ける。例えば、入力部112は、モニタ114に表示されたボタンb1,b2,b3,b4のいずれかの選択操作を受け付け、その操作内容を表す操作信号を提示制御部113に供給する。
提示制御部113は、入力部112からの操作信号に基づいて、事前情報が出力先に応じた態様で提示されるように、事前情報の提示を制御する。具体的には、提示制御部113は、モニタ114に表示されたボタンを選択するユーザの選択操作に応じて、選択されたボタンに対応する出力系統に応じた態様の事前情報が重畳された本番映像をモニタ114に表示させる。
より詳細には、提示制御部113は、出力系統それぞれに応じた態様の事前情報が全て重畳された本番映像から、選択されたボタンに対応する出力系統に応じた態様の事前情報以外の事前情報を削除して、モニタ114に提示させる。
モニタ114は、入力部112とともにタッチパネルを構成し、提示制御部113の制御に基づいて、選択されたボタンに対応する出力系統に応じた態様の事前情報が重畳された本番映像を表示する。
図12は、各撮影スタッフH30の表示装置110に表示される本番映像について説明する図である。
図12のAには、音声スタッフH31が所持する表示装置110に表示される本番映像PV31が示されている。音声スタッフH31は、表示装置110のモニタ114に表示されるボタンb1を選択することで、所定時間後にカメラが右にパンすることを示す事前情報d31が重畳された本番映像PV31を確認することができる。これにより、音声スタッフH31は、所定時間後に本番映像の右側に外部マイクが映り込まないようにするための事前準備を行うことができる。
図12のBには、照明スタッフH32が所持する表示装置110に表示される本番映像PV31が示されている。照明スタッフH32は、表示装置110のモニタ114に表示されるボタンb2を選択することで、所定時間後にF値がf/16になることを示す事前情報d32が重畳された本番映像PV31を確認することができる。これにより、照明スタッフH32は、所定時間後に反射板で被写体の顔に光が当たるようにするための事前準備を行うことができる。
図12のCには、演者H33が所持する表示装置110に表示される本番映像PV31が示されている。演者H33は、表示装置110のモニタ114に表示されるボタンb3を選択することで、所定時間後に演者H33の身体や顔が映る位置を示す事前情報d33が重畳された本番映像PV31を確認することができる。これにより、演者H33は、所定時間後に正しい立ち位置で演じるための事前準備を行うことができる。
図12のDには、クレーン・ドリー操作担当H34が所持する表示装置110に表示される本番映像PV31が示されている。クレーン・ドリー操作担当は、表示装置110のモニタ114に表示されるボタンb4を選択することで、所定時間後にカメラが右にパンすることを示す事前情報d31が重畳された本番映像PV31を確認することができる。これにより、クレーン・ドリー操作担当は、所定時間後にカメラを右にパンさせるための事前準備を行うことができる。
以上の構成により、各撮影スタッフH30は、表示装置110のモニタ114において、自分の担当のボタンを選択することで、事前情報を、自身の事前準備に必要な事前情報に切り替えて確認することが可能となる。
なお、上述した説明では、カメラ10から、各出力系統全ての事前情報が重畳されてストリーミング出力されるものとしたが、本番映像と、各出力系統全ての事前情報とが別個にストリーミング出力されてもよい。この場合、提示制御部113は、各出力系統全ての事前情報から、選択されたボタンに対応する出力系統に応じた態様の事前情報を選択し、本番映像に重畳するようになる。
<4.撮影現場における事前情報の提示例>
図13は、撮影現場の例を示す図である。
図13は、撮影現場の例を示す図である。
図13に示されるように、映画やドラマ、CMなどの映像コンテンツの制作のための撮影を行う撮影現場では、多くの撮影スタッフが制作に関わっている。
図13の例では、監督を始めとして、撮影監督、プロデューサー、カメラマン、カメラアシスタント、音声スタッフ、照明スタッフ、クレーン・ドリー操作担当、撮影シーンの様子や内容を管理するスクリプターが、撮影スタッフとして撮影現場にいる。これら撮影スタッフの他には、撮影の被写体となる複数の演者はもちろん、映像コンテンツ制作のスポンサーの担当者なども撮影現場にいる。
撮影現場にいる各撮影スタッフや演者は、カメラ10から複数のモニタそれぞれに出力される映像を確認することができる。
図13の例では、照明スタッフは、モニタ210Aに出力される映像を確認し、音声スタッフは、モニタ210Bに出力される映像を確認し、カメラマンは、モニタ210Cに出力される映像を確認している。また、フォーカスプラー(フォーカス管理担当)のカメラアシスタント#1は、モニタ210Dに出力される映像を確認し、レンズ管理担当のカメラアシスタント#2は、モニタ210Eに出力される映像を確認し、待機中の演者は、モニタ210Fに出力される映像を確認している。そして、撮影監督は、モニタ210Gに出力される映像を確認し、待機中の他の演者、スクリプター、スポンサーの担当者は、モニタ210Hに出力される映像を確認し、監督は、モニタ210Iに出力される映像を確認している。
撮影現場にいる各担当者は、それぞれの役割が異なることから、映像において着目する観点も異なる。各担当者が確認するモニタに、適切な事前情報が提示されることで、各担当者は、失敗が許されない本番撮影において、事前準備を間違いなく効率的に行うことができる。
図14は、図13に示される撮影現場の各モニタ210A乃至210Hにおける事前情報の提示例を示す図である。各モニタ210A乃至210Hには、それぞれ本番映像の同一シーンが表示されるものとする。
照明スタッフが確認するモニタ210Aには、一定時間後に、カメラが右にパンすることを示す右矢印形状の事前情報d211と、F値がf/16になることを示す事前情報d212が提示される。これにより、照明スタッフは、反射板や照明機器を操作するための事前準備を行うことができる。
音声スタッフが確認するモニタ210Bには、一定時間後に、カメラが右にパンすることを示す右矢印形状の事前情報d211と、一定時間後の音声レベルを示す事前情報d213が提示される。事前情報d213は、図中下方向を時間軸方向とした音声レベルの変化を表すグラフとして示され、グラフ曲線上の白丸が現在の音声レベルを表し、黒丸が一定時間後の音声レベルを表している。これにより、音声スタッフは、外部マイクが映り込まないようにしつつ、音声レベルを適切に調節するための事前準備を行うことができる。
カメラマンが確認するモニタ210Cには、一定時間後に、カメラが右にパンすることを示す右矢印形状の事前情報d211と、画面内の特定の範囲がズーム表示されることを示す矩形枠状の事前情報d214が提示される。この場合、一定時間後に、事前情報d214で囲まれる範囲の映像が、モニタ210C全体に表示されることになる。これにより、カメラマンは、カメラ10のズーム操作を行うための事前準備を行うことができる。
カメラアシスタント#1が確認するモニタ210Dには、一定時間後に、カメラが右にパンすることを示す右矢印形状の事前情報d211と、画面内の特定の範囲がズーム表示されることを示す矩形枠状の事前情報d214が提示される。これにより、フォーカスプラーのカメラアシスタント#1もまた、カメラマンと同様、カメラ10のズーム操作を行うための事前準備を行うことができる。
カメラアシスタント#2が確認するモニタ210Eには、一定時間後に、カメラが右にパンすることを示す右矢印形状の事前情報d211が提示される。これにより、レンズ管理担当のカメラアシスタント#2は、カメラ10のレンズを適切なレンズに交換するための事前準備を行うことができる。
待機中の演者が確認するモニタ210Fには、一定時間後に、演者の身体や顔が映る位置を示す事前情報d215が提示される。これにより、待機中の演者は、一定時間後に、正しい立ち位置で演じるための事前準備を行うことができる。
撮影監督が確認するモニタ210Gには、いずれの事前情報も提示されない。これにより、撮影監督は、カメラワークや照明の配置、映像の構図など、撮影作業全体の確認に集中することができる。
待機中の他の演者、スクリプター、スポンサーの担当者が確認するモニタ210Hには、一定時間後に、演者の身体や顔が映る位置を示す事前情報d215が重畳された本番映像が映る画面と、一定時間後までのシーンを代表する複数枚の代表フレーム画像RI210が表示される。これにより、待機中の演者は、一定時間後に、正しい立ち位置で演じるための事前準備を行うことができ、スクリプターは、一定時間後までのシーンの移り変わりを確認することができる。
監督が確認するモニタ210Iには、本番映像のみが映る画面と、一定時間後までのシーンを代表する複数枚の代表フレーム画像RI210が表示される。監督は、演者の立ち位置を頭の中でイメージすることができるので、モニタ210Iには、モニタ210Hのように事前情報d215は提示されない。
ここで、図15を参照して、上述したような撮影スタッフ(演者を含む)毎に提示される事前情報の生成に用いられるメタデータと、各撮影スタッフがその事前情報に基づいて行うことができる事前準備を例示する。
図14の例では、撮影監督が確認するモニタには事前情報が提示されないものとしたが、F値、輝度、パン/チルトの撮影方向に基づいて生成される事前情報が提示されてもよい。この場合、撮影監督は、レンズのアイリス、ゲインを変えるタイミングを確認したり、カメラの撮影方向を変えるタイミングを確認することができる。
カメラマンが確認するモニタには、GPS情報、ジャイロ情報、レンズズームの倍率、電子ズームの倍率に基づいて生成される事前情報が提示されるようにする。これにより、カメラマンは、カメラをパン/チルトするタイミングを確認したり、レンズズーム、電子ズームを操作するタイミングを確認することができる。
フォーカスプラーやモニタなどの機材の移動を担当するカメラアシスタント#1が確認するモニタには、フォーカスポジション、GPS情報、ジャイロ情報、レンズズームの倍率、電子ズームの倍率に基づいて生成される事前情報が提示されるようにする。これにより、カメラアシスタント#1は、カメラをパン/チルトするタイミングを確認したり、レンズズーム、電子ズームを操作するタイミングを確認することができる他、カメラの位置を変えるタイミングを確認したり、フォーカスを変えるタイミングを確認することができる。
レンズ交換、撮影条件メモ、モニタ移動、撮影メディア管理を担当するカメラアシスタント#2が確認するモニタには、GPS情報、ジャイロ情報、レンズズームの倍率、電子ズームの倍率に基づいて生成される事前情報が提示されるようにする。これにより、カメラアシスタント#2は、カメラをパン/チルトするタイミングを確認したり、レンズズーム、電子ズームを操作するタイミングを確認することができる他、カメラの位置を変えるタイミングを確認することができる。
ケーブル、バッテリ、各種アダプタなどのカメラ機材を管理するカメラ機材担当が確認するモニタには、GPS情報、ジャイロ情報に基づいて生成される事前情報が提示されるようにする。これにより、カメラ機材担当は、カメラをパン/チルトするタイミングを確認したり、カメラの位置を変えるタイミングを確認することができる。
スクリプターが確認するモニタには、顔情報に基づいて生成される事前情報が提示されるようにする。これにより、スクリプターは、各カットのつながりを事前に確認することができる。
音声スタッフが確認するモニタには、音情報、パン/チルトの撮影方向に基づいて生成される事前情報が提示されるようにする。これにより、音声スタッフは、外付けマイクが映像に映らないようにするタイミングを確認することができる。
演者が確認するモニタには、ジャイロ情報、GPS情報、顔情報、ズーム倍率に基づいて生成される事前情報が提示されるようにする。これにより、演者は、映像に映るタイミング、または、映らなくなるタイミングを確認することができる。
クレーン・ドリー操作担当が確認するモニタには、ジャイロ情報、GPS情報、顔情報、ズーム倍率に基づいて生成される事前情報が提示されるようにする。これにより、クレーン・ドリー操作担当は、クレーンやドリーを移動するタイミングを確認することができる。
照明スタッフが確認するモニタには、F値、輝度、色温度に基づいて生成される事前情報が提示されるようにする。これにより、照明スタッフは、反射板や外部照明を操作するタイミングを確認することができる。
セリフ指導のスタッフが確認するモニタには、音声、顔情報に基づいて生成される事前情報が提示されるようにする。これにより、セリフ指導のスタッフは、演者に対してセリフ指導を行うタイミングを確認することができる。
小道具・美術スタッフが確認するモニタには、GPS情報、ジャイロ情報に基づいて生成される事前情報が提示されるようにする。これにより、小道具・美術スタッフは、被写体となる小道具や撮影用セットを移動するタイミングを確認することができる。
<5.効果>
映画やドラマ、CMなどの映像コンテンツの制作において、監督は、次のシーンをどのようなカメラワークで撮影するかのイメージを頭の中に描いている。一方、それ以外の撮影スタッフであるカメラアシスタント、音声スタッフ、照明スタッフなどは、監督による口頭の指示を聞いたり、ラフスケッチや文章で書かれたシナリオを見たり、撮影中の映像をモニタで見ているだけでは分からないことが多い。本技術によれば、監督以外の撮影スタッフが、次のシーンに向けてどのような事前準備をすればよいかを判断することが容易になる。
映画やドラマ、CMなどの映像コンテンツの制作において、監督は、次のシーンをどのようなカメラワークで撮影するかのイメージを頭の中に描いている。一方、それ以外の撮影スタッフであるカメラアシスタント、音声スタッフ、照明スタッフなどは、監督による口頭の指示を聞いたり、ラフスケッチや文章で書かれたシナリオを見たり、撮影中の映像をモニタで見ているだけでは分からないことが多い。本技術によれば、監督以外の撮影スタッフが、次のシーンに向けてどのような事前準備をすればよいかを判断することが容易になる。
例えば、音声スタッフは、カメラ内蔵のマイクとは別の外部マイクを演者に近づけて音声収録を行う際、外部マイクが本番映像に映り込まないように、外部マイクの位置や音声スタッフ自身の立ち位置に気を配る必要がある。このような場合、一定時間後にカメラがパンするかチルトするか、ズームが望遠側になるか広角側になるかを、音声スタッフが事前情報により確認しておくことで、外部マイクが本番映像に映りこまないように、事前準備をしておくことが容易になる。
また、照明スタッフは、反射板を用いて演者の顔に反射光が当たるようにしたり、照明機器を用いて被写体に光が当たるように調節をしたりする。シーンによっては光の当て方が異なるので、一定時間後のカメラアングル、演者の立ち位置、明るさの変化などを、照明スタッフが事前情報により確認しておくことで、反射板の位置や照明機器の操作の事前準備をしておくことが容易になる。
クレーンやドリーは、大型の機材で重量もあるため、クレーン・ドリー操作担当は、複数人でこれらクレーンやドリーを移動させる場合がある。このような場合、一定時間後のシーンでどのような画角で撮影が行われるかを、クレーン・ドリー操作担当が事前情報により確認しておくことで、クレーンやドリーの操作の事前準備をしておくことが容易になる。
また、本番映像をワイヤレスでストリーミング出力し、撮影スタッフそれぞれが所持する複数の小型の表示装置において事前情報を提示することで、撮影スタッフは、それぞれ必要とする事前情報のみを確認することができる。
<6.応用例>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、手術室システムに適用されてもよい。
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、手術室システムに適用されてもよい。
図16は、本開示に係る技術が適用され得る手術室システム5100の全体構成を概略的に示す図である。図16を参照すると、手術室システム5100は、手術室内に設置される装置群が視聴覚コントローラ(AV Controller)5107及び手術室制御装置5109を介して互いに連携可能に接続されることにより構成される。
手術室には、様々な装置が設置され得る。図16では、一例として、内視鏡下手術のための各種の装置群5101と、手術室の天井に設けられ術者の手元を撮像するシーリングカメラ5187と、手術室の天井に設けられ手術室全体の様子を撮像する術場カメラ5189と、複数の表示装置5103A~5103Dと、レコーダ5105と、患者ベッド5183と、照明5191と、を図示している。
ここで、これらの装置のうち、装置群5101は、後述する内視鏡手術システム5113に属するものであり、内視鏡や当該内視鏡によって撮像された画像を表示する表示装置等からなる。内視鏡手術システム5113に属する各装置は医療用機器とも呼称される。一方、表示装置5103A~5103D、レコーダ5105、患者ベッド5183及び照明5191は、内視鏡手術システム5113とは別個に、例えば手術室に備え付けられている装置である。これらの内視鏡手術システム5113に属さない各装置は非医療用機器とも呼称される。視聴覚コントローラ5107及び/又は手術室制御装置5109は、これら医療機器及び非医療機器の動作を互いに連携して制御する。
視聴覚コントローラ5107は、医療機器及び非医療機器における画像表示に関する処理を、統括的に制御する。具体的には、手術室システム5100が備える装置のうち、装置群5101、シーリングカメラ5187及び術場カメラ5189は、手術中に表示すべき情報(以下、表示情報ともいう)を発信する機能を有する装置(以下、発信元の装置とも呼称する)であり得る。また、表示装置5103A~5103Dは、表示情報が出力される装置(以下、出力先の装置とも呼称する)であり得る。また、レコーダ5105は、発信元の装置及び出力先の装置の双方に該当する装置であり得る。視聴覚コントローラ5107は、発信元の装置及び出力先の装置の動作を制御し、発信元の装置から表示情報を取得するとともに、当該表示情報を出力先の装置に送信し、表示又は記録させる機能を有する。なお、表示情報とは、手術中に撮像された各種の画像や、手術に関する各種の情報(例えば、患者の身体情報や、過去の検査結果、術式についての情報等)等である。
具体的には、視聴覚コントローラ5107には、装置群5101から、表示情報として、内視鏡によって撮像された患者の体腔内の術部の画像についての情報が送信され得る。また、シーリングカメラ5187から、表示情報として、当該シーリングカメラ5187によって撮像された術者の手元の画像についての情報が送信され得る。また、術場カメラ5189から、表示情報として、当該術場カメラ5189によって撮像された手術室全体の様子を示す画像についての情報が送信され得る。なお、手術室システム5100に撮像機能を有する他の装置が存在する場合には、視聴覚コントローラ5107は、表示情報として、当該他の装置からも当該他の装置によって撮像された画像についての情報を取得してもよい。
あるいは、例えば、レコーダ5105には、過去に撮像されたこれらの画像についての情報が視聴覚コントローラ5107によって記録されている。視聴覚コントローラ5107は、表示情報として、レコーダ5105から当該過去に撮像された画像についての情報を取得することができる。なお、レコーダ5105には、手術に関する各種の情報も事前に記録されていてもよい。
視聴覚コントローラ5107は、出力先の装置である表示装置5103A~5103Dの少なくともいずれかに、取得した表示情報(すなわち、手術中に撮影された画像や、手術に関する各種の情報)を表示させる。図示する例では、表示装置5103Aは手術室の天井から吊り下げられて設置される表示装置であり、表示装置5103Bは手術室の壁面に設置される表示装置であり、表示装置5103Cは手術室内の机上に設置される表示装置であり、表示装置5103Dは表示機能を有するモバイル機器(例えば、タブレットPC(Personal Computer))である。
また、図16では図示を省略しているが、手術室システム5100には、手術室の外部の装置が含まれてもよい。手術室の外部の装置は、例えば、病院内外に構築されたネットワークに接続されるサーバや、医療スタッフが用いるPC、病院の会議室に設置されるプロジェクタ等であり得る。このような外部装置が病院外にある場合には、視聴覚コントローラ5107は、遠隔医療のために、テレビ会議システム等を介して、他の病院の表示装置に表示情報を表示させることもできる。
手術室制御装置5109は、非医療機器における画像表示に関する処理以外の処理を、統括的に制御する。例えば、手術室制御装置5109は、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191の駆動を制御する。
手術室システム5100には、集中操作パネル5111が設けられており、ユーザは、当該集中操作パネル5111を介して、視聴覚コントローラ5107に対して画像表示についての指示を与えたり、手術室制御装置5109に対して非医療機器の動作についての指示を与えることができる。集中操作パネル5111は、表示装置の表示面上にタッチパネルが設けられて構成される。
図17は、集中操作パネル5111における操作画面の表示例を示す図である。図17では、一例として、手術室システム5100に、出力先の装置として、2つの表示装置が設けられている場合に対応する操作画面を示している。図17を参照すると、操作画面5193には、発信元選択領域5195と、プレビュー領域5197と、コントロール領域5201と、が設けられる。
発信元選択領域5195には、手術室システム5100に備えられる発信元装置と、当該発信元装置が有する表示情報を表すサムネイル画面と、が紐付けられて表示される。ユーザは、表示装置に表示させたい表示情報を、発信元選択領域5195に表示されているいずれかの発信元装置から選択することができる。
プレビュー領域5197には、出力先の装置である2つの表示装置(Monitor1、Monitor2)に表示される画面のプレビューが表示される。図示する例では、1つの表示装置において4つの画像がPinP表示されている。当該4つの画像は、発信元選択領域5195において選択された発信元装置から発信された表示情報に対応するものである。4つの画像のうち、1つはメイン画像として比較的大きく表示され、残りの3つはサブ画像として比較的小さく表示される。ユーザは、4つの画像が表示された領域を適宜選択することにより、メイン画像とサブ画像を入れ替えることができる。また、4つの画像が表示される領域の下部には、ステータス表示領域5199が設けられており、当該領域に手術に関するステータス(例えば、手術の経過時間や、患者の身体情報等)が適宜表示され得る。
コントロール領域5201には、発信元の装置に対して操作を行うためのGUI(Graphical User Interface)部品が表示される発信元操作領域5203と、出力先の装置に対して操作を行うためのGUI部品が表示される出力先操作領域5205と、が設けられる。図示する例では、発信元操作領域5203には、撮像機能を有する発信元の装置におけるカメラに対して各種の操作(パン、チルト及びズーム)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、発信元の装置におけるカメラの動作を操作することができる。なお、図示は省略しているが、発信元選択領域5195において選択されている発信元の装置がレコーダである場合(すなわち、プレビュー領域5197において、レコーダに過去に記録された画像が表示されている場合)には、発信元操作領域5203には、当該画像の再生、再生停止、巻き戻し、早送り等の操作を行うためのGUI部品が設けられ得る。
また、出力先操作領域5205には、出力先の装置である表示装置における表示に対する各種の操作(スワップ、フリップ、色調整、コントラスト調整、2D表示と3D表示の切り替え)を行うためのGUI部品が設けられている。ユーザは、これらのGUI部品を適宜選択することにより、表示装置における表示を操作することができる。
なお、集中操作パネル5111に表示される操作画面は図示する例に限定されず、ユーザは、集中操作パネル5111を介して、手術室システム5100に備えられる、視聴覚コントローラ5107及び手術室制御装置5109によって制御され得る各装置に対する操作入力が可能であってよい。
図18は、以上説明した手術室システムが適用された手術の様子の一例を示す図である。シーリングカメラ5187及び術場カメラ5189は、手術室の天井に設けられ、患者ベッド5183上の患者5185の患部に対して処置を行う術者(医者)5181の手元及び手術室全体の様子を撮影可能である。シーリングカメラ5187及び術場カメラ5189には、倍率調整機能、焦点距離調整機能、撮影方向調整機能等が設けられ得る。照明5191は、手術室の天井に設けられ、少なくとも術者5181の手元を照射する。照明5191は、その照射光量、照射光の波長(色)及び光の照射方向等を適宜調整可能であってよい。
内視鏡手術システム5113、患者ベッド5183、シーリングカメラ5187、術場カメラ5189及び照明5191は、図16に示すように、視聴覚コントローラ5107及び手術室制御装置5109(図18では図示せず)を介して互いに連携可能に接続されている。手術室内には、集中操作パネル5111が設けられており、上述したように、ユーザは、当該集中操作パネル5111を介して、手術室内に存在するこれらの装置を適宜操作することが可能である。
以下、内視鏡手術システム5113の構成について詳細に説明する。図示するように、内視鏡手術システム5113は、内視鏡5115と、その他の術具5131と、内視鏡5115を支持する支持アーム装置5141と、内視鏡下手術のための各種の装置が搭載されたカート5151と、から構成される。
内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5139a~5139dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5139a~5139dから、内視鏡5115の鏡筒5117や、その他の術具5131が患者5185の体腔内に挿入される。図示する例では、その他の術具5131として、気腹チューブ5133、エネルギー処置具5135及び鉗子5137が、患者5185の体腔内に挿入されている。また、エネルギー処置具5135は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5131はあくまで一例であり、術具5131としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
内視鏡5115によって撮影された患者5185の体腔内の術部の画像が、表示装置5155に表示される。術者5181は、表示装置5155に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5135や鉗子5137を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5133、エネルギー処置具5135及び鉗子5137は、手術中に、術者5181又は助手等によって支持される。
(支持アーム装置)
支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
(内視鏡)
内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
鏡筒5117の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡5115には光源装置5157が接続されており、当該光源装置5157によって生成された光が、鏡筒5117の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5185の体腔内の観察対象に向かって照射される。なお、内視鏡5115は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド5119の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5153に送信される。なお、カメラヘッド5119には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5119には撮像素子が複数設けられてもよい。この場合、鏡筒5117の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
(カートに搭載される各種の装置)
CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、図16に示す視聴覚コントローラ5107が接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、図16に示す視聴覚コントローラ5107が接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
表示装置5155は、CCU5153からの制御により、当該CCU5153によって画像処理が施された画像信号に基づく画像を表示する。内視鏡5115が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5155としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5155として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5155が設けられてもよい。
光源装置5157は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡5115に供給する。
アーム制御装置5159は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5141のアーム部5145の駆動を制御する。
入力装置5161は、内視鏡手術システム5113に対する入力インタフェースである。ユーザは、入力装置5161を介して、内視鏡手術システム5113に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5161を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5161を介して、アーム部5145を駆動させる旨の指示や、内視鏡5115による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5135を駆動させる旨の指示等を入力する。
入力装置5161の種類は限定されず、入力装置5161は各種の公知の入力装置であってよい。入力装置5161としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5171及び/又はレバー等が適用され得る。入力装置5161としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5155の表示面上に設けられてもよい。
あるいは、入力装置5161は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5161は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5161は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5161が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5181)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
処置具制御装置5163は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5135の駆動を制御する。気腹装置5165は、内視鏡5115による視野の確保及び術者の作業空間の確保の目的で、患者5185の体腔を膨らめるために、気腹チューブ5133を介して当該体腔内にガスを送り込む。レコーダ5167は、手術に関する各種の情報を記録可能な装置である。プリンタ5169は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
以下、内視鏡手術システム5113において特に特徴的な構成について、更に詳細に説明する。
(支持アーム装置)
支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図18では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図18では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
関節部5147a~5147cにはアクチュエータが設けられており、関節部5147a~5147cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5159によって制御されることにより、各関節部5147a~5147cの回転角度が制御され、アーム部5145の駆動が制御される。これにより、内視鏡5115の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5159は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5145の駆動を制御することができる。
例えば、術者5181が、入力装置5161(フットスイッチ5171を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5159によってアーム部5145の駆動が適宜制御され、内視鏡5115の位置及び姿勢が制御されてよい。当該制御により、アーム部5145の先端の内視鏡5115を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5145は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5145は、手術室から離れた場所に設置される入力装置5161を介してユーザによって遠隔操作され得る。
また、力制御が適用される場合には、アーム制御装置5159は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5145が移動するように、各関節部5147a~5147cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5145に触れながらアーム部5145を移動させる際に、比較的軽い力で当該アーム部5145を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡5115を移動させることが可能となり、ユーザの利便性を向上させることができる。
ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡5115が支持されていた。これに対して、支持アーム装置5141を用いることにより、人手によらずに内視鏡5115の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
なお、アーム制御装置5159は必ずしもカート5151に設けられなくてもよい。また、アーム制御装置5159は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5159は、支持アーム装置5141のアーム部5145の各関節部5147a~5147cにそれぞれ設けられてもよく、複数のアーム制御装置5159が互いに協働することにより、アーム部5145の駆動制御が実現されてもよい。
(光源装置)
光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置5157は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5119の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置5157は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5157は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
(カメラヘッド及びCCU)
図19を参照して、内視鏡5115のカメラヘッド5119及びCCU5153の機能についてより詳細に説明する。図19は、図18に示すカメラヘッド5119及びCCU5153の機能構成の一例を示すブロック図である。
図19を参照して、内視鏡5115のカメラヘッド5119及びCCU5153の機能についてより詳細に説明する。図19は、図18に示すカメラヘッド5119及びCCU5153の機能構成の一例を示すブロック図である。
図19を参照すると、カメラヘッド5119は、その機能として、レンズユニット5121と、撮像部5123と、駆動部5125と、通信部5127と、カメラヘッド制御部5129と、を有する。また、CCU5153は、その機能として、通信部5173と、画像処理部5175と、制御部5177と、を有する。カメラヘッド5119とCCU5153とは、伝送ケーブル5179によって双方向に通信可能に接続されている。
まず、カメラヘッド5119の機能構成について説明する。レンズユニット5121は、鏡筒5117との接続部に設けられる光学系である。鏡筒5117の先端から取り込まれた観察光は、カメラヘッド5119まで導光され、当該レンズユニット5121に入射する。レンズユニット5121は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5121は、撮像部5123の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
撮像部5123は撮像素子によって構成され、レンズユニット5121の後段に配置される。レンズユニット5121を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5123によって生成された画像信号は、通信部5127に提供される。
撮像部5123を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5181は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
また、撮像部5123を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者5181は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部5123が多板式で構成される場合には、各撮像素子に対応して、レンズユニット5121も複数系統設けられる。
また、撮像部5123は、必ずしもカメラヘッド5119に設けられなくてもよい。例えば、撮像部5123は、鏡筒5117の内部に、対物レンズの直後に設けられてもよい。
駆動部5125は、アクチュエータによって構成され、カメラヘッド制御部5129からの制御により、レンズユニット5121のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5123による撮像画像の倍率及び焦点が適宜調整され得る。
通信部5127は、CCU5153との間で各種の情報を送受信するための通信装置によって構成される。通信部5127は、撮像部5123から得た画像信号をRAWデータとして伝送ケーブル5179を介してCCU5153に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者5181が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部5127には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル5179を介してCCU5153に送信される。
また、通信部5127は、CCU5153から、カメラヘッド5119の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5127は、受信した制御信号をカメラヘッド制御部5129に提供する。なお、CCU5153からの制御信号も、光通信によって伝送されてもよい。この場合、通信部5127には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部5129に提供される。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5153の制御部5177によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡5115に搭載される。
カメラヘッド制御部5129は、通信部5127を介して受信したCCU5153からの制御信号に基づいて、カメラヘッド5119の駆動を制御する。例えば、カメラヘッド制御部5129は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部5123の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部5129は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部5125を介してレンズユニット5121のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部5129は、更に、鏡筒5117やカメラヘッド5119を識別するための情報を記憶する機能を備えてもよい。
なお、レンズユニット5121や撮像部5123等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5119について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
次に、CCU5153の機能構成について説明する。通信部5173は、カメラヘッド5119との間で各種の情報を送受信するための通信装置によって構成される。通信部5173は、カメラヘッド5119から、伝送ケーブル5179を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部5173には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部5173は、電気信号に変換した画像信号を画像処理部5175に提供する。
また、通信部5173は、カメラヘッド5119に対して、カメラヘッド5119の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
画像処理部5175は、カメラヘッド5119から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5175は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
画像処理部5175は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5175が複数のGPUによって構成される場合には、画像処理部5175は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
制御部5177は、内視鏡5115による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5177は、カメラヘッド5119の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5177は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡5115にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5177は、画像処理部5175による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
また、制御部5177は、画像処理部5175によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5155に表示させる。この際、制御部5177は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5177は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5135使用時のミスト等を認識することができる。制御部5177は、表示装置5155に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5181に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
カメラヘッド5119及びCCU5153を接続する伝送ケーブル5179は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
ここで、図示する例では、伝送ケーブル5179を用いて有線で通信が行われていたが、カメラヘッド5119とCCU5153との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル5179を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル5179によって妨げられる事態が解消され得る。
以上、本開示に係る技術が適用され得る手術室システム5100の一例について説明した。なお、ここでは、一例として手術室システム5100が適用される医療用システムが内視鏡手術システム5113である場合について説明したが、手術室システム5100の構成はかかる例に限定されない。例えば、手術室システム5100は、内視鏡手術システム5113に代えて、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
本技術は、上述した構成のうち、手術室内の各所に設置される表示装置5103A~5103Dに適用することができる。本技術を、表示装置5103A~5103Dに適用することにより、様々な事前準備を行うための事前情報が、術部画像を確認する術者(表示装置5103A~5103Dそれぞれ)に応じた態様で提示される。
例えば、術部画像における特定のシーンをトリガとして、麻酔医が所持するスマートフォンなどの携帯端末や麻酔医用の表示装置のモニタに、麻酔医が事前準備を行うための事前情報が提示されるようにする。
上述した例は、手術中、麻酔医が終始立ち会う場合や、麻酔医が複数の手術を掛け持ちする場合などに適用することができる。麻酔医が確認するモニタには、事前情報として、手術シーンの情報や手術の残り時間が提示される。また、事前情報として、麻酔器、呼吸器、患者モニタなどのバイタルサインの表示値に基づいて、麻酔医による判断が必要となるタイミングが報知されてもよい。
また、術部画像における特定のシーンをトリガとして、看護師が確認するモニタに、看護師が一定時間経過後の処置を行うための事前情報が提示されるようにしてもよい。
上述した例は、肝がん手術で肝切除を行う場合などに適用することができる。看護師が確認するモニタには、事前情報として、肝臓への血流を例えば15分間遮断し、5分間解除するなど、血流を遮断/解除するタイミングが提示される。従来、看護師はタイマなどで時間を計測することで、手術中の時間管理を行っていたが、本技術によれば、時間の計測を誤ることなく、正確に時間管理を行うことができる。
さらに、術部画像における特定のシーンをトリガとして、看護師が確認するモニタに、事前情報として、交換が必要な手術器具の種類と、その手術器具を交換するタイミングが提示されるようにしてもよい。例えば、術部画像における特定のシーンをトリガとして、器械出し看護師が確認するモニタに、準備が必要な縫合針や縫合糸についての事前情報が提示されるようにする。縫合針にはあらかじめ縫合糸を通しておく準備が必要となるため、器械出し看護師は、このような事前情報によりスムーズに準備を行うことができる。
同様に、術部画像における特定のシーンをトリガとして、器械出し看護師が確認するモニタに、鉗子、電気メス、ドレーン、ガーゼなど、準備が必要な手術器具や衛生材料についての事前情報が提示されるようにもできる。
また、術部画像における特定のシーンをトリガとして、カメラを操作する術者が確認するモニタに、術式のステップに伴うカメラ操作を行うための事前情報が提示されるようにしてもよい。
上述した例は、術部全体を俯瞰するように撮影しながら、術部周囲の組織を鉗子で把持し、術部の切除や剥離を行う際に、術部をズーム撮影する場合などに適用することができる。例えば、術部画像における特定のシーンをトリガとして、助手が確認するモニタに、術式に合わせて、鉗子、電気メス、ドレーンなどの準備や、腹腔圧の調整についての事前情報が提示されるようにする。スコピストが確認するモニタに、内視鏡のパン・チルト・ズームを指示する事前情報が提示されるようにしてもよい。
本開示に係る技術の実施の形態は、上述した実施の形態に限定されるものではなく、本開示に係る技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本開示に係る技術は以下のような構成をとることができる。
(1)
現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示されるように、前記事前情報の提示を制御する提示制御部
を備える映像処理装置。
(2)
前記提示制御部は、前記撮影映像への前記事前情報の重畳を制御する
(1)に記載の映像処理装置。
(3)
前記事前情報は、前記出力先に対応するユーザに、前記第2のシーンに対する動作を促す情報である
(1)または(2)に記載の映像処理装置。
(4)
前記事前情報は、前記ユーザに、前記第2のシーンにおける前記撮影映像のメタデータの変化を提示する情報である
(3)に記載の映像処理装置。
(5)
前記事前情報は、文字、記号、および図形の少なくともいずれかを含む表示情報である
(4)に記載の映像処理装置。
(6)
前記事前情報の提示タイミングは、前記出力先毎に異なるタイミングに設定される
(1)乃至(5)のいずれかに記載の映像処理装置。
(7)
前記撮影映像に対応してあらかじめ撮影された記録映像における前記第1のシーン以降のメタデータに基づいて、前記事前情報を生成する事前情報生成部をさらに備える
(1)乃至(6)のいずれかに記載の映像処理装置。
(8)
前記事前情報生成部は、さらに前記記録映像における前記第1のシーン以降の映像データに基づいて、前記事前情報を生成する
(7)に記載の映像処理装置。
(9)
前記事前情報生成部は、前記記録映像における前記第1のシーン以降のメタデータまたは映像データを解析することで、前記第2のシーンを特定する
(8)に記載の映像処理装置。
(10)
前記事前情報生成部は、前記記録映像における前記第1のシーン以降に特定された前記第2のシーンの時刻に基づいて、前記提示タイミングを求める
(9)に記載の映像処理装置。
(11)
前記提示制御部は、前記撮影映像と前記記録映像を比較することで、前記提示タイミングで前記事前情報が提示されるように、前記事前情報の提示を制御する
(10)に記載の映像処理装置。
(12)
前記提示制御部は、前記撮影映像における前記第1のシーン以降のメタデータと、前記記録映像における前記第1のシーン以降のメタデータを比較する
(11)に記載の映像処理装置。
(13)
前記提示制御部は、前記撮影映像における前記第1のシーン以降のタイムコードと、前記記録映像における前記第1のシーン以降のタイムコードを比較する
(12)に記載の映像処理装置。
(14)
前記提示制御部は、前記撮影映像における前記第1のシーン以降の映像データと、前記記録映像における前記第1のシーン以降の映像データをさらに比較する
(12)または(13)に記載の映像処理装置。
(15)
前記メタデータは、時間情報、カメラパラメータ、カメラの姿勢情報、前記カメラの位置、および音声情報の少なくともいずれかを含む
(7)乃至(14)のいずれかに記載の映像処理装置。
(16)
前記提示制御部は、前記事前情報に加え、前記出力先に応じて、前記記録映像の前記第1のシーンから前記第2のシーンに含まれる1または複数の代表フレーム画像の提示を制御する
(7)乃至(15)のいずれかに記載の映像処理装置。
(17)
前記出力先に応じた態様の前記事前情報を、前記出力先となる表示装置に出力する出力部をさらに備える
(1)乃至(16)のいずれかに記載の映像処理装置。
(18)
前記提示制御部は、前記出力先に応じた態様の前記事前情報をモニタに表示する
(1)に記載の映像処理装置。
(19)
前記提示制御部は、前記出力先を選択するユーザの選択操作に応じて、選択された前記出力先に応じた態様の前記事前情報を前記モニタに表示する
(18)に記載の映像処理装置。
(20)
映像処理装置が、
現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示されるように、前記事前情報の提示を制御する
映像処理方法。
(1)
現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示されるように、前記事前情報の提示を制御する提示制御部
を備える映像処理装置。
(2)
前記提示制御部は、前記撮影映像への前記事前情報の重畳を制御する
(1)に記載の映像処理装置。
(3)
前記事前情報は、前記出力先に対応するユーザに、前記第2のシーンに対する動作を促す情報である
(1)または(2)に記載の映像処理装置。
(4)
前記事前情報は、前記ユーザに、前記第2のシーンにおける前記撮影映像のメタデータの変化を提示する情報である
(3)に記載の映像処理装置。
(5)
前記事前情報は、文字、記号、および図形の少なくともいずれかを含む表示情報である
(4)に記載の映像処理装置。
(6)
前記事前情報の提示タイミングは、前記出力先毎に異なるタイミングに設定される
(1)乃至(5)のいずれかに記載の映像処理装置。
(7)
前記撮影映像に対応してあらかじめ撮影された記録映像における前記第1のシーン以降のメタデータに基づいて、前記事前情報を生成する事前情報生成部をさらに備える
(1)乃至(6)のいずれかに記載の映像処理装置。
(8)
前記事前情報生成部は、さらに前記記録映像における前記第1のシーン以降の映像データに基づいて、前記事前情報を生成する
(7)に記載の映像処理装置。
(9)
前記事前情報生成部は、前記記録映像における前記第1のシーン以降のメタデータまたは映像データを解析することで、前記第2のシーンを特定する
(8)に記載の映像処理装置。
(10)
前記事前情報生成部は、前記記録映像における前記第1のシーン以降に特定された前記第2のシーンの時刻に基づいて、前記提示タイミングを求める
(9)に記載の映像処理装置。
(11)
前記提示制御部は、前記撮影映像と前記記録映像を比較することで、前記提示タイミングで前記事前情報が提示されるように、前記事前情報の提示を制御する
(10)に記載の映像処理装置。
(12)
前記提示制御部は、前記撮影映像における前記第1のシーン以降のメタデータと、前記記録映像における前記第1のシーン以降のメタデータを比較する
(11)に記載の映像処理装置。
(13)
前記提示制御部は、前記撮影映像における前記第1のシーン以降のタイムコードと、前記記録映像における前記第1のシーン以降のタイムコードを比較する
(12)に記載の映像処理装置。
(14)
前記提示制御部は、前記撮影映像における前記第1のシーン以降の映像データと、前記記録映像における前記第1のシーン以降の映像データをさらに比較する
(12)または(13)に記載の映像処理装置。
(15)
前記メタデータは、時間情報、カメラパラメータ、カメラの姿勢情報、前記カメラの位置、および音声情報の少なくともいずれかを含む
(7)乃至(14)のいずれかに記載の映像処理装置。
(16)
前記提示制御部は、前記事前情報に加え、前記出力先に応じて、前記記録映像の前記第1のシーンから前記第2のシーンに含まれる1または複数の代表フレーム画像の提示を制御する
(7)乃至(15)のいずれかに記載の映像処理装置。
(17)
前記出力先に応じた態様の前記事前情報を、前記出力先となる表示装置に出力する出力部をさらに備える
(1)乃至(16)のいずれかに記載の映像処理装置。
(18)
前記提示制御部は、前記出力先に応じた態様の前記事前情報をモニタに表示する
(1)に記載の映像処理装置。
(19)
前記提示制御部は、前記出力先を選択するユーザの選択操作に応じて、選択された前記出力先に応じた態様の前記事前情報を前記モニタに表示する
(18)に記載の映像処理装置。
(20)
映像処理装置が、
現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示されるように、前記事前情報の提示を制御する
映像処理方法。
10 カメラ, 11 メモリ, 12 撮像部, 13 映像処理部, 14 出力部, 15 事前情報生成部, 16 メタデータ生成部, 17 提示制御部, 18 重畳部, 19 記録部, 110 表示装置, 111 I/F部, 112 入力部, 113 提示制御部, 114 モニタ
Claims (20)
- 現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示されるように、前記事前情報の提示を制御する提示制御部
を備える映像処理装置。 - 前記提示制御部は、前記撮影映像への前記事前情報の重畳を制御する
請求項1に記載の映像処理装置。 - 前記事前情報は、前記出力先に対応するユーザに、前記第2のシーンに対する動作を促す情報である
請求項1に記載の映像処理装置。 - 前記事前情報は、前記ユーザに、前記第2のシーンにおける前記撮影映像のメタデータの変化を提示する情報である
請求項3に記載の映像処理装置。 - 前記事前情報は、文字、記号、および図形の少なくともいずれかを含む表示情報である
請求項4に記載の映像処理装置。 - 前記事前情報の前記提示タイミングは、前記出力先毎に異なるタイミングに設定される
請求項1に記載の映像処理装置。 - 前記撮影映像に対応してあらかじめ撮影された記録映像における前記第1のシーン以降のメタデータに基づいて、前記事前情報を生成する事前情報生成部をさらに備える
請求項1に記載の映像処理装置。 - 前記事前情報生成部は、さらに前記記録映像における前記第1のシーン以降の映像データに基づいて、前記事前情報を生成する
請求項7に記載の映像処理装置。 - 前記事前情報生成部は、前記記録映像における前記第1のシーン以降のメタデータまたは映像データを解析することで、前記第2のシーンを特定する
請求項8に記載の映像処理装置。 - 前記事前情報生成部は、前記記録映像における前記第1のシーン以降に特定された前記第2のシーンの時刻に基づいて、前記提示タイミングを求める
請求項9に記載の映像処理装置。 - 前記提示制御部は、前記撮影映像と前記記録映像を比較することで、前記提示タイミングで前記事前情報が提示されるように、前記事前情報の提示を制御する
請求項10に記載の映像処理装置。 - 前記提示制御部は、前記撮影映像における前記第1のシーン以降のメタデータと、前記記録映像における前記第1のシーン以降のメタデータを比較する
請求項11に記載の映像処理装置。 - 前記提示制御部は、前記撮影映像における前記第1のシーン以降のタイムコードと、前記記録映像における前記第1のシーン以降のタイムコードを比較する
請求項12に記載の映像処理装置。 - 前記提示制御部は、前記撮影映像における前記第1のシーン以降の映像データと、前記記録映像における前記第1のシーン以降の映像データをさらに比較する
請求項12に記載の映像処理装置。 - 前記メタデータは、時間情報、カメラパラメータ、カメラの姿勢情報、前記カメラの位置、および音声情報の少なくともいずれかを含む
請求項7に記載の映像処理装置。 - 前記提示制御部は、前記事前情報に加え、前記出力先に応じて、前記記録映像の前記第1のシーンから前記第2のシーンに含まれる1または複数の代表フレーム画像の提示を制御する
請求項7に記載の映像処理装置。 - 前記出力先に応じた態様の前記事前情報を、前記出力先となる表示装置に出力する出力部をさらに備える
請求項1に記載の映像処理装置。 - 前記提示制御部は、前記出力先に応じた態様の前記事前情報をモニタに表示する
請求項1に記載の映像処理装置。 - 前記提示制御部は、前記出力先を選択するユーザの選択操作に応じて、選択された前記出力先に応じた態様の前記事前情報を前記モニタに表示する
請求項18に記載の映像処理装置。 - 映像処理装置が、
現在撮影されている撮影映像の第1のシーンを基準として、前記第1のシーンより後の第2のシーンより前の提示タイミングで、前記第2のシーンについての事前情報が、前記撮影映像の出力先に応じた態様で提示されるように、前記事前情報の提示を制御する
映像処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019060838 | 2019-03-27 | ||
JP2019060838 | 2019-03-27 | ||
PCT/JP2020/011009 WO2020195925A1 (ja) | 2019-03-27 | 2020-03-13 | 映像処理装置および映像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020195925A1 JPWO2020195925A1 (ja) | 2020-10-01 |
JP7409370B2 true JP7409370B2 (ja) | 2024-01-09 |
Family
ID=72609460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021509041A Active JP7409370B2 (ja) | 2019-03-27 | 2020-03-13 | 映像処理装置および映像処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11902692B2 (ja) |
EP (1) | EP3934233B1 (ja) |
JP (1) | JP7409370B2 (ja) |
WO (1) | WO2020195925A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022075134A1 (ja) * | 2020-10-09 | 2022-04-14 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、情報処理プログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006165700A (ja) | 2004-12-02 | 2006-06-22 | Nippon Hoso Kyokai <Nhk> | 番組制作装置 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6628303B1 (en) * | 1996-07-29 | 2003-09-30 | Avid Technology, Inc. | Graphical user interface for a motion video planning and editing system for a computer |
US7853100B2 (en) * | 2006-08-08 | 2010-12-14 | Fotomedia Technologies, Llc | Method and system for photo planning and tracking |
US8355442B2 (en) * | 2007-11-07 | 2013-01-15 | Broadcom Corporation | Method and system for automatically turning off motion compensation when motion vectors are inaccurate |
US20110115790A1 (en) * | 2008-08-26 | 2011-05-19 | Enhanced Chip Technology Inc | Apparatus and method for converting 2d image signals into 3d image signals |
US20110041060A1 (en) * | 2009-08-12 | 2011-02-17 | Apple Inc. | Video/Music User Interface |
GB0915016D0 (en) * | 2009-08-28 | 2009-09-30 | Digimania Ltd | Animation of characters |
US10531062B2 (en) * | 2009-10-13 | 2020-01-07 | Vincent Pace | Stereographic cinematography metadata recording |
US9000371B2 (en) * | 2011-08-26 | 2015-04-07 | Custom Scene Technology, Inc. | Camera, computer program and method for measuring thermal radiation and thermal rates of change |
CN104041026B (zh) * | 2011-12-19 | 2016-06-08 | 富士胶片株式会社 | 图像输出装置、方法以及程序及其记录介质 |
JP2014112759A (ja) | 2012-12-05 | 2014-06-19 | Canon Inc | 撮像装置及び撮像方法 |
EP2743903A2 (en) * | 2012-12-13 | 2014-06-18 | Thomson Licensing | Method and device for 3d object encryption by application of a function modified using a secret key |
WO2015001296A1 (en) * | 2013-07-04 | 2015-01-08 | Sony Europe Limited | A method, apparatus and system for image processing |
US20150234571A1 (en) * | 2014-02-17 | 2015-08-20 | Microsoft Corporation | Re-performing demonstrations during live presentations |
US9912743B2 (en) * | 2014-02-28 | 2018-03-06 | Skycapital Investors, Llc | Real-time collection and distribution of information for an event organized according to sub-events |
WO2016004396A1 (en) * | 2014-07-02 | 2016-01-07 | Christopher Decharms | Technologies for brain exercise training |
US11182431B2 (en) * | 2014-10-03 | 2021-11-23 | Disney Enterprises, Inc. | Voice searching metadata through media content |
US9280960B1 (en) * | 2014-12-15 | 2016-03-08 | Amazon Technologies, Inc. | Navigating music using an index including musical symbols |
JP6494455B2 (ja) * | 2015-07-13 | 2019-04-03 | キヤノン株式会社 | 映像処理装置、映像処理方法、及びプログラム |
JP6602080B2 (ja) | 2015-07-24 | 2019-11-06 | キヤノン株式会社 | 撮影システム及びその制御方法、コンピュータプログラム |
US20170236039A1 (en) * | 2016-02-15 | 2017-08-17 | Fundy Software Inc. | Method & Apparatus for Automatic Design, Layout & Pre-Press for Photo Book |
WO2018017878A1 (en) * | 2016-07-22 | 2018-01-25 | Dolby Laboratories Licensing Corporation | Network-based processing and distribution of multimedia content of a live musical performance |
US10051232B2 (en) * | 2016-08-31 | 2018-08-14 | Microsoft Technology Licensing, Llc | Adjusting times of capture of digital images |
US20180330756A1 (en) * | 2016-11-19 | 2018-11-15 | James MacDonald | Method and apparatus for creating and automating new video works |
US11563895B2 (en) * | 2016-12-21 | 2023-01-24 | Motorola Solutions, Inc. | System and method for displaying objects of interest at an incident scene |
JP2018148446A (ja) * | 2017-03-07 | 2018-09-20 | オリンパス株式会社 | 撮影装置および撮影方法 |
US10789726B2 (en) * | 2017-03-15 | 2020-09-29 | Rubber Match Productions, Inc. | Methods and systems for film previsualization |
US20190045213A1 (en) * | 2017-08-03 | 2019-02-07 | Intel Corporation | Reference frame reprojection for improved video coding |
JP2019067130A (ja) * | 2017-09-29 | 2019-04-25 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
KR102413839B1 (ko) * | 2017-11-15 | 2022-06-28 | 삼성전자 주식회사 | 컨텐츠 제공장치, 그 제어방법 및 기록매체 |
US10182271B1 (en) * | 2017-12-20 | 2019-01-15 | Rovi Guides, Inc. | Systems and methods for playback of summary media content |
US10771835B1 (en) * | 2018-04-09 | 2020-09-08 | Amazon Technologies, Inc. | Controlling configurable lights using color metadata of a media stream |
US11507619B2 (en) * | 2018-05-21 | 2022-11-22 | Hisense Visual Technology Co., Ltd. | Display apparatus with intelligent user interface |
US20190377586A1 (en) * | 2018-06-08 | 2019-12-12 | Microsoft Technology Licensing, Llc | Generating customized user interface layout(s) of graphical item(s) |
US20200029127A1 (en) * | 2018-07-20 | 2020-01-23 | Comcast Cable Communications, Llc | Methods and systems for content notifications |
US11645326B2 (en) * | 2019-01-22 | 2023-05-09 | Harman International Industries, Incorporated | Automatic reference finding in audiovisual scenes |
US11272192B2 (en) * | 2019-03-04 | 2022-03-08 | Comcast Cable Communications, Llc | Scene classification and learning for video compression |
-
2020
- 2020-03-13 EP EP20776887.0A patent/EP3934233B1/en active Active
- 2020-03-13 JP JP2021509041A patent/JP7409370B2/ja active Active
- 2020-03-13 WO PCT/JP2020/011009 patent/WO2020195925A1/ja unknown
- 2020-03-13 US US17/435,467 patent/US11902692B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006165700A (ja) | 2004-12-02 | 2006-06-22 | Nippon Hoso Kyokai <Nhk> | 番組制作装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3934233A4 (en) | 2022-04-20 |
US11902692B2 (en) | 2024-02-13 |
EP3934233A1 (en) | 2022-01-05 |
EP3934233B1 (en) | 2024-05-29 |
JPWO2020195925A1 (ja) | 2020-10-01 |
US20220232146A1 (en) | 2022-07-21 |
WO2020195925A1 (ja) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7363767B2 (ja) | 画像処理装置と画像処理方法およびプログラム | |
JP7218728B2 (ja) | 制御装置および制御方法 | |
WO2020179485A1 (ja) | 撮像装置、およびスイッチ | |
WO2020170931A1 (ja) | データ伝送システム、データ伝送方法及びコンピュータプログラム | |
US20190191139A1 (en) | Multi-camera system, camera, processing method of camera, confirmation apparatus, and processing method of confirmation apparatus | |
KR20190109406A (ko) | 영상 신호 처리 장치, 영상 신호 처리 방법, 및 다이나믹 레인지 압축용 프로그램 | |
JP7143846B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP7188083B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP7230807B2 (ja) | 信号処理装置、撮像装置、信号処理方法及びプログラム | |
US10694141B2 (en) | Multi-camera system, camera, camera processing method, confirmation device, and confirmation device processing method | |
JP7264051B2 (ja) | 画像処理装置および画像処理方法 | |
JP7135869B2 (ja) | 発光制御装置、発光制御方法、プログラム、発光装置、および撮像装置 | |
JP7409370B2 (ja) | 映像処理装置および映像処理方法 | |
JP7472795B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7420137B2 (ja) | 信号処理装置、撮像装置、信号処理方法 | |
JP7136093B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
WO2019235049A1 (ja) | 撮像装置、ゲイン設定方法及びプログラム | |
WO2020203265A1 (ja) | 映像信号処理装置、映像信号処理方法および撮像装置 | |
JP7160042B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JPWO2020121654A1 (ja) | 撮像装置、撮像制御装置、撮像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231204 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7409370 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |