JP7291224B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7291224B2
JP7291224B2 JP2021536959A JP2021536959A JP7291224B2 JP 7291224 B2 JP7291224 B2 JP 7291224B2 JP 2021536959 A JP2021536959 A JP 2021536959A JP 2021536959 A JP2021536959 A JP 2021536959A JP 7291224 B2 JP7291224 B2 JP 7291224B2
Authority
JP
Japan
Prior art keywords
information processing
threshold
viewpoint
information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021536959A
Other languages
English (en)
Other versions
JPWO2021020200A1 (ja
JPWO2021020200A5 (ja
Inventor
一紀 田村
史憲 入江
貴嗣 青木
真彦 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021020200A1 publication Critical patent/JPWO2021020200A1/ja
Publication of JPWO2021020200A5 publication Critical patent/JPWO2021020200A5/ja
Priority to JP2023091887A priority Critical patent/JP2023123484A/ja
Application granted granted Critical
Publication of JP7291224B2 publication Critical patent/JP7291224B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示の技術は、情報処理装置、情報処理方法、及びプログラムに関する。
特開2019-53738号公報には、仮想視点画像を生成するための視点の位置または/および視線の方向を特定する情報を取得する取得手段と、取得手段により取得された視点の位置または/および視線の方向に基づいて生成される仮想視点画像の品質に関する情報を通知する通知手段と、を有することを特徴とする情報処理装置が開示されている。
本開示の技術に係る一つの実施形態は、基準映像との相違度が第1閾値未満に収まる自由視点映像の取得に寄与することができる情報処理装置、情報処理方法、及びプログラムを提供する。
本開示の技術に係る第1の態様は、撮像領域が複数の撮像装置によって撮像されることで得られた複数の画像のうちの少なくとも1つの画像に基づく自由視点映像であって、特定の視点位置及び特定の視線方向から撮像領域を観察した場合の撮像領域を示す自由視点映像と、基準映像とを取得する取得部と、取得部によって取得された自由視点映像と、取得部によって取得された基準映像との相違度が第1閾値以上の場合に、特定処理を実行する実行部と、を含む情報処理装置である。
本開示の技術に係る第2の態様は、特定処理は、相違度が第1閾値以上であることを報知する報知処理を含む処理である、第1の態様に係る情報処理装置である。
本開示の技術に係る第3の態様は、報知処理は、相違度が第1閾値以上であることを、可視報知、可聴報知、及び触覚報知のうちの少なくとも1つを行う処理である、第2の態様に係る情報処理装置である。
本開示の技術に係る第4の態様は、特定処理は、視点位置を指示可能な範囲を、相違度を第1閾値未満に収める範囲として定められた視点位置範囲に制限し、かつ、視線方向を指示可能な範囲を、相違度を第1閾値未満に収める範囲として定められた視線方向範囲に制限する処理を含む処理である、第1の態様から第3の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第5の態様は、特定処理は、自由視点映像に対して相違度を第1閾値未満に収める変更を施す変更処理を含む処理である、第1の態様から第4の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第6の態様は、変更処理は、視点位置及び視線方向のうちの少なくとも一方を変更することで自由視点映像を変更する処理である、第5の態様に係る情報処理装置である。
本開示の技術に係る第7の態様は、実行部は、自由視点映像の変化に応じて特定処理を実行する、第1の態様から第6の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第8の態様は、実行部が自由視点映像の変化に追従しながら特定処理を実行する追従モードと、実行部が自由視点映像の変化に追従しながら特定処理を実行しない非追従モードとを選択的に設定する設定部を更に含む、第7の態様に係る情報処理装置である。
本開示の技術に係る第9の態様は、設定部は、相違度の変化量が第2閾値未満の場合に追従モードを設定し、変化量が第2閾値以上の場合に非追従モードを設定する、第8の態様に係る情報処理装置である。
本開示の技術に係る第10の態様は、設定部は、相違度が変化する頻度が第3閾値未満の場合に追従モードを設定し、頻度が第3閾値以上の場合に非追従モードを設定する、第8の態様に係る情報処理装置である。
本開示の技術に係る第11の態様は、第1表示装置に対して自由視点映像を表示させる制御部を更に含む、第1の態様から第10の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第12の態様は、第1表示装置は、第1表示装置の姿勢を検出する検出部を有し、実行部は、検出部によって検出された姿勢が既定姿勢の場合に特定処理を実行し、検出部によって検出された姿勢が既定姿勢とは異なる姿勢の場合に特定処理を実行しない、第11の態様に係る情報処理装置である。
本開示の技術に係る第13の態様は、制御部は、第1表示装置とは異なる第2表示装置に対して基準映像を表示させる、第11の態様又は第12の態様に係る情報処理装置である。
本開示の技術に係る第14の態様は、実行部は、第1閾値の変更を指示する指示情報が受付部によって受け付けられた場合に、受付部によって受け付けられた指示情報に従って第1閾値の変更を実行する、第1の態様から第13の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第15の態様は、自由視点映像は仮想視点映像である、第1の態様から第14の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第16の態様は、基準映像は生中継映像である、第1の態様から第15の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第17の態様は、基準映像は、基準撮像装置によって撮像領域が撮像されることで得られた画像である、第1の態様から第16の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第18の態様は、視点位置及び視線方向は、外部から指示された視点位置及び視線方向である、第1の態様から第17の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第19の態様は、特定処理は、相違度を第1閾値未満に収めるのに寄与する処理である、第1の態様から第18の態様の何れか1つの態様に係る情報処理装置である。
本開示の技術に係る第20の態様は、撮像領域が複数の撮像装置によって撮像されることで得られた複数の画像のうちの少なくとも1つの画像に基づく自由視点映像であって、特定の視点位置及び特定の視線方向から撮像領域を観察した場合の撮像領域を示す自由視点映像と、基準映像とを取得すること、並びに、取得した自由視点映像と、取得した基準映像との相違度が第1閾値以上の場合に、特定処理を実行することを含む情報処理方法である。
本開示の技術に係る第21の態様は、コンピュータに、撮像領域が複数の撮像装置によって撮像されることで得られた複数の画像のうちの少なくとも1つの画像に基づく自由視点映像であって、特定の視点位置及び特定の視線方向から撮像領域を観察した場合の撮像領域を示す自由視点映像と、基準映像とを取得すること、並びに、取得した自由視点映像と、取得した基準映像との相違度が第1閾値以上の場合に、特定処理を実行することを含む処理を実行させるためのプログラムである。
情報処理システムの外観構成の一例を示す概略斜視図である。 情報処理システムに含まれる情報処理装置、スマートデバイス、受像機、無人航空機、及び撮像装置の関係の一例を示す概念図である。 情報処理装置の電気系のハードウェア構成の一例、及び情報処理装置と周辺機器との関係性の一例を示すブロック図である。 スマートデバイスの電気系のハードウェア構成の一例を示すブロック図である。 スマートデバイスをロール軸周りに回転させる態様の一例を示す概念図である。 スマートデバイスをヨー軸周りに回転させる態様の一例を示す概念図である。 スマートデバイスをピッチ軸周りに回転させる態様の一例を示す概念図である。 情報処理装置の要部機能の一例を示すブロック図である。 情報処理装置のCPUによって実現される基準映像生成部及び仮想視点映像生成部の一例を示すブロック図である。 基準映像を生成する処理内容の一例の説明に供する概念図である 仮想視点映像を生成する処理内容の一例の説明に供する概念図である。 視点位置及び視線方向の変更に伴って仮想視点映像が変化する態様の一例を示す遷移図である。 基準映像が受像機に表示され、かつ、仮想視点映像がスマートデバイスに表示されるまでの処理内容の一例の説明に供する概念図である。 基準映像生成部、仮想視点映像生成部、取得部、及び実行部の関係性の一例を示す概念図である。 実行部の処理内容の一例の説明に供する概念図である。 スマートデバイスのディスプレイに仮想視点映像と共に注意喚起メッセージ等が表示された態様の一例を示す概念図である。 相違度が第1閾値未満の場合にスマートデバイスのディスプレイに表示される仮想視点映像の一例を示す画面図である。 設定部の処理内容の一例の説明に供する概念図である。 表示制御処理の流れの一例を示すフローチャートである。 設定処理の流れの一例を示すフローチャートである。 情報処理の流れの一例を示すフローチャートである。 情報処理の流れの変形例を示すフローチャートである。 実行部の処理内容の第1変形例の説明に供する概念図である。 視点位置範囲及び視線方向範囲の一例を示す概念図である。 仮想視点映像生成部の処理内容の第1変形例を示す概念図である。 仮想視点映像生成部の処理内容の第2変形例を示す概念図である。 視点位置範囲を示す矩形枠と案内メッセージが仮想視点映像と共にスマートデバイスのディスプレイに表示された態様の一例を示す概念図である。 図27に示す矩形枠内で視点位置指示がタッチパネルによって受け付けられた態様の一例を示す概念図である。 視線方向範囲を示す円形枠と案内メッセージが仮想視点映像と共にスマートデバイスのディスプレイに表示され、かつ、円形枠内に向けて視線方向指示がタッチパネルによって受け付けられた態様の一例を示す概念図である。 実行部の処理内容の第2変形例の説明に供する概念図である。 仮想視点映像生成部の処理内容の第3変形例を示す概念図である。 設定部の処理内容の変形例の説明に供する概念図である。 実行部の処理内容の第3変形例の説明に供する概念図である。 実行部の処理内容の第変形例の説明に供する概念図である。 スマートデバイスのストレージに情報処理装置側プログラムが格納されており、スマートデバイスのCPUによって情報処理装置側処理が実行される場合のスマートデバイスの構成の一例を示すブロック図である。 情報処理装置側プログラムが記憶されている記憶媒体から情報処理装置のコンピュータに情報処理装置側プログラムがインストールされる態様の一例を示すブロック図である。
添付図面に従って本開示の技術に係る実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。DRAMとは、“Dynamic Random Access Memory”の略称を指す。SRAMとは、“Static Random Access Memory”の略称を指す。ROMとは、“Read Only Memory”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。I/Fとは、“Interface”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。LANとは、“Local Area Network”の略称を指す。3Dとは、“3 Dimension”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。また、本明細書の説明において、「鉛直」の意味には、完全な鉛直の意味の他に、設計上及び製造上において許容される誤差を含む略鉛直の意味も含まれる。また、本明細書の説明において、「一致」の意味には、完全な一致の意味の他に、設計上及び製造上において許容される誤差を含む略一致の意味も含まれる。
一例として図1に示すように、情報処理システム10は、情報処理装置12、スマートデバイス14、複数の撮像装置16、撮像装置18、無線通信基地局(以下、単に「基地局」と称する)20、及び受像機34を備えている。なお、ここで、「スマートデバイス14」とは、例えば、スマートフォン又はタブレット端末等の携帯型の多機能端末を指す。ここで、スマートデバイス14は、本開示の技術に係る「第1表示装置」の一例であり、撮像装置18は、本開示の技術に係る「第1撮像装置」及び「第2撮像装置」の一例であり、受像機34は、本開示の技術に係る「第2表示装置」の一例である。なお、ここでは、受像機34を例示しているが、本開示の技術はこれに限定されず、ディスプレイ付きの電子機器(例えば、スマートデバイス)であってもよい。また、基地局20は1ヵ所に限らず複数存在していてもよい。さらに、基地局で使用する通信規格には、LTE(Long Term Evolution)規格等を含む無線通信規格と、WiFi(802.11)規格及び/又はBluetooth(登録商標)規格を含む無線通信規格とが含まれる。
撮像装置16及び18は、CMOSイメージセンサを有する撮像用のデバイスであり、光学式ズーム機能及び/又はデジタルズーム機能が搭載されている。なお、CMOSイメージセンサに代えてCCDイメージセンサ等の他種類のイメージセンサを採用してもよい。以下では、説明の便宜上、撮像装置18及び複数の撮像装置16を区別して説明する必要がない場合、符号を付さずに「複数の撮像装置」と称する。
複数の撮像装置16は、サッカー競技場22内に設置されている。複数の撮像装置16の各々は、サッカーフィールド24を取り囲むように配置されており、サッカーフィールド24を含む領域を撮像領域として撮像する。ここでは、複数の撮像装置16の各々がサッカーフィールド24を取り囲むように配置されている形態例を挙げているが、本開示の技術はこれに限定されず、複数の撮像装置16の配置は、視聴者28等によって生成されることが要求された仮想視点映像に応じて決定される。サッカーフィールド24の全部を取り囲むように複数の撮像装置16を配置してもよいし、特定の一部を取り囲むように複数の撮像装置16を配置してもよい。撮像装置18は、無人式航空機(例えば、マルチ回転翼型無人航空機)に設置されており、サッカーフィールド24を含む領域を撮像領域として上空から俯瞰した状態で撮像する。サッカーフィールド24を含む領域を上空から俯瞰した状態の撮像領域とは、サッカーフィールド24に対する撮像装置18による撮像面を指す。
情報処理装置12は、管制室32に設置されている。複数の撮像装置16及び情報処理装置12は、LANケーブル30を介して接続されており、情報処理装置12は、複数の撮像装置16を制御し、かつ、複数の撮像装置16の各々によって撮像されることで得られた画像を取得する。なお、ここでは、LANケーブル30による有線通信方式を用いた接続を例示しているが、これに限らず、無線通信方式を用いた接続であってもよい。
サッカー競技場22には、サッカーフィールド24を取り囲むように観戦席26が設けられており、観戦席26には視聴者28が着座している。視聴者28は、スマートデバイス14を所持しており、スマートデバイス14は、視聴者28によって用いられる。なお、ここでは、サッカー競技場22内に視聴者28が存在している形態例を挙げて説明しているが、本開示の技術はこれに限定されず、視聴者28は、サッカー競技場22外に存在していてもよい。
基地局20は、情報処理装置12及び無人航空機27と電波を介して各種情報の送受信を行う。すなわち、情報処理装置12は、基地局20を介して、無人航空機27と無線通信可能に接続されている。情報処理装置12は、基地局20を介して無人航空機27と無線通信を行うことにより、無人航空機27を制御したり、撮像装置18によって撮像されることで得られた画像を無人航空機27から取得したりする。
基地局20は、受像機34に対して無線通信を介して各種情報を送信する。情報処理装置12は、基地局20を介して、各種映像を受像機34に送信し、受像機34は、情報処理装置12から送信された各種映像を受信し、受信した各種映像を画面34Aに表示する。なお、受像機34は、例えば、不特定多数の観戦者等の視聴に使用される。受像機34の設置個所は、サッカー競技場22内であってもよいし、サッカー競技場22外(例えば、パブリックビューイング会場)等であってもよい。なお、ここでは、受像機34に対して無線通信を介して各種情報を送信する形態例を挙げているが、本開示の技術はこれに限定されず、例えば、受像機34に対して有線通信を介して各種情報を送信する形態であってもよい。
情報処理装置12はサーバに相当するデバイスであり、スマートデバイス14は、情報処理装置12に対するクライアント端末に相当するデバイスである。情報処理装置12及びスマートデバイス14が、基地局20を介して互いに無線通信を行うことにより、スマートデバイス14は、情報処理装置12に対して各種サービスの提供を要求し、情報処理装置12は、スマートデバイス14からの要求に応じたサービスをスマートデバイス14に提供する。
一例として図2に示すように、情報処理装置12は、上空から観察した場合のサッカーフィールド24を含む領域を示す俯瞰映像46Aを無人航空機27から取得する。俯瞰映像46Aは、サッカーフィールド24を含む領域が撮像領域(以下、単に「撮像領域」とも称する)として上空から俯瞰した状態で無人航空機27の撮像装置18によって撮像されることで得られた動画像である。なお、ここでは、俯瞰映像46Aが動画像である場合を例示しているが、俯瞰映像46Aは、これに限らず、上空から観察した場合のサッカーフィールド24を含む領域を示す静止画像であってもよい。
情報処理装置12は、複数の撮像装置16の各々の位置から観察した場合の撮像領域を示す撮像映像46Bを複数の撮像装置16の各々から取得する。撮像映像46Bは、撮像領域が複数の撮像装置16の各々によって撮像されることで得られた動画像である。なお、ここでは、撮像映像46Bが動画像である場合を例示しているが、撮像映像6Bは、これに限らず、複数の撮像装置16の各々の位置から観察した場合の撮像領域を示す静止画像であってもよい。
情報処理装置12は、俯瞰映像46A及び撮像映像46Bに基づいて仮想視点映像46Cを生成する。仮想視点映像46Cは、特定の視点位置及び特定の視線方向から撮像領域を観察した場合の撮像領域を示す映像である。図2に示す例において、仮想視点映像46Cとは、例えば、観戦席26内の視点位置42及び視線方向44から撮像領域を観察した場合の撮像領域を示す仮想視点映像を指す。仮想視点映像46Cの一例としては、3Dポリゴンを用いた動画像が挙げられる。視点位置42及び視線方向44は固定されていない。つまり、視点位置42及び視線方向44は、視聴者28等からの指示に応じて変動する。ここでは、視点位置42及び視線方向44が固定されていない形態例を挙げて説明しているが、本開示の技術はこれに限定されず、視点位置42及び視線方向44は固定されていてもよい。
情報処理装置12は、複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像(ここでは、一例として俯瞰映像46A及び撮像映像46B)を合成することにより、3Dポリゴンを用いた動画像を生成する。情報処理装置12は、生成した3Dポリゴンを用いた動画像に基づき、任意の位置及び任意の方向から撮像領域が観察された場合に相当する仮想視点映像を生成する。本実施形態では、情報処理装置12は、視点位置42及び視線方向44で被写体を観察した場合の被写体を示す仮想視点映像46を生成する。換言すると、仮想視点映像46とは、視点位置42に設置された仮想的な撮像装置(以下、「仮想撮像装置」とも称する)が視線方向44を撮像方向として撮像することで得た映像に相当する映像を指す。ここでは、仮想視点映像46Cとして動画像を例示しているが、これに限らず、静止画像であってもよい。なお、視点位置42は、本開示の技術に係る「特定の視点位置」の一例であり、視線方向44は、本開示の技術に係る「特定の視線方向」の一例である。また、仮想視点映像46Cは、本開示の技術に係る「自由視点映像」の一例である。
また、ここでは、撮像装置18によって撮像されることで得られた俯瞰映像46Aも生成に使用される形態例を示しているが、本開示の技術はこれに限定されない。例えば、俯瞰映像46Aが仮想視点映像46Cの生成に供されずに、複数の撮像装置16の各々によって撮像されることで得られた複数の撮像映像46Bのみが仮想視点映像46Cの生成に使用されるようにしてもよい。すなわち、撮像装置18(例えば、マルチ回転翼型無人航空機)から得られる映像を使用せずに、複数の撮像装置16によって撮像されることで得られた映像のみから仮想視点映像46Cが生成されるようにしてもよい。なお、撮像装置18(例えば、マルチ回転翼型無人航空機)から得られる映像を使用すれば、より高精度な仮想視点映像の生成が可能となる。
情報処理装置12は、配信映像として後述の基準映像46B1(図9及び図10参照)及び仮想視点映像46Cを選択的にスマートデバイス14及び受像機34に送信する。なお、以下では、説明の便宜上、基準映像46B1及び仮想視点映像46Cを区別して説明する必要がない場合、「配信映像」とも称する。
一例として図3に示すように、情報処理装置12は、コンピュータ50、受付デバイス52、ディスプレイ53、第1通信I/F54、および第2通信I/F56を備えている。コンピュータ50は、CPU58、ストレージ60、及びメモリ62を備えており、CPU58、ストレージ60、及びメモリ62は、バスライン64を介して接続されている。図3に示す例では、図示の都合上、バスライン64として1本のバスラインが図示されているが、複数のバスラインであってもよい。また、バスライン64には、シリアルバス、又は、データバス、アドレスバス、及びコントロールバス等で構成されるパラレルバスが含まれていてもよい。
CPU58は、情報処理装置12の全体を制御する。ストレージ60は、各種パラメータ及び各種プログラムを記憶している。ストレージ60は、不揮発性の記憶装置である。ここでは、ストレージ60の一例として、フラッシュメモリが採用されているが、これに限らず、EEPROM、HDD、又はSSD等であってもよい。メモリ62は、記憶装置である。メモリ62には、各種情報が一時的に記憶される。メモリ62は、CPU58によってワークメモリとして用いられる。ここでは、メモリ62の一例として、DRAMが採用されているが、これに限らず、他の種類の記憶装置であってもよい。
受付デバイス52は、情報処理装置12の使用者等からの指示を受け付ける。受付デバイス52の一例としては、タッチパネル、ハードキー、及びマウス等が挙げられる。受付デバイス52は、バスライン64等に接続されており、受付デバイス52によって受け付けられた指示は、CPU58によって取得される。
ディスプレイ53は、バスライン64に接続されており、CPU58の制御下で、各種情報を表示する。ディスプレイ53の一例としては、液晶ディスプレイが挙げられる。なお、液晶ディプレイに限らず、有機ELディスプレイ又は無機ELディスプレイ等の他の種類のディスプレイがディスプレイ53として採用されてもよい。
第1通信I/F54は、LANケーブル30に接続されている。第1通信I/F54は、例えば、FPGAを有するデバイスによって実現される。第1通信I/F54は、バスライン64に接続されており、CPU58と複数の撮像装置16との間で各種情報の授受を司る。例えば、第1通信I/F54は、CPU58の要求に従って複数の撮像装置16を制御する。また、第1通信I/F54は、複数の撮像装置16の各々によって撮像されることで得られた撮像映像46B(図2参照)を取得し、取得した撮像映像46BをCPU58に出力する。なお、ここでは、第1通信I/F54は有線通信I/Fとして例示されているが、高速無線LAN等の無線通信I/Fであってもよい。
第2通信I/F56は、基地局20に対して無線通信可能に接続されている。第2通信I/F56は、例えば、FPGAを有するデバイスによって実現される。第2通信I/F56は、バスライン64に接続されている。第2通信I/F56は、基地局20を介して、無線通信方式で、CPU58と無人航空機27との間で各種情報の授受を司る。また、第2通信I/F56は、基地局20を介して、無線通信方式で、CPU58とスマートデバイス14との間で各種情報の授受を司る。また、第2通信I/F56は、基地局20を介して、無線通信方式で、CPU58による受像機34に対する各種映像の送信を司る。なお、第1通信I/F54及び第2通信I/F56の少なくとも一方は、FPGAの代わりに固定回路で構成することも可能である。また、第1通信I/F54及び第2通信I/F56の少なくとも一方は、ASIC、FPGA、及び/又はPLD等で構成された回路であってもよい。
一例として図4に示すように、スマートデバイス14は、コンピュータ70、ジャイロセンサ74、受付デバイス76、ディスプレイ78、マイクロフォン80、スピーカ82、撮像装置84、及び通信I/F86を備えている。コンピュータ70は、CPU88、ストレージ90、及びメモリ92を備えており、CPU88、ストレージ90、及びメモリ92は、バスライン94を介して接続されている。図4に示す例では、図示の都合上、バスライン94として1本のバスラインが図示されているが、バスライン94は、シリアルバスで構成されているか、或いは、データバス、アドレスバス、及びコントロールバス等を含んで構成されている。また、図4では、CPU88、受付デバイス76、ディスプレイ78、マイクロフォン80、スピーカ82、撮像装置84、及び通信I/F86は共通するバスで接続されているが、CPU88と各デバイスは専用バス又は専用通信線で接続されていてもよい。
CPU88は、スマートデバイス14の全体を制御する。ストレージ90は、各種パラメータ及び各種プログラムを記憶している。ストレージ90は、不揮発性の記憶装置である。ここでは、ストレージ90の一例として、フラッシュメモリが採用されているが、これに限らず、EEPROM、HDD、又はSSD等であってもよい。メモリ92には、各種情報が一時的に記憶され、メモリ92は、CPU88によってワークメモリとして用いられる。ここでは、メモリ92の一例として、RAMが採用されているが、これに限らず、他の種類の記憶装置であってもよい。
ジャイロセンサ74は、スマートデバイス14のヨー軸周りの角度(以下、「ヨー角」とも称する)、スマートデバイス14のロール軸周りの角度(以下、「ロール角」とも称する)、及びスマートデバイス14のピッチ軸周りの角度(以下、「ピッチ角」とも称する)を測定する。ジャイロセンサ74は、バスライン94に接続されており、ジャイロセンサ74によって測定されたヨー角、ロール角、及びピッチ角を示す角度情報は、バスライン94等を介してCPU88によって取得される。
受付デバイス76は、本開示の技術に係る「受付部(アクセプタ)」の一例であり、スマートデバイス14の使用者等(ここでは、一例として、視聴者28)からの指示を受け付ける。受付デバイス76の一例としては、タッチパネル76A及びハードキー等が挙げられる。受付デバイス76は、バスライン94に接続されており、受付デバイス76によって受け付けられた指示は、CPU88によって取得される。
ディスプレイ78は、バスライン94に接続されており、CPU88の制御下で、各種情報を表示する。ディスプレイ78の一例としては、液晶ディスプレイが挙げられる。なお、液晶ディプレイに限らず、有機ELディスプレイ等の他の種類のディスプレイがディスプレイ78として採用されてもよい。
スマートデバイス14は、タッチパネル・ディスプレイを備えており、タッチパネル・ディスプレイは、タッチパネル76A及びディスプレイ78によって実現される。すなわち、ディスプレイ78の表示領域に対してタッチパネル76Aを重ね合わせることによって、あるいはディスプレイ78の内部にタッチパネル機能を内蔵(「インセル」型)することでタッチパネル・ディスプレイが形成される。
マイクロフォン80は、収集した音を電気信号に変換する。マイクロフォン80は、バスライン94に接続されている。マイクロフォン80によって収集された音が変換されて得られた電気信号は、バスライン94を介してCPU88によって取得される。
スピーカ82は、電気信号を音に変換する。スピーカ82は、バスライン94に接続されている。スピーカ82は、CPU88から出力された電気信号を、バスライン94を介して受信し、受信した電気信号を音に変換し、電気信号を変換して得た音をスマートデバイス14の外部に出力する。
撮像装置84は、被写体を撮像することで、被写体を示す画像を取得する。撮像装置84は、バスライン94に接続されている。撮像装置84によって被写体が撮像されることで得られた画像は、バスライン94を介してCPU88によって取得される。ここでは、スピーカ82はスマートデバイス14と一体となっているが、スマートデバイス14と有線または無線で接続された別途ヘッドホン(イヤホンを含む)による音の出力を採用してもよい。
通信I/F86は、基地局20に対して無線通信可能に接続されている。通信I/F86は、例えば、回路(例えば、ASIC、FPGA、及び/又はPLD等)で構成されたデバイスによって実現される。通信I/F86は、バスライン94に接続されている。通信I/F86は、基地局20を介して、無線通信方式で、CPU88と外部装置との間で各種情報の授受を司る。ここで、「外部装置」としては、例えば、情報処理装置12が挙げられる。
一例として図5に示すように、ロール軸は、スマートデバイス14のディスプレイ78の中心を貫く軸である。ロール軸周りのスマートデバイス14の回転角度がロール角としてジャイロセンサ74によって測定される。また、一例として図6に示すように、ヨー軸は、スマートデバイス14の側周面のうちの長手方向の側周面の中心を貫く軸である。ヨー軸周りのスマートデバイス14の回転角度がヨー角としてジャイロセンサ74によって測定される。更に、一例として図7に示すように、ピッチ軸は、スマートデバイス14の側周面のうちの短手方向の側周面の中心を貫く軸である。ピッチ軸周りのスマートデバイス14の回転角度がピッチ角としてジャイロセンサ74によって測定される。
一例として図8に示すように、情報処理装置12において、ストレージ60には、情報処理プログラム60A、表示制御プログラム60B、及び設定プログラム60Cが記憶されている。なお、以下では、情報処理プログラム60A、表示制御プログラム60B、及び設定プログラム60Cを区別して説明する必要がない場合、符号を付さずに「情報処理装置側プログラム」と称する。
CPU58は、本開示の技術に係る「プロセッサ」の一例であり、メモリ62は、本開示の技術に係る「メモリ」の一例である。CPU58は、ストレージ60から情報処理装置側プログラムを読み出し、読み出した情報処理装置側プログラムをメモリ62に展開する。CPU58は、メモリ62に展開した情報処理装置側プログラムに従って、スマートデバイス14、撮像装置16、及び無人航空機27との間で各種情報の授受を行い、かつ、受像機34に対する各種映像の送信を行う。
CPU58は、ストレージ60から情報処理プログラム60Aを読み出し、読み出した情報処理プログラム60Aをメモリ62に展開する。CPU58は、メモリ62に展開した情報処理プログラム60Aに従って取得部102及び実行部104として動作する。CPU58は、取得部102及び実行部104として動作することで、後述の情報処理(図21参照)を実行する。
CPU58は、ストレージ60から表示制御プログラム60Bを読み出し、読み出した表示制御プログラム60Bをメモリ62に展開する。CPU58は、メモリ62に展開した表示制御プログラム60Bに従って制御部106として動作することで、後述の表示制御処理(図19参照)を実行する。
CPU58は、ストレージ60から設定プログラム60Cを読み出し、読み出した設定プログラム60Cをメモリ62に展開する。CPU58は、メモリ62に展開した設定プログラム60Cに従って設定部108として動作する。CPU58は、設定部108として動作することで、後述の設定処理(図20参照)を実行する。
一例として図9に示すように、ストレージ60には、映像生成プログラム60Dが記憶されており、CPU58は、ストレージ60から映像生成プログラム60Dを読み出し、読み出した映像生成プログラム60Dをメモリ62に展開する。CPU58は、メモリ62に展開した映像生成プログラム60Dに従って基準映像生成部100A及び仮想視点映像生成部100Bとして動作する。基準映像生成部100Aは、基準映像46B1を生成し、仮想視点映像生成部100Bは、仮想視点映像46Cを生成する。
一例として図10に示すように、情報処理装置12では、受付デバイス52によって撮像映像指定情報が受け付けられる。撮像映像指定情報とは、複数の撮像映像のうちの1つを指定する情報を指す。撮像映像指定情報は、例えば、受付デバイス52によって受け付けられる。受付デバイス52による撮像映像指定情報の受け付けは、例えば、映像制作者(図示省略)によって受付デバイス52が操作されることによって実現される。具体的には、情報処理装置12のディスプレイ53に複数の撮像映像46Bが並べて表示されている状態で、映像制作者によって受付デバイス52によって受け付けられた撮像映像指定情報に従って、複数の撮像映像のうちの1つが指定される。
基準映像生成部100Aは、撮像装置18及び複数の撮像装置16から複数の撮像映像を受信し、受信した複数の撮像映像から撮像映像指定情報により指定された撮像映像を取得し、取得した撮像映像46Bに対して各種の信号処理(例えば、公知の信号処理)を施すことで基準映像46B1を生成する。つまり、基準映像46B1は、複数の撮像装置16のうちの何れかの撮像装置(以下、「基準撮像装置」とも称する)によって撮像領域が撮像されることで得られた映像である。ここで、「基準映像46B1」とは、例えば、生中継映像、又は、予め撮影した映像等である。生中継映像又は予め撮影した映像は、例えば、テレビで放映されたり、インターネットで配信されたりする映像である。なお、ここでは、撮像映像指示情報により指示された撮像映像46Bに基づいて生中継映像が生成されているが、これはあくまでも一例に過ぎず、撮像映像指定情報により指定された撮像映像46Bそのものが基準映像46B1として採用されるようにしてもよい。
一例として図11に示すように、スマートデバイス14のタッチパネル76Aは、視点視線指示を受け付ける。この場合、例えば、先ず、情報処理装置12からの配信映像がスマートデバイス14によって受信される。次に、スマートデバイス14によって情報処理装置12から受信された配信映像はディスプレイ78に表示される。ディスプレイ78に表示されている状態で、視聴者28によってタッチパネル76Aが操作されることで視点視線指示がタッチパネル76Aによって受け付けられる。
視点視線指示には、撮像領域に対する視点位置42(図2参照)の指示である視点位置指示と、撮像領域に対する視線方向44(図2参照)の指示である視線方向指示とが含まれている。本実施形態では、先ず、視点位置指示が行われ、次に、視線方向指示が行われる。すなわち、先ず、視点位置42が決定され、次に、視線方向44が決定される。
視点位置指示としては、タッチパネル76Aに対するタップ操作が挙げられる。また、タップ操作は、シングルタップ操作であってもよいし、ダブルタップ操作であってもよい。また、タップ操作に代えて、ロングタッチ操作であってもよい。視線方向指示としては、スライド操作が挙げられる。ここで、「スライド操作」とは、例えば、タッチパネル76Aに対して指示体(例えば、視聴者28の指)が接触している位置を直線的にスライドさせる操作を指す。このように、タッチパネル76A内のタップ操作が行われた位置は撮像領域に対する視点位置42に対応しており、タッチパネル76A内のスライド操作が行われた方向が撮像領域に対する視線方向44に対応している。
仮想視点映像生成部100Bは、タッチパネル76Aによって受け付けられた視点視線指示を取得し、取得した視点視線指示に従って複数の撮像映像を用いることで仮想視点映像46Cを生成する。すなわち、仮想視点映像生成部100Bは、視点位置指示に従った視点位置42と視線方向指示に従った視線方向44から撮像領域を観察した場合の撮像領域を示す仮想視点映像46Cを生成する。仮想視点映像46Cの生成は、例えば、複数の撮像映像に基づく3Dポリゴンの生成によって実現される。
一例として図12に示すように、視点視線指示が変更された場合、すなわち、視点位置42及び視線方向44が変更された場合、仮想視点映像46Cの態様、すなわち、仮想視点映像46に示される被写体の大きさ及び向き等が変更される。なお、仮想視点映像46Cの拡大は、例えば、スマートデバイス14のタッチパネル76Aに対するピンチアウト操作に応じて実現され、仮想視点映像46Cの縮小は、例えば、スマートデバイス14のタッチパネル76Aに対するピンチイン操作に応じて実現される。
一例として図13に示すように、取得部102は、基準映像生成部100Aによって生成された基準映像46B1を基準映像生成部100Aから取得する。また、取得部102は、仮想視点映像生成部100Bによって生成された仮想視点映像46Cを仮想視点映像生成部100Bから取得する。
制御部106は、基準映像制御部106A及び仮想視点映像制御部106Bを有する。基準映像制御部106Aは、取得部102によって取得された基準映像46B1を、スマートデバイス14のディスプレイ78とは異なる表示装置である受像機34に送信することで、画面34Aに基準映像46B1が表示されるように受像機34を制御する。つまり、受像機34は、基準映像制御部106Aから送信された基準映像46B1を受信し、受信した基準映像46B1を画面34Aに表示する。
仮想視点映像制御部106Bは、取得部102によって取得された仮想視点映像46Cをスマートデバイス14に送信することで、ディスプレイ78に仮想視点映像46Cが表示されるようにスマートデバイス14を制御する。つまり、スマートデバイス14は、仮想視点映像制御部106Bから送信された仮想視点映像46Cを受信し、受信した仮想視点映像46Cをディスプレイ78に表示する。
一例として図14に示すように、実行部104は、取得部102によって取得された基準映像46B1と取得部102によって取得された仮想視点映像46Cとに基づいて特定処理を実行する。ここで、特定処理は、取得部102によって取得された基準映像46B1と取得部102によって取得された仮想視点映像46Cとの相違度(以下、単に「相違度」と称する)が第1閾値以上の場合に行われる処理である。特定処理の一例としては、相違度を第1閾値未満に収めるのに寄与する処理が挙げられる。また、実行部104は、仮想視点映像46Cの変化に応じて特定処理を実行する。つまり、実行部104は、仮想視点映像46Cの変化に追従しながら特定処理を実行する。
一例として図15に示すように、実行部104は、相違度算出部104A、判定部104B、及び報知処理部104Cを有する。相違度算出部104Aは、取得部102によって取得された基準映像46B1と取得部102によって取得された仮想視点映像46Cとの相違度を算出する。相違度とは、例えば、基準映像46B1と仮想視点映像46Cとが相違している度合いを指す。相違度の算出は、例えば、パターンマッチング又はフーリエ変換が行われることによって得られた特徴量の比較等によって実現される。
相違度算出部104Aは、算出した相違度を示す相違度情報を判定部104Bに出力する。判定部104Bは、相違度算出部104Aから入力された相違度情報により示される相違度が第1閾値以上か否かを判定する。相違度が第1閾値以上である場合の一例としては、基準映像46B1と仮想視点映像46Cとの間で一致している箇所が30パーセント未満である場合が挙げられる。
なお、本実施形態では、第1閾値として、官能試験及び/又はコンピュータ・シミュレーション等によって予め導き出された固定値が採用されている。第1閾値は、固定値である必要はなく、例えば、受付デバイス52(図2参照)及び/又は受付デバイス76によって受け付けられた指示に従って変更される可変値であってもよい。
判定部104Bは、相違度と第1閾値とを比較し、相違度が第1閾値以上の場合に、相違度が第1閾値以上であることを示す相違度大情報を報知処理部104Cに出力する。または、判定部104Bは、相違度と第1閾値とを比較し、相違度が第1閾値未満の場合には、相違度大情報を出力せず、相違度算出部104Aからの相違度情報の入力待ちを行う。
報知処理部104Cは、判定部104Bから相違度大情報が入力されると、上述した特定処理として報知処理を含む処理を実行する。ここで、「報知処理」とは、相違度が第1閾値以上であることを報知する処理を指す。報知先は、例えば、視聴者28である。報知処理は、注意喚起指示情報が報知処理部104Cによってスマートデバイス14に送信されることで実現される。ここで、注意喚起指示情報とは、相違度が第1閾値以上であることについて視聴者28に対して注意喚起することをスマートデバイス14に指示する情報を指す。図15に示す例では、スマートデバイス14のディスプレイ78に仮想視点映像46Cが表示されている状態で、スマートデバイス14に注意喚起指示情報が入力される態様が示されている。
一例として図16に示すように、スマートデバイス14に対して注意喚起指示情報が入力されると、CPU88の制御下で、ディスプレイ78には、仮想視点映像46Cが表示された状態で、かつ、仮想視点映像46Cに並列した状態で、注意喚起メッセージが表示される。なお、ディスプレイ78による注意喚起メッセージの表示は、本開示の技術に係る「可視報知」の一例である。
図16に示す例では、注意喚起メッセージとして、「生中継映像からかなり離れています!」というメッセージが示されている。なお、注意喚起メッセージは、これ以外のメッセージであってもよく、例えば、「現在、生中継映像とは全く異なる映像が表示されています」又は「生中継映像とは全く異なる映像が表示されていますので、現在表示されている映像を生中継映像に近付けることをご希望の場合は、視点位置及び視線方向を新たに指示してください。」等のメッセージであってもよい。つまり、現時点で視聴者28がスマートデバイス14のディスプレイ78を介して視認している映像(図16に示す例では、仮想視点映像46C)が、受像機34の画面34Aに表示されている基準映像46B1(例えば、生中継映像)との相違度が第1閾値以上であることを視聴者28に視覚的に認識させるメッセージであればよい。
また、図16に示す例では、ディスプレイ78に注意喚起メッセージと共に、推奨視点位置情報及び推奨視線方向情報が表示されている。推奨視点位置は、相違度を小さくするのに要する視点位置42を指す。推奨視線方向は、相違度を小さくするのに要する視線方向44を指す。図16に示す例では、推奨視点位置情報として、推奨視点位置を指し示す矢印P1と「推奨視点位置」という案内メッセージとを含む情報が示されており、推奨視線方向情報として、推奨視線方向を指し示す矢印P2と「推奨視線方向」という案内メッセージとを含む情報が示されている。視聴者28は、タッチパネル76Aに対してスライド操作又はフリック操作等を行うことで画面を移動させ、視点位置42を調節する。
なお、スマートデバイス14のCPU88は、視点位置42が推奨視点位置に近付くに従って矢印P1は短くなり、視点位置42が推奨視点位置から離れるに従って矢印P1が長くなるように推奨視点位置情報を制御してもよい。CPU88は、矢印P2の向きも、現時点の視線方向44と推奨視線方向との相違度に従って変更するようにしてもよい。
また、ここでは、ディスプレイ78にメッセージが表示される形態例を挙げて説明したが、既定色(例えば、赤色)の特定の光源(図示省略)を点灯させることによって相違度が第1閾値以上であることが可視報知されるようにしてもよい。また、複数色の光源(例えば、緑色の光源と黄色の光源)を選択的に点滅させ、点滅間隔を長くしたり短くしたりすることで推奨視点位置及び推奨視線方向を視聴者28に対して視覚的に認識させるようにしてもよい。
また、上記の注意喚起メッセージに相当する情報、推奨視点位置情報、及び/又は推奨視線方向情報を視聴者28に知覚させる手段としては、音声再生装置及び/又はバイブレータが挙げられる。この場合、例えば、音声再生装置を用いた音声による可聴報知、及び/又はバイブレータを用いた触覚報知によって注意喚起メッセージに相当する情報、推奨視点位置情報、及び/又は推奨視線方向情報を視聴者28に知覚させる。音声による可聴報知は、骨伝導方式による可聴報知であってもよい。バイブレータを用いた触覚報知は、例えば、バイブレータによる振動パターン(例えば、振動周期及び振幅等)を変化させることで実現される。このように、上記の注意喚起メッセージに相当する情報、推奨視点位置情報、及び/又は推奨視線方向情報は、ディスプレイ78等による可視報知、音声再生装置を用いた可聴報知、及び/又はバイブレータ等による触覚報知によって視聴者28によって知覚させるようにすればよい。
判定部104Bは、相違度と第1閾値とを比較し、相違度が第1閾値未満の場合には、相違度大情報を出力しないので、一例として図17に示すように、スマートデバイス14のディスプレイ78には、CPU88の制御下で、仮想視点映像46Cが表示されるものの、注意喚起メッセージ、推奨視点位置情報、及び推奨視線方向情報は表示されない。
一例として図18に示すように、設定部108は、相違度変化量算出部108A、変化量判定部108B、及びモード指示部108Cを有する。設定部108は、追従モードと非追従モードとを選択的に設定する。追従モードとは、実行部104が仮想視点映像46Cの変化に追従しながら報知処理する動作モードを指し、非追従モードとは、実行部104が仮想視点映像46Cの変化に追従しながら報知処理を実行しない動作モードを指す。
相違度変化量算出部108Aは、相違度算出部104Aから相違度情報を取得する。つまり、判定部104B(図15参照)による相違度情報の取得タイミングと同期して相違度情報を取得し、取得した相違度情報に基づいて相違度の変化量を算出する。具体的には、先ず、相違度変化量算出部108Aは、異なるタイミングで相違度情報を取得する。ここで、異なるタイミングとは、例えば、Nを1以上の整数とした場合、N回目の取得タイミングとN+1回目の取得タイミングとを指す。次に、相違度変化量算出部108Aは、N回目の取得タイミングで取得した相違度情報により示される相違度から、N+1回目の取得タイミングで取得した相違度情報により示される相違度への変化量を算出する。ここで、「変化量」とは、例えば、N回目の取得タイミングで取得した相違度情報により示される相違度とN+1回目の取得タイミングで取得した相違度情報により示される相違度との差分の絶対値が挙げられる。なお、差分の絶対値に代えて、N回目の取得タイミングで取得した相違度情報により示される相違度に対するN+1回目の取得タイミングで取得した相違度情報により示される相違度の割合であってもよく、相違度の変化量を示す情報であれば如何なる情報であってもよい。
変化量判定部108Bは、相違度変化量算出部108Aによって算出された変化量が第2閾値未満か否かを判定する。なお、本実施形態では、第2閾値として、官能試験及び/又はコンピュータ・シミュレーション等によって予め導き出された固定値が採用されている。第2閾値は、固定値である必要はなく、例えば、受付デバイス52(図2参照)及び/又は受付デバイス76によって受け付けられた指示に従って変更される可変値であってもよい。
変化量判定部108Bは、相違度変化量算出部108Aによって算出された変化量が第2閾値未満の場合に、第2閾値未満情報をモード指示部108Cに出力する。また、変化量判定部108Bは、相違度変化量算出部108Aによって算出された変化量が第2閾値以上の場合に、第2閾値以上情報をモード指示部108Cに出力する。
モード指示部108Cは、変化量判定部108Bから第2閾値未満情報が入力された場合に、実行部104の動作モードとして追従モードを指示する追従モード指示情報を出力する。モード指示部108Cは、変化量判定部108Bから第2閾値以上情報が入力された場合に、実行部104の動作モードとして非追従モードを指示する非追従モード指示情報を出力する。実行部104は、モード指示部108Cから追従モード指示情報が入力された場合に、追従モード指示情報により指示された追従モードで動作する。実行部104は、モード指示部108Cから非追従モード指示情報が入力された場合に、非追従モード指示情報により指示された非追従モードで動作する。
このように、設定部108は、相違度の変化量が第2閾値未満の場合に、実行部104の動作モードとして追従モードを設定し、相違度の変化量が第2閾値以上の場合に、実行部104の動作モードとして非追従モードを設定する。
次に、情報処理システム10の作用について説明する。
先ず、情報処理装置12のCPU58によって実行される表示制御処理の流れの一例について図19を参照しながら説明する。なお、ここでは、説明の便宜上、基準映像生成部100Aによって基準映像46B1が既に生成されており、かつ、仮想視点映像生成部100Bによって仮想視点映像46Cが既に生成されていることを前提として説明する。
図19に示す表示制御処理では、先ず、ステップST200で、取得部102は、基準映像生成部100Aによって生成された基準映像46B1を基準映像生成部100Aから取得し、その後、表示制御処理はステップST202へ移行する。
ステップST202で、基準映像制御部106Aは、ステップST200で取得された基準映像46B1を受像機34に送信することで、受像機34に対して基準映像46B1を表示させる。すなわち、受像機34は、基準映像46B1を受信し、受信した基準映像46B1を画面34Aに表示する。
次のステップST204で、取得部102は、仮想視点映像生成部100Bによって生成された仮想視点映像46Cを仮想視点映像生成部100Bから取得し、その後、表示制御処理はステップST206へ移行する。
ステップST206で、仮想視点映像制御部106Bは、ステップST204で取得された仮想視点映像46Cをスマートデバイス14に送信することで、スマートデバイス14に対して仮想視点映像46Cを表示させる。すなわち、スマートデバイス14は、仮想視点映像46Cを受信し、受信した仮想視点映像46Cをディスプレイ78に表示する。
次のステップST208で、制御部106は、表示制御処理を終了する条件(以下、「表示制御処理終了条件」と称する)を満足したか否かを判定する。表示制御処理終了条件としては、例えば、受付デバイス52又は76によって、表示制御処理を終了させる指示が受け付けられた、との条件が挙げられる。ステップST208において、表示制御処理終了条件を満足していない場合は、判定が否定されて、表示制御処理はステップST200へ移行する。ステップST208において、表示制御処理終了条件を満足した場合は、判定が肯定されて、表示制御処理が終了する。
次に、情報処理装置12のCPU58によって実行される設定処理の流れの一例について図20を参照しながら説明する。なお、ここでは、説明の便宜上、相違度算出部104Aによって相違度が算出されており、算出された相違度情報が判定部104B及び相違度変化量算出部108Aに同期して出力されることを前提として説明する。
図20に示す設定処理では、先ず、ステップST250で、相違度変化量算出部108Aは、相違度算出部104Aから異なるタイミングで相違度情報を取得し、その後、設定処理はステップST252へ移行する。
ステップST252で、相違度変化量算出部108Aは、ステップST250で異なるタイミングで取得した各相違度情報により示される各相違度についての変化量を算出し、その後、設定処理はステップST254へ移行する。
ステップST254で、変化量判定部108Bは、ステップST252で算出された変化量が第2閾値未満か否かを判定する。ステップST254において、ステップST252で算出された変化量が第2閾値以上の場合は、判定が否定されて、設定処理はステップST256へ移行する。ステップST254において、ステップST252で算出された変化量が第2閾値未満の場合は、判定が肯定されて、設定処理はステップST258へ移行する。
ステップST256で、モード指示部108Cは、非追従モード指示情報を実行部104に出力し、その後、設定処理はステップST260へ移行する。ステップST256の処理が実行されることで、実行部104は、モード指示部108Cから入力された非追従モード指示情報により指示された非追従モードで動作する。
ステップST258で、モード指示部108Cは、追従モード指示情報を実行部104に出力し、その後、設定処理はステップST260へ移行する。ステップST258の処理が実行されることで、実行部104は、モード指示部108Cから入力された追従モード指示情報により指示された追従モードで動作する。
次のステップST260で、設定部108は、設定処理を終了する条件(以下、「設定処理終了条件」と称する)を満足したか否かを判定する。設定処理終了条件としては、例えば、受付デバイス52又は76によって、設定処理を終了させる指示が受け付けられた、との条件が挙げられる。ステップST260において、設定処理終了条件を満足していない場合は、判定が否定されて、設定処理はステップST250へ移行する。ステップST260において、設定処理終了条件を満足した場合は、判定が肯定されて、設定処理が終了する。
次に、情報処理装置12のCPU58によって実行される情報処理の流れの一例について図21を参照しながら説明する。なお、ここでは、説明の便宜上、基準映像生成部100Aによって基準映像46B1が既に生成されており、かつ、仮想視点映像生成部100Bによって仮想視点映像46Cが既に生成されていることを前提として説明する。また、ここでは、仮想視点映像生成部100Bによって生成された仮想視点映像46Cがスマートデバイス14のディスプレイ78に表示されていることを前提として説明する。更に、ここでは、実行部104に対して動作モードとして追従モード又は非追従モードが設定されていることを前提として説明する。
図21に示す情報処理では、先ず、ステップST300で、取得部102は、基準映像生成部100Aから基準映像46B1を取得し、その後、情報処理はステップST302へ移行する。
ステップST302で、取得部102は、仮想視点映像生成部100Bから仮想視点映像46Cを取得し、その後、情報処理はステップST304へ移行する。
ステップST304で、相違度算出部104Aは、ステップST300で取得された基準映像46B1とステップST302で取得された仮想視点映像46Cとの相違度を算出し、その後、情報処理はステップST306へ移行する。
ステップST306で、判定部104Bは、実行部104の動作モードが追従モードか否かを判定する。ステップST306において、実行部104の動作モードが非追従モードの場合は、判定が否定されて、情報処理はステップST312へ移行する。ステップST306において、実行部104の動作モードが追従モードの場合は、判定が肯定されて、情報処理はステップST308へ移行する。
ステップST308で、判定部104Bは、ステップST304で算出された相違度が第1閾値以上か否かを判定する。ステップST308において、相違度が第1閾値未満の場合は、判定が否定されて、情報処理はステップST312へ移行する。ステップST308において、相違度が第1閾値以上の場合は、判定が肯定されて、情報処理はステップST310へ移行する。
ステップST310で、報知処理部104Cは、報知処理を実行し、その後、情報処理はステップST312へ移行する。報知処理部104Cによって報知処理が実行されることによって、注意喚起情報が報知処理部104Cによってスマートデバイス14に送信される。スマートデバイス14は、注意喚起情報を受信すると、注意喚起メッセージ、推奨視点位置情報、及び推奨視線方向情報を仮想視点映像46Cと共にディスプレイ78に表示する。このように、注意喚起メッセージ、推奨視点位置情報、及び推奨視線方向情報が可視報知されることによって、相違度が第1閾値以上であることが視聴者28に報知される。
次のステップST312で、実行部104は、情報処理を終了する条件(以下、「情報処理終了条件」と称する)を満足したか否かを判定する。情報処理終了条件としては、例えば、受付デバイス52又は76によって、情報処理を終了させる指示が受け付けられた、との条件が挙げられる。ステップST312において、情報処理終了条件を満足していない場合は、判定が否定されて、情報処理はステップST300へ移行する。ステップST312において、情報処理終了条件を満足した場合は、判定が肯定されて、情報処理が終了する。
以上説明したように、情報処理システム10では、取得部102によって仮想視点映像46Cと、基準映像46B1とが取得され、実行部104によって、仮想視点映像46Cと基準映像46B1との相違度が第1閾値以上の場合に、相違度を第1閾値未満に収めるのに寄与する特定処理が実行される。従って、基準映像46B1との相違度が第1閾値未満に収まる仮想視点映像46Cの取得に寄与することができる。
なお、上記では、仮想視点映像46Cを例示したが、仮想視点映像46Cに代えて、撮像映像46Bそのものをタイムスライス自由視点映像として用いてもよいし、仮想視点映像46Cとタイムスライス自由視点映像とを併用してもよい。また、動画像に限らず、静止画像の自由視点映像を用いてもよい。これにより、基準映像46B1との相違度が第1閾値未満に収まる自由視点映像の取得に寄与することができる。
また、情報処理システム10では、実行部104によって特定処理として報知処理が実行される。報知処理が実行されることによって、相違度が第1閾値以上であることを示す注意喚起メッセージが視聴者28に報知される。従って、仮想視点映像46Cと基準映像46B1との相違度が第1閾値以上であることを視聴者28に気付かせることができる。
また、情報処理システム10では、視聴者28に対して、注意喚起メッセージが可視報知、可聴報知、及び/又は触覚報知が行われる報知処理が実行される。従って、仮想視点映像46Cと基準映像46B1との相違度が第1閾値以上であることを視聴者28に感受させることができる。
また、情報処理システム10では、実行部104によって、仮想視点映像46Cの変化に応じた特定処理が実行される。従って、仮想視点映像46Cが変化したとしても基準映像46B1との相違度が第1閾値未満に収まる仮想視点映像の取得に即時的に寄与することができる。
また、情報処理システム10では、設定部108によって追従モードと非追従モードとが選択的に設定される。従って、仮想視点映像46Cの変化に追従しながら特定処理が常に実行される場合に比べ、消費電力を削減することができる。
また、情報処理システム10では、設定部108によって、相違度の変化量が第2閾値未満の場合に追従モードが設定され、相違度の変化量が第2閾値以上の場合に非追従モードが設定される。従って、視聴者28の意図に反して特定処理が実行されることを回避することができる。
また、情報処理システム10では、制御部106によって、スマートデバイス14のディスプレイ78に仮想視点映像46Cが表示される。従って、視聴者28に対して仮想視点映像46Cを視覚的に認識させることができる。
また、情報処理システム10では、制御部106によって、受像機34の画面34Aに基準映像46B1が表示される。従って、受像機34の視聴者に対して基準映像46B1を視覚的に認識させることができる。
また、情報処理システム10では、基準映像46B1として生中継映像が採用されている。従って、生中継映像との相違度が第1閾値未満に収まる仮想視点映像46Cの取得に寄与することができる。
また、情報処理システム10では、基準撮像装置によって撮像領域が撮像されることで得られた映像が基準映像46B1として用いられている。従って、撮像領域が撮像されることで得られた映像以外の映像(例えば、仮想的な映像)が基準映像として用いられる場合に比べ、撮像されることで得られた映像と仮想視点映像46Cとの差異を視聴者28等に対して容易に把握させることができる。
また、情報処理システム10では、外部から指示された視点位置42及び視線方向44が用いられる。つまり、タッチパネル76Aによって受け付けられた視点視線指示に従って視点位置42及び視線方向44が決定される。従って、視聴者28が意図する視点位置及び視線方向から撮像領域を観察した場合の仮想視点映像46Cを生成することができる。
更に、情報処理システム10では、特定処理として、相違度を第1閾値未満に収めるのに寄与する処理が採用されている。従って、基準映像46B1との相違度が第1閾値未満に収まる仮想視点映像46Cの取得に寄与することができる。
なお、上記実施形態では、情報処理装置12によって基準映像46B1及び仮想視点映像46Cが生成される形態例を挙げて説明したが、本開示の技術はこれに限定されない。情報処理装置12とは異なる装置(以下、「映像生成装置」と称する)によって基準映像46B1及び/又は仮想視点映像46Cが生成され、映像生成装置によって生成された映像が取得部102によって取得されるようにしてもよい。
上記実施形態では、実行部104によって実行される特定処理として報知処理を例示したが、本開示の技術はこれに限定されず、上記実施形態で説明した情報処理(図21参照)に代えて、図22に示す情報処理が実行されるようにしてもよい。図22に示す情報処理は、図21に示す情報処理に比べ、ステップST310に代えてステップST310Aを有する点が異なる。ステップST310Aでは、制限処理部104D(図23参照)によって制限処理が実行される。
制限処理とは、視点位置42を指示可能な範囲を、相違度を第1閾値未満に収める範囲として定められた視点位置範囲R1(図24参照)に制限し、かつ、視線方向44を指示可能な範囲を、相違度を第1閾値未満に収める範囲として定められた視線方向範囲R2(図24参照)に制限する処理を指す。
一例として図23に示すように、制限処理部104Dは、制限処理を実行することで、視点視線制限指示情報を仮想視点映像生成部100Bに出力する。視点視線制限指示情報は、視点位置制限指示情報と視線方向制限指示情報とを含む情報である。視点位置制限指示情報とは、視点位置42を指示可能な範囲を視点位置範囲R1(図24参照)に制限する指示を示す情報を指し、視線方向制限指示情報とは、視線方向44を指示可能な範囲を視線方向範囲R2(図24参照)に制限する指示を示す情報を指す。
この場合、一例として図24に示すように、視点位置42が強制的に視点位置範囲R1に収められ、かつ、視線方向44が強制的に視線方向範囲R2に収められる。換言すると、視点位置42が視点位置範囲R1に追従し、視線方向44が視線方向範囲R2に追従する。例えば、図24において2点鎖線で示すように、視点位置42及び視線方向44が、視点位置範囲及び視線方向範囲の外側に一旦離れたとしても、視点位置42及び視線方向44は、再び視点位置範囲内及び視線方向範囲内に戻される。
視点位置42が視点位置範囲R1のどの位置に配置されるかについては、視点位置範囲R1と現時点での視点位置42との位置関係に応じて決定される。例えば、視点位置範囲R1のうち、現時点での視点位置42と最も近い位置に視点位置42が変更される。また、視線方向が視線方向範囲R2のどの方向に向けられるかについては、視線方向範囲R2と現時点での視線方向44との位置関係に応じて決定される。例えば、視線方向範囲R2のうち、現時点での視線方向44と最も近い方向に視線方向44が変更される。
一例として図25に示すように、仮想視点映像生成部100Bは、視点視線範囲判定部100B1及び映像生成実施部100B2を有する。視点視線範囲判定部100B1は、スマートデバイス14から視点視線指示を取得し、かつ、制限処理部104Dから視点視線制限指示情報を取得する。
視点視線範囲判定部100B1は、視点視線指示及び視点視線制限指示情報に基づいて、視点位置42が視点位置範囲R1内であり、かつ、視線方向44が視線方向範囲R2内か否かを判定する。視点視線範囲判定部100B1は、視点位置42が視点位置範囲R1外であり、かつ、視線方向44が視線方向範囲R2外の場合に、現時点の視点位置42を視点位置範囲R1に収め、かつ、現時点の視線方向44を視線方向範囲R2に収めるように視点視線指示を調節する。そして、視点視線範囲判定部100B1は、調節した視点視線指示を映像生成実施部100B2に出力する。映像生成実施部100B2は、視点視線範囲判定部100B1から入力された視点視線指示に従って仮想視点映像46Cの生成を実施する。これにより、視点位置範囲R1に収まる視点位置42及び視線方向範囲R2に収まる視線方向44に従って、基準映像46B1との相違度が第1閾値未満の仮想視点映像46Cが生成される。従って、基準映像46B1と仮想視点映像46Cとの相違度を第1閾値未満に維持することができる。
また、例えば、図26に示すように、制限処理部104Dは、視点視線制限指示情報を視点視線範囲判定部100B1のみならず、スマートデバイス14にも出力するようにしてもよい。この場合、一例として図27に示すように、スマートデバイス14では、CPU88の制御下で、ディスプレイ78に仮想視点映像46Cに重ねて視点位置範囲R1の外縁を示す矩形枠R1Aが表示され、かつ、「矩形枠内で視点位置を指示して下さい」という案内メッセージが表示される。一例として図28に示すように、視聴者28からの視点位置指示が矩形枠R1A内でタッチパネル76Aによって受け付けられると、視点位置42は視点位置範囲R1内の位置に変更される。
また、視点位置指示がタッチパネル76Aによって受け付けられると、矩形枠R1Aがディスプレイ78から消去される。そして、続けて、一例として図29に示すように、スマートデバイス14では、CPU88の制御下で、ディスプレイ78に仮想視点映像46Cに重ねて視線方向範囲R2の外縁を示す円形枠R2Aが表示され、かつ、「円形枠内に向けて視線方向を指示して下さい」という案内メッセージが表示される。この場合、例えば、視聴者28からの視線方向指示(例えば、スライド操作)が円形枠R2Aに向けてタッチパネル76Aによって受け付けられると、視線方向44は視線方向範囲R2内の方向に変更される。
このように、視点位置42が視点位置範囲R1内の位置に変更され、かつ、視線方向44が視線方向範囲R2内の方向に変更されると、変更後の視点位置42及び視線方向44に従って、仮想視点映像生成部100Bによって仮想視点映像46Cが生成される。
また、図23に示す例では、制限処理部104Dによって制限処理が実行される形態例が示されているが、本開示の技術はこれに限定されない。一例として図30に示すように、実行部104は、制限処理部104Dに代えて変更処理部104Eを有していてもよい。図23に示す例では、制限処理部104Dは図示されていないが、制限処理部104Dは、変更処理部104Eと併存可能である。
変更処理部104Eは、変更処理を実行する。変更処理とは、仮想視点映像46Cに対して相違度を第1閾値未満に収める変更を施す処理を指す。つまり、変更処理部104Eによって変更処理が実行されると、相違度が第1閾値未満に収められるように仮想視点映像46Cが変更される。変更処理部104Eは、判定部104Bから相違度大情報が入力されると、相違度算出部104Aから判定部104Bを介して入力された相違度情報に基づいて変更可能量情報を生成し、生成した変更可能量情報を仮想視点映像生成部100Bに出力する。変更可能量情報とは、仮想視点映像46Cの変更に要する変更量の限度値、すなわち、相違度情報により示される相違度を第1閾値未満に収めるのに要する変更量の上限値(以下、「変更可能量」と称する)を指す。
一例として図31に示すように、仮想視点映像生成部100Bは、映像生成実施部100B2及び視点視線指示調節部100B3を有する。視点視線指示調節部100B3は、スマートデバイス14から視点視線指示を取得し、かつ、変更処理部104Eから変更可能量情報を取得する。
視点視線指示調節部100B3は、視点視線指示を調節することにより視点位置42及び視線方向44を変更する。具体的には、視点視線指示調節部100B3は、変更可能量情報により示される変更可能量内で、視点視線指示を調節する。ここで、視点視線指示の調節とは、視点位置指示及び視線方向指示の調節を指す。視点視線指示調節部100B3は、調節した視点視線指示を映像生成実施部100B2に出力する。映像生成実施部100B2は、視点視線指示調節部100B3から入力された視点視線指示に従って複数の撮像映像を用いることで仮想視点映像46Cを生成する。
これにより、相違度を第1閾値未満にするのに要する変更量で仮想視点映像46Cが変更されるので、仮想視点映像46Cと基準映像46B1との相違度を第1閾値未満に維持することができる。また、視点位置指示及び視線方向指示が調節されるので、視点位置指示及び視線方向指示の何れも調節されない場合に比べ、基準映像46B1との相違度を第1閾値未満に収める仮想視点映像46Cを容易に変更することができる。
なお、ここでは、視点位置指示及び視線方向指示の両方が調節される形態例を挙げたが、本開示の技術はこれに限らず、相違度が第1閾値未満に収まるように視点位置指示又は視線方向指示の何れか一方のみが視点視線指示調節部100B3によって調節されるようにしてもよい。
また、図18に示す例では、変化量判定部108Bを例示したが、本開示の技術はこれに限定されない。例えば、図32に示すように、設定部108は、変化量判定部108Bに代えて変化頻度判定部108B1を有していてもよい。変化頻度判定部108B1は、相違度が変化する頻度が第3閾値未満か否かを判定する。ここで、「相違度が変化する頻度」の一例としては、相違度が上述した第1閾値を超えた頻度(例えば、単位時間あたりの頻度)が挙げられる。変化頻度判定部108B1は、相違度が変化する頻度が第3閾値未満の場合に第3閾値未満情報をモード指示部108Cに出力し、相違度が変化する頻度が第3閾値以上の場合に第3閾値以上情報をモード指示部108Cに出力する。これにより、上記実施形態と同様に、実行部104は、相違度が変化する頻度が第3閾値未満の場合に、追従モードで動作し、相違度が変化する頻度が第3閾値以上の場合に、非追従モードで動作する。従って、仮想視点映像46Cと基準映像46B1との相違度が変化する頻度に関わらず実行部104によって特定処理が実行される場合に比べ、特定処理が頻繁に実行されることに起因して視聴者28に与える不快感を軽減することができる。
また、上記実施形態では、スマートデバイス14の姿勢に関わらず、実行部104によって特定処理が実行される形態例を挙げて説明したが、本開示の技術はこれに限定されず、スマートデバイス14の姿勢に応じて特定処理が実行されたり実行されなかったりするようにしてもよい。この場合、スマートデバイス14のCPU88は、ジャイロセンサ74によって測定された角度情報に基づいて、スマートデバイス14の姿勢を検出する。なお、ここで、CPU88は、本開示の技術に係る「検出部(ディテクタ)」の一例である。一例として図33に示すように、CPU88は、スマートデバイス14の姿勢を示す姿勢情報を実行部104に出力する。実行部104は、姿勢判定部104Fを有しており、姿勢判定部104Fは、CPU88から入力された姿勢情報により示される姿勢が既定姿勢か否かを判定する。既定姿勢とは、例えば、ディスプレイ78が鉛直下向き以外の姿勢を指す。
姿勢判定部104Fは、姿勢情報により示される姿勢が既定姿勢の場合に、特定処理の実行を指示する実行指示情報を相違度算出部104A、判定部104B、及び報知処理部104Cに出力する。相違度算出部104A、判定部104B、及び報知処理部104Cに実行指示情報が入力されると、相違度算出部104A、判定部104B、及び報知処理部104Cは作動し、上述した特定処理が実行される。また、姿勢判定部104Fは、姿勢情報により示される姿勢が既定姿勢でない場合に、特定処理の不実行を指示する不実行指示情報を相違度算出部104A、判定部104B、及び報知処理部104Cに出力する。相違度算出部104A、判定部104B、及び報知処理部104Cに不実行指示情報が入力されると、相違度算出部104A、判定部104B、及び報知処理部104Cは作動せず、上述した特定処理は実行されない。従って、スマートデバイス14の姿勢を変化させることで、特定処理を実行させたり、実行させなかったりすることができる。
また、上記実施形態で説明した第1閾値として固定値が採用されているが、本開示の技術はこれに限定されず、例えば、受付デバイス52(図2参照)及び/又は受付デバイス76によって受け付けられた指示に従って変更される可変値であってもよい。この場合、例えば、図34に示すように、第1閾値の変更を指示する第1閾値変更指示情報がスマートデバイス14のタッチパネル76Aによって受け付けられた場合に、第1閾値変更指示情報に従って第1閾値の変更が実行部104によって実行されるようにしてもよい。ここで、第1閾値変更指示情報は、本開示の技術に係る「指示情報」の一例である。
図34に示す例では、実行部104は、指示情報受信部104Gを有しており、スマートデバイス14のタッチパネル76Aによって第1閾値変更指示情報が受け付けられると、スマートデバイス14から第1閾値変更指示情報が指示情報受信部104Gに送信される。第1閾値変更指示情報には、第1閾値を示す情報、又は、第1閾値の変更の度合いを示す情報が含まれている。指示情報受信部104Gは、第1閾値変更指示情報を受信し、受信した第1閾値変更指示情報を判定部104Bに出力する。判定部104Bに第1閾値変更指示情報が入力されると、判定部104Bは、相違度との比較に用いる第1閾値を第1閾値変更指示情報に従って変更する。従って、第1閾値が常時固定されている場合に比べ、第1閾値の変更について、視聴者28等の意図を容易に判定させることができる。
また、上記実施形態では、表示制御処理(図19参照)、設定処理(図20参照)、及び情報処理(図21及び図22参照)が情報処理装置12のCPU58によって実行される形態例を挙げて説明したが、本開示の技術はこれに限定されない。表示制御処理、設定処理、及び情報処理のうちの少なくとも1つがスマートデバイス14のCPU88によって実行されるようにしてもよい。以下では、表示制御処理、設定処理、及び情報処理を区別して説明する必要がない場合、これらの処理を「情報処理装置側処理」と称する。
図35には、情報処理装置側処理がスマートデバイス14のCPU88によって実行される場合のスマートデバイス14の構成例が示されている。一例として図35に示すように、ストレージ90は、情報処理装置側プログラムを記憶している。また、CPU88は、情報処理プログラム60Aに従って取得部102及び実行部104として動作することで情報処理を実行する。また、CPU88は、表示制御プログラム60Bに従って制御部106として動作することで表示制御処理を実行する。更に、CPU88は、設定プログラム60Cに従って設定部108として動作することで設定処理を実行する。
なお、図35に示す例において、スマートデバイス14は、本開示の技術に係る「情報処理装置」の一例である。なお、図35に示す例では、本開示の技術に係る「情報処理装置」の一例としてスマートデバイス14を挙げているが、スマートデバイス14に代えて、ヘッドアップディスプレイ、ヘッドマウントディスプレイ、パーソナル・コンピュータ及び/又はウェアラブル端末等の演算装置付きの各種デバイスも本開示の技術に係る「情報処理装置」として採用することができる。
また、上記実施形態では、サッカー競技場22を例示したが、これはあくまでも一例に過ぎず、野球場、ラグビー場、カーリング場、陸上競技場、競泳場、コンサートホール、野外音楽場、及び演劇会場等のように、複数の撮像装置及び複数の収音装置100が設置可能であれば、如何なる場所であってもよい。
また、上記実施形態では、基地局20を用いた無線通信方式を例示したが、これはあくまでも一例に過ぎず、ケーブルを用いた有線通信方式であっても本開示の技術は成立する。
また、上記実施形態では、無人航空機27を例示したが、本開示の技術はこれに限定されず、ワイヤで吊るされた撮像装置18(例えば、ワイヤを伝って移動可能な自走式の撮像装置)によって撮像領域が撮像されるようにしてもよい。
また、上記実施形態では、コンピュータ50及び70を例示したが、本開示の技術はこれに限定されない。例えば、コンピュータ50及び/又は70に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ50及び/又は70に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
また、上記実施形態では、ストレージ60に情報処理装置側プログラムが記憶されているが、本開示の技術はこれに限定されず、一例として図36に示すように、非一時的記憶媒体SSD又はUSBメモリなどの任意の可搬型の記憶媒体500に情報処理装置側プログラムが記憶されていてもよい。この場合、記憶媒体500に記憶されている情報処理装置側プログラムがコンピュータ50にインストールされ、CPU58は、情報処理装置側プログラムに従って、情報処理装置側処理を実行する。
また、通信網(図示省略)を介してコンピュータ50に接続される他のコンピュータ又はサーバ装置等の記憶部に情報処理装置側プログラムを記憶させておき、情報処理装置12の要求に応じて情報処理装置側プログラムが情報処理装置12にダウンロードされるようにしてもよい。この場合、ダウンロードされた情報処理装置側プログラムに基づく情報処理装置側処理がコンピュータ50のCPU58によって実行される。
また、上記実施形態では、CPU58を例示したが、本開示の技術はこれに限定されず、GPUを採用してもよい。また、CPU58に代えて、複数のCPUを採用してもよい。つまり、1つのプロセッサ、又は、物理的に離れている複数のプロセッサによって情報処理装置側処理が実行されるようにしてもよい。また、CPU88に代えて、GPUを採用してもよいし、複数のCPUを採用してもよく、1つのプロセッサ、又は、物理的に離れている複数のプロセッサによって各種処理が実行されるようにしてもよい。
情報処理装置側処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、上述したように、ソフトウェア、すなわち、プログラムに従って情報処理装置側処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、他のプロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで情報処理装置側処理を実行する。
情報処理装置側処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、情報処理装置側処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、クライアント及びサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、情報処理装置側処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、情報処理装置側処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、情報処理装置側処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。
また、上述した情報処理装置側処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
プロセッサと、
上記プロセッサに内蔵又は接続されたメモリと、を含み、
上記プロセッサは、
撮像領域が複数の撮像装置によって撮像されることで得られた複数の画像のうちの少なくとも1つの画像に基づく自由視点映像であって、特定の視点位置及び特定の視線方向から上記撮像領域を観察した場合の上記撮像領域を示す自由視点映像と、基準映像とを取得し、
取得した上記自由視点映像と、取得した上記基準映像との相違度が第1閾値以上の場合に、特定処理を実行する
情報処理装置。

Claims (20)

  1. プロセッサと、
    前記プロセッサに内蔵又は接続されたメモリと、を備え、
    前記プロセッサは、
    撮像領域が複数の撮像装置によって撮像されることで得られた複数の画像のうちの少なくとも1つの画像に基づく自由視点映像であって、特定の視点位置及び特定の視線方向から前記撮像領域を観察した場合の前記撮像領域を示す自由視点映像と、基準映像とを取得し、
    取得した前記自由視点映像と、取得した前記基準映像との相違度が第1閾値以上の場合に、特定処理を実行し、
    前記特定処理は、前記相違度を前記第1閾値未満に収めるのに寄与する処理である
    を含む情報処理装置。
  2. 前記特定処理は、前記相違度が前記第1閾値以上であることを報知する報知処理を含む処理である請求項1に記載の情報処理装置。
  3. 前記報知処理は、前記相違度が前記第1閾値以上であることを、可視報知、可聴報知、及び触覚報知のうちの少なくとも1つを行う処理である請求項2に記載の情報処理装置。
  4. 前記特定処理は、前記視点位置を指示可能な範囲を、前記相違度を前記第1閾値未満に収める範囲として定められた視点位置範囲に制限し、かつ、前記視線方向を指示可能な範囲を、前記相違度を前記第1閾値未満に収める範囲として定められた視線方向範囲に制限する処理を含む処理である請求項1から請求項3の何れか一項に記載の情報処理装置。
  5. 前記特定処理は、前記自由視点映像に対して前記相違度を前記第1閾値未満に収める変更を施す変更処理を含む処理である請求項1から請求項4の何れか一項に記載の情報処理装置。
  6. 前記変更処理は、前記視点位置及び前記視線方向のうちの少なくとも一方を変更することで前記自由視点映像を変更する処理である請求項5に記載の情報処理装置。
  7. 前記プロセッサは、前記自由視点映像の変化に応じて前記特定処理を実行する請求項1から請求項6の何れか一項に記載の情報処理装置。
  8. 前記プロセッサは、前記プロセッサが前記自由視点映像の変化に追従しながら前記特定処理を実行する追従モードと、前記プロセッサが前記自由視点映像の変化に追従しながら前記特定処理を実行しない非追従モードとを選択的に設定する請求項7に記載の情報処理装置。
  9. 前記プロセッサは、前記相違度の変化量が第2閾値未満の場合に前記追従モードを設定し、前記変化量が前記第2閾値以上の場合に前記非追従モードを設定する請求項8に記載の情報処理装置。
  10. 前記プロセッサは、前記相違度が変化する頻度が第3閾値未満の場合に前記追従モードを設定し、前記頻度が前記第3閾値以上の場合に前記非追従モードを設定する請求項8に記載の情報処理装置。
  11. 前記プロセッサは、更に、第1表示装置に対して前記自由視点映像を表示させる請求項1から請求項10の何れか一項に記載の情報処理装置。
  12. 前記第1表示装置は、前記第1表示装置の姿勢を検出するディテクタを有し、
    前記プロセッサは、前記ディテクタによって検出された姿勢が既定姿勢の場合に前記特定処理を実行し、前記ディテクタによって検出された姿勢が前記既定姿勢とは異なる姿勢の場合に前記特定処理を実行しない請求項11に記載の情報処理装置。
  13. 前記プロセッサは、前記第1表示装置とは異なる第2表示装置に対して前記基準映像を表示させる請求項11又は請求項12に記載の情報処理装置。
  14. 前記プロセッサは、前記第1閾値の変更を指示する指示情報が受付デバイスによって受け付けられた場合に、前記受付デバイスによって受け付けられた前記指示情報に従って前記第1閾値の変更を実行する請求項1から請求項13の何れか一項に記載の情報処理装置。
  15. 前記自由視点映像は仮想視点映像である請求項1から請求項14の何れか一項に記載の情報処理装置。
  16. 前記基準映像は生中継映像である請求項1から請求項15の何れか一項に記載の情報処理装置。
  17. 前記基準映像は、基準撮像装置によって前記撮像領域が撮像されることで得られた画像である請求項1から請求項16の何れか一項に記載の情報処理装置。
  18. 前記視点位置及び前記視線方向は、外部から指示された視点位置及び視線方向である請求項1から請求項17の何れか一項に記載の情報処理装置。
  19. 撮像領域が複数の撮像装置によって撮像されることで得られた複数の画像のうちの少なくとも1つの画像に基づく自由視点映像であって、特定の視点位置及び特定の視線方向から前記撮像領域を観察した場合の前記撮像領域を示す自由視点映像と、基準映像とを取得すること、並びに、
    取得した前記自由視点映像と、取得した前記基準映像との相違度が第1閾値以上の場合に、特定処理を実行することを含み、
    前記特定処理は、前記相違度を前記第1閾値未満に収めるのに寄与する処理である
    情報処理方法。
  20. コンピュータに処理を実行させるためのプログラムであって、
    前記処理は、
    撮像領域が複数の撮像装置によって撮像されることで得られた複数の画像のうちの少なくとも1つの画像に基づく自由視点映像であって、特定の視点位置及び特定の視線方向から前記撮像領域を観察した場合の前記撮像領域を示す自由視点映像と、基準映像とを取得すること、並びに、
    取得した前記自由視点映像と、取得した前記基準映像との相違度が第1閾値以上の場合に、特定処理を実行することを含
    み、
    前記特定処理は、前記相違度を前記第1閾値未満に収めるのに寄与する処理である
    プログラム。
JP2021536959A 2019-07-26 2020-07-20 情報処理装置、情報処理方法、及びプログラム Active JP7291224B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023091887A JP2023123484A (ja) 2019-07-26 2023-06-02 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019138239 2019-07-26
JP2019138239 2019-07-26
PCT/JP2020/028078 WO2021020200A1 (ja) 2019-07-26 2020-07-20 情報処理装置、情報処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023091887A Division JP2023123484A (ja) 2019-07-26 2023-06-02 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2021020200A1 JPWO2021020200A1 (ja) 2021-02-04
JPWO2021020200A5 JPWO2021020200A5 (ja) 2022-04-15
JP7291224B2 true JP7291224B2 (ja) 2023-06-14

Family

ID=74229087

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021536959A Active JP7291224B2 (ja) 2019-07-26 2020-07-20 情報処理装置、情報処理方法、及びプログラム
JP2023091887A Abandoned JP2023123484A (ja) 2019-07-26 2023-06-02 情報処理装置、情報処理方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023091887A Abandoned JP2023123484A (ja) 2019-07-26 2023-06-02 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220141442A1 (ja)
JP (2) JP7291224B2 (ja)
WO (1) WO2021020200A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023157799A (ja) * 2022-04-15 2023-10-26 パナソニックIpマネジメント株式会社 ビューワ制御方法及び情報処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017012397A (ja) 2015-06-30 2017-01-19 株式会社セガゲームス プログラム
WO2019012817A1 (ja) 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6938123B2 (ja) * 2016-09-01 2021-09-22 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP6924079B2 (ja) * 2017-06-12 2021-08-25 キヤノン株式会社 情報処理装置及び方法及びプログラム
JP7301507B2 (ja) * 2018-08-08 2023-07-03 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
EP3629584A1 (en) * 2018-09-25 2020-04-01 Koninklijke Philips N.V. Apparatus and method for generating and rendering a video stream
JP7353782B2 (ja) * 2019-04-09 2023-10-02 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017012397A (ja) 2015-06-30 2017-01-19 株式会社セガゲームス プログラム
WO2019012817A1 (ja) 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Also Published As

Publication number Publication date
JPWO2021020200A1 (ja) 2021-02-04
WO2021020200A1 (ja) 2021-02-04
US20220141442A1 (en) 2022-05-05
JP2023123484A (ja) 2023-09-05

Similar Documents

Publication Publication Date Title
US10679676B2 (en) Automatic generation of video and directional audio from spherical content
US9858643B2 (en) Image generating device, image generating method, and program
EP3571845B1 (en) Field-of-view prediction method based on contextual information for 360-degree vr video
US11265603B2 (en) Information processing apparatus and method, display control apparatus and method, reproducing apparatus and method, and information processing system
US11055057B2 (en) Apparatus and associated methods in the field of virtual reality
US9271103B2 (en) Audio control based on orientation
EP3712839A1 (en) Image capturing device, image capturing system, image processing method, and carrier means
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US10754608B2 (en) Augmented reality mixing for distributed audio capture
US20190199992A1 (en) Information processing apparatus, method for controlling the same, and recording medium
JP2023123484A (ja) 情報処理装置、情報処理方法、及びプログラム
US20220132261A1 (en) Information processing apparatus, information processing method, and program
WO2019142659A1 (ja) 情報処理装置および方法、並びにプログラム
JP2024050737A (ja) 情報処理装置、情報処理装置の作動方法、及びプログラム
KR20200136393A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
US11317082B2 (en) Information processing apparatus and information processing method
US20220329912A1 (en) Information processing apparatus, information processing method, and program
KR20200136394A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2020054585A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20230388471A1 (en) Image processing apparatus, image processing method, and program
WO2021220893A1 (ja) 画像処理装置、画像処理方法、及びプログラム
EP4037340A1 (en) Processing of audio data
JP2019527847A (ja) 多角度画像制御方法および関連装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230602

R150 Certificate of patent or registration of utility model

Ref document number: 7291224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150