CN1835574A - 记录/再生设备和方法、及立体图像视觉效果确认设备和方法 - Google Patents

记录/再生设备和方法、及立体图像视觉效果确认设备和方法 Download PDF

Info

Publication number
CN1835574A
CN1835574A CNA2006100650147A CN200610065014A CN1835574A CN 1835574 A CN1835574 A CN 1835574A CN A2006100650147 A CNA2006100650147 A CN A2006100650147A CN 200610065014 A CN200610065014 A CN 200610065014A CN 1835574 A CN1835574 A CN 1835574A
Authority
CN
China
Prior art keywords
video data
recording
data
synthetic
stack
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006100650147A
Other languages
English (en)
Other versions
CN1835574B (zh
Inventor
濑户浩昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1835574A publication Critical patent/CN1835574A/zh
Application granted granted Critical
Publication of CN1835574B publication Critical patent/CN1835574B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

本发明涉及一种图像记录/再生设备和方法,通过该设备和方法,能够容易地在视觉上确认多个图像的视觉效果。该设备包括:记录/再生部,记录多组输入的视频数据,并将其从记录介质中读出进行再生;算术运算部,通过对应于外部指令的方法,对通过记录/再生部再生的多组视频数据执行算术运算;叠加部,生成表示算术运算部的算术运算方法的字符串数据,将通过算术运算部的算术运算产生的运算视频数据和字符串数据叠加,并输出通过叠加产生的叠加视频数据,作为算术运算的结果。

Description

记录/再生设备和方法、 及立体图像视觉效果确认设备和方法
相关申请的交叉参考
本发明包含于2005年3月16日向日本专利局提交的日本专利申请第2005-075481号的主题,其全部内容结合于此作为参考。
技术领域
本发明涉及一种记录/再生设备和方法,还涉及一种适合用在用于记录多种***的视频数据、并根据该视频数据再生图像的记录/再生设备中的立体图像视觉效果确认设备和方法。
背景技术
目前,多通道再生设备正得到广泛使用,当这种设备从用户接收到图像再生请求时,它能够从记录在多个记录介质上的多组视频数据中读出多个用户各自要求的多组视频数据,并立即将基于多组视频数据的多个图像提供给各个用户。
但是,这种设备也存在问题:从设备接收到来自多个用户的图像再生请求到从各个记录介质读出相应于再生请求的多组视频数据,必须耗费一定的等待时间。
为了试图解决上述问题,已经提出了多种多通道再生设备,这些设备将记录在多个记录介质上的多组视频数据中的每一个的预
为了试图解决上述问题,已经提出了多种多通道再生设备,这些设备将记录在多个记录介质上的多组视频数据中的每一个的预设引导数据存储在与多个记录介质并联设置的多个缓存器中,并响应于多个用户提出的再生请求立即传输存储在缓存器中的引导数据,这样不需要花费等待时间就能将对应于期望视频数据的图像提供给用户(例如,参照日本专利公开申请出版物第8-9335号)。
发明内容
但是,在这种已知的多通道再生设备中,用户必须以使各通道的再生图像同步的方式发布各自的再生请求,使得用户可以同时确认通道的图像,并且当同时显示通道的图像时,如果需要对通道图像产生例如色彩转换和图像转换的特殊效果,则需要提供例如转换器和效果器等外部设备。
另外,各通道的图像在这种已知的多路再生设备中的各个显示部上显示。这就意味着,当对通道图像制作例如色彩转换和图像转换的特殊效果时,为了确认特殊效果,必须调节所有显示部,从而完美地显示出相同的色调和相同的亮度值。另外,存在一个问题,当在不同的显示部上合成组合各通道图像时,无法视觉上直观地确认合成图像的视觉效果。
本发明针对上述问题作出,提出了一种图像记录/再生设备和方法,还提出了一种能够容易地从视觉上确认多个图像的视觉效果的立体图像视觉效果确认的设备和方法。
根据本发明的实施例,通过提供一种记录/再生设备解决了上述问题,该设备包括:记录/再生装置,用于记录多组输入视频数据,并将其从记录介质读出进行再生;算术运算装置,用于通过对应于外部指令的方法,对通过记录/再生装置再生的多组视频数据执行算术运算;以及叠加装置,用于生成表示算术运算装置的算术运算方法的字符串数据,将通过算术运算装置的算术运算产生的运算视频数据与字符串数据叠加,并输出通过叠加产生的叠加视频数据,作为算术运算的结果。
通过这种配置,不再需要提供用于显示相应于多组视频数据的图像的多个显示装置,并且,由于叠加视频数据作为算术运算的结果输出到单个显示装置,因而用户能够从视觉上确认叠加了算术运算的结果和表示算术运算方法的字符串的叠加图像。
根据本发明的实施例,提供了一种记录/再生方法,包括:记录/再生步骤,在记录介质上记录多组输入视频数据,并将其从记录介质中读出进行再生;算术运算步骤,根据对应于外部指令的方法,对在记录/再生步骤中产生的多组视频数据执行算术运算;以及叠加步骤,生成表示算术运算步骤的算术运算方法的字符串数据,将在算术运算步骤中通过算术运算产生的运算视频数据与字符串数据叠加,并输出通过叠加产生的叠加视频数据,作为算术运算的结果。
通过这种配置,不再需要提供用于显示相应于多组视频数据的图像的多个显示装置,并且,由于叠加视频数据作为算术运算的结果输出到单个显示装置,所以用户能够从视觉上确认叠加了算术运算的结果和表示算术运算方法的字符串的叠加图像。
根据本发明的实施例,提供了一种立体图像视觉效果确认设备,包括:记录/再生装置,用于在记录介质上记录输入的右眼视频数据和输入的左眼视频数据,并将其从记录介质读出;合成装置,用于合成通过记录/再生装置再生的右眼视频数据和左眼视频数据,并将其合成以进行叠加;以及叠加装置,用于生成表示合成装置的合成方法的字符串数据,将通过合成装置合成产生的合成视频数据与字符串数据叠加,并输出通过叠加产生的叠加视频数据,作为合成结果。
通过这种配置,不再需要提供用于显示相应于多组视频数据的图像的多个显示装置,并且,由于将叠加视频数据作为合成结果输出到单个显示装置,所以用户能够从视觉上确认叠加了合成结果和表示合成方法的字符串的叠加图像。另外,能够通过只将叠加视频数据作为合成结果输出,使用户从视觉上简单地确认立体图像中好像跳出一样出现的部分。
根据本发明的实施例,提供了一种立体图像视觉效果确认方法,包括:记录/再生步骤,在记录介质上记录输入的右眼视频数据和输入的左眼视频数据,并将其从记录介质读出;合成步骤,合成在记录/再生步骤中再生的右眼视频数据和左眼视频数据,并将其合成以进行叠加;以及叠加步骤,生成表示合成步骤的合成方法的字符串数据,将在合成步骤中合成产生的合成视频数据和字符串数据叠加,并输出通过叠加产生的叠加视频数据,作为合成结果。
通过这种配置,不再需要提供用于显示相应于多组视频数据的图像的多个显示装置,并且由于叠加视频数据作为合成结果输出至单个显示装置将,所以用户能够视觉上确认叠加了合成结果和表示合成方法的字符串的叠加图像。另外,能够通过只将叠加视频数据作为合成结果输出,使用户从视觉上简单地确认立体图像中好像跳出一样出现的部分。
因此,根据本发明的实施例,通过外部指定的方法对多组视频数据进行算术运算,并产生表示算术运算方法的字符串数据。然后,通过叠加运算视频数据和字符串数据产生的叠加视频数据作为算术运算结果输出。因此,不再需要提供用于显示相应于多组视频数据的图像的多个显示装置,并且由于叠加视频数据作为算术运算的结果输出至单个显示装置,所以用户能够从视觉上确认叠加了算术运算结果和表示算术运算方法的字符串的叠加图像。这样,能够实现很容易在视觉上确认多个图像的视觉效果的图像记录/再生设备和方法。
另外,根据本发明的实施例,合成右眼视频数据和左眼视频数据,并生成表示合成方法的字符串数据。随后,叠加合成视频数据和字符串数据,产生叠加合成视频数据,随后将其作为合成结果输出。因此,不再需要提供用于显示相应于多组视频数据的图像的多个显示装置,并且由于叠加视频数据作为合成结果输出至单个显示装置,所以用户能够视觉上确认叠加了合成结果和表示合成方法的字符串的叠加图像。另外,能够通过只将叠加视频数据作为合成结果输出,使用户从视觉上简单地确认立体图像中好像跳出一样出现的部分。这样,能够实现很容易在视觉上确认多个图像的视觉效果的立体图像视觉效果确认设备和方法。
结合附图,通过以下详细的描述,本发明的特性、原理、和实用性将更加明显,在附图中,类似的参照数字和字符表示类似的部件。
附图说明
在附图中:
图1是根据本发明的一个实施例的记录/再生设备的实施例的示意性方框图;
图2是记录/再生部的记录/再生处理的示意性概念图;
图3是输出切换控制处理顺序的流程图;
图4示出了能够在输出切换控制处理中在第三显示部上显示的示意性概念图像;
图5A和5B示出了能够在输出切换控制处理中在显示切换操作之前和之后显示的示意性概念图像;
图6是擦除(wiping)控制处理顺序的流程图;
图7示出了能够在擦除控制处理中在第三显示部上显示的示意性既念图像;
图8A和8B示出了能够在擦除控制处理中通过光标移动显示的示意性概念图像;
图9是立体图像视觉效果确认控制处理的流程图;
图10示出了能够在立体图像视觉效果确认控制处理中作为左眼图像显示的示意性概念图像;
图11示出了能够在立体图像视觉效果确认控制处理中作为正常图像显示的示意性概念图像;
图12示出了能够在立体图像视觉效果确认控制处理中作为右眼图像显示的示意性概念图像;
图13示出了说明在立体图像视觉效果确认控制处理中的双眼视差的示意性概念图像;
图14示出了说明在立体图像视觉效果确认控制处理中的双眼视差的另一示意性概念图像;
图15示出了能够在立体图像视觉效果确认控制处理中在第三显示部上显示的示意性概念图像;
图16示出了能够在另一实施例的第三显示部中显示的示意性概念图像;以及
图17示出了能够在图16的实施例的第三显示部中显示的示意性既念图像。
具体实施方式
现在,将参照附图更详细地说明本发明的优选实施例。
(1)记录/再生设备的实施例的整体结构
图1是本发明实施例的示意性方框图,该实施例是总体由参考符号1表示的便携式记录/再生设备。该实施例适用于将通过第一图像摄取部2和第二图像摄取部3输入的多个视频信号的视频数据记录到记录介质4(通常为磁带)上,以及从记录介质4再生多个视频信号的视频数据并将其输出。
具体来说,第一图像摄取部2将表示通过将对象的光学图像转换成电信号获得的模拟波的视频信号以一定采样率转换成数字信号,然后,作为转换结果得到的第一视频数据D1发送至记录/再生设备1中的第一输入部5。第二图像摄取部3执行与上述第一图像摄取部2类似的模拟/数字转换处理,并将作为转换处理结果得到的第二视频数据D2发送至记录/再生设备1中的第二输入部6。
第一输入部5将从第一图像摄取部2提供的第一视频数据D1以通常为440Mbps的传输速度发送至记录/再生部7。类似于上述的第一输入部5,第二输入部6也将第二视频数据D2以通常为440Mbps的传输速度发送至记录/再生部7。
同时,记录/再生设备1包括操作部8,该操作部具有记录按钮、再生按钮、停止按钮及用于各种设置操作的菜单按钮、用于从菜单中选择设置操作的拨盘式按键(jog lever)、和多个视频算术运算按钮,使得当在操作部8中操作任意的操作按钮时,操作部将相应的操作数据D3发送至控制部9。
尽管没有在附图中示出,但是控制部9由微型计算机构成,该微型计算机包括整体控制记录/再生设备1的中央处理单元(CPU)、存储各种控制程序的只读存储器(ROM)和作为CPU工作存储器的随机存取存储器(RAM)。例如,当操作操作部8的记录按钮并将相应于记录按钮的操作数据D3提供给控制部9时,后者控制定时同步部10在定时同步部10中生成定时同步数据D4,并将生成的定时同步数据D4发送至第一输入部5和第二输入部6。
结果,在记录/再生设备1中,分别从第一图像摄取部2和第二图像摄取部3提供的第一视频数据D1和第二视频数据D2根据定时同步数据D4同步,并同时发送至记录/再生部7。
如图2所示,记录/再生部7包括第一记录/再生部7A、第二记录/再生部7B、合成/分离部7C、和单一磁头7D。第一记录/再生部7A根据例如运动图像专家组2(MPEG 2)的预定压缩编码标准对第一视频数据D1进行压缩编码,并将得到的第一视频编码数据D5发送至合成/分离部7C。类似于第一记录/再生部7A,第二记录/再生部7B对第二视频数据D2执行压缩编码处理,并将得到的第二视频编码数据D6发送至合成/分离部7C。
合成/分离部7C以场为单位将分别从第一记录/再生部7A和第二记录/再生部7B同时提供的第一视频编码数据D5和第二视频编码数据D6合成,并将得到的合成视频编码数据D7记录到通过磁头7D以通常相当于880Mbps的运行速度以预定方向驱动的记录介质上。
具体来说,例如,合成/分离部7C将合成视频编码数据D7中第一视频编码数据D5的第(N-1)帧((N-1)帧)的奇数场(第一场)和第二视频编码数据D6的第(N-1)帧((N-1)帧)的奇数场(第一场)同时记录到记录介质4上,随后,它将第一视频编码数据D5的第(N-1)帧((N-1)帧)的偶数场(第二场)和第二视频编码数据D6的第(N-1)帧((N-1)帧)的偶数场(第二场)同时记录到记录介质4上。
然后,合成/分离部7C将第一视频编码数据D5的第N帧((N)帧)的奇数场(第一场)和第二视频编码数据D6的第N帧((N)帧)的奇数场(第一场)同时记录在记录介质4上。通过这种方法,合成/分离部7C将提供给它的合成视频编码数据D7依次记录在记录介质4上。
另一方面,如图1所示,当操作操作部8的再生按钮并将相应于再生按钮的操作数据D3提供给操作部9时,后者控制记录/再生部7,使其读取记录在记录介质4上的合成视频编码数据D7。
具体来说,例如,记录/再生部7的合成/分离部7C从记录介质4同时读出第一视频编码数据D5的第(N-1)帧((N-1)帧)的奇数场(第一场)和第二视频编码数据D6的第(N-1)帧((N-1)帧)的奇数场(第一场)。之后,合成/分离部7C以这种方式依次从记录介质4读出剩余的合成视频编码数据D7。
随后,合成/分离部7C将同时从记录介质4读出的第一视频编码数据D5的第(N-1)帧((N-1)帧)的奇数场(第一场)和第二视频编码数据D6的第(N-1)帧((N-1)帧)的奇数场(第一场)彼此分离。按照这种方法,合成/分离部7C依次从剩余的合成视频编码数据D7中分离第一视频编码数据D5和第二视频编码数据D6,从而还原第一视频编码数据D5和第二视频编码数据D6。随后,合成/分离部7C将第一视频编码数据D5和第二视频编码数据D6分别发送至第一记录/再生部7A和第二记录/再生部7B。
第一记录/再生部7A根据与第一视频编码数据D5匹配的解码标准对第一视频编码数据D5进行解码,并通过第一输出部11(图1)将得到的第一视频解码数据D8输出给通常由高分辨率彩色液晶显示器构成的第一显示部13(图1)。与第一记录/再生部7A类似,记录/再生部7B对第二视频编码数据D6执行解码处理,并通过如图1所示的第二输出部12将得到的第二视频解码数据D9输出给与第一显示部13类似的第二显示部14。
结果,在记录/再生设备1中,对应于第一视频解码数据D8的第一图像显示在第一显示部13上,同时,对应于第二视频解码数据D9的第二图像显示在第二显示部14上。
除上述部件之外,记录/再生设备1进一步包括算术运算部15、查找表(Look Up Table)16、显示字符串生成部17、叠加部18、和第三输出部19,这样从记录/再生部7提供的第一视频解码数据D8和第二视频解码数据D9也能够传输至算术运算部15。
此时,当操作了操作部8中多个视频算术运算按钮中的某一视频算术运算按钮、并提供了相应于***作的视频算术运算按钮的操作数据D3时,控制部9控制算术运算部15,使后者对从记录/再生部7提供的第一视频解码数据D8和第二视频解码数据D9执行预定的运算处理,并将得到的运算视频数据D10作为结果发送给查找表16。
另外,控制部9生成表示相应于对视频算术运算按钮执行的操作的算术运算的运算方法表示数据D11,并将运算方法表示数据D11发送给显示字符串生成部17。
查找表16利用相应的表格对运算视频数据D10执行例如色彩转换和图像转换的各种数据转换处理,并将得到的转换运算视频数据D12作为结果发送给叠加部18。
显示字符串生成部17根据运算方法表示数据D11,生成用于表示对应于对视频算术运算按钮执行的操作的字符串的预定显示字符串数据D13,并将显示字符串数据D13发送至叠加部18。
叠加部18执行叠加处理,例如叠加从查找表16提供的转换运算视频数据D12和从显示字符串生成部17提供的显示字符串数据D13,并将得到的叠加运算视频数据D14作为结果通过第三输出部19输出至具有类似于第一显示部13结构的第三显示部20。于是,结果在记录/再生设备1中,根据叠加运算视频数据D14形成的叠加运算图像显示在第三显示部20上。
需要注意,在记录/再生设备1中,第一显示部13、第二显示部14、和第三显示部20能够根据记录环境自由地彼此连接和断开。
然后,控制部9控制定时同步部10,使其生成定时同步数据D4,并将定时同步数据D4发送给第一输出部11、第二输出部12、和第三输出部19。
结果,在记录/再生设备1中,能够同时输出由记录/再生部7提供的第一视频解码数据D8、第二视频解码数据D9和由叠加部18提供的叠加运算视频数据D14,并通过根据定时同步数据D4将第一视频解码数据D8、第二视频解码数据D9及叠加运算视频数据D14同步,将其分别输出给第一显示部13、第二显示部14、和第三显示部20。
因此,在记录/再生设备1中,因为通过叠加作为对第一视频解码数据D8和第二视频解码数据D9执行算术运算的结果得到的转换运算视频数据D12和显示字符串数据D13而生成的叠加运算视频数据D14被输出至第三显示部20,所以不再需要使用显示第一图像的第一显示部13、显示第二图像的第二显示部14等。换句话说,能够通过只将叠加运算视频数据D14作为算术运算结果输出到第三显示部20,使用户从视觉上确认通过叠加表示算术运算结果的转换运算视频数据D12和表示运算方法的显示字符串数据D13而形成的叠加运算图像。
(2)记录/再生设备1的各种控制处理顺序
现在,将在下面说明记录/再生设备1执行的各种控制处理的顺序。
(2-1)输出切换控制处理顺序
下面,将通过参照图3的流程图,描述在记录/再生设备1中以切换方式在第三显示部20上按顺序显示对应于叠加运算视频数据D14的叠加运算图像、对应于第一视频解码数据D8的第一叠加图像、和对应于第二视频解码数据D9的第二叠加图像的输出切换控制处理顺序。
当操作了操作部8的视频算术运算按钮中的输出切换按钮、并提供相应于输出切换按钮的操作数据D3时,记录/再生设备1的控制部9将其操作模式转换成输出切换模式,并根据预先存储在控制部9的ROM(没有示出)中的输出切换控制程序执行输出切换控制处理。输出切换控制处理的顺序从程序起始步骤RT1开始,其后进行下一步骤或步骤SP1。
在步骤SP1中,记录/再生设备1的控制部9利用算术运算部15执行运算操作算术运算,使下面所示的公式1有效:
f(A,B)=A或B                 (1)
其中,A代表第一视频解码数据D8,B代表第二视频解码数据D9,同时f(A,B)为具有A和B两个变量的函数,并且“A或B”表示输出A或B。
换句话说,控制部9产生输入其中的第一视频解码数据D8和第二视频解码数据D9中的任意一个作为运算视频数据D10,并进入下一步,或步骤SP2。需要注意,控制部9被初始化为产生第一视频编码数据D8作为运算视频数据D10。
在步骤SP2中,记录/再生设备1的控制部9在查找表16中转换运算视频数据D10,从而使下面所示的公式2有效:
f′(A,B)=f(A,B)             (2)
在本例中,控制部9只将运算视频数据D10用作转换运算视频数据D12,并运行至下一步,或步骤SP3。
在步骤SP3中,记录/再生设备1的控制部9通过显示字符串生成部17,根据响应于输出切换按钮的操作而生成的运算方法表示数据D11,生成针对字符串“输出切换”的显示字符串数据D13和针对字符串“第一图像”或“第二图像”的显示字符串数据D13,然后运行至下一步,或步骤SP4。
在步骤SP4中,记录/再生设备1的控制部9利用叠加部18叠加转换运算视频数据D12和显示字符串数据D13。具体来说,控制部9通过将“第一图像”和“输出切换”的显示字符串数据D13叠加到对应于转换运算视频数据D12中的第一视频解码数据D8的数据上,或将“第二图像”和“输出转换”的显示字符串数据D13叠加到对应于转换运算视频数据D12中的第二视频解码数据D9的数据上,生成叠加运算视频数据D14,随后运行至下一步骤,或步骤SP5。
在步骤SP5中,记录/再生设备1的控制部9通过第三输出部19将叠加运算视频数据D14输出给第三显示部20,并如图4所示,使第三显示部20显示对应于叠加运算视频数据D14的叠加运算图像M1。
具体来说,控制部9被初始化为使第三显示部20显示根据第一视频解码数据D8的叠加图像M1A。此时,如图4所示,控制部9将位于第一叠加图像M1A左下部分的第一视频显示字符串C1(对应于显示字符串数据D13的字符串“第一图像”)与位于第一叠加图像M1A左上部分的输出切换显示字符串C2(对应于显示字符串数据D13的字符串“输出切换”)叠加。通过这种方式,控制部9使第三显示部20显示第一叠加图像M1A,并运行至下一步骤,或步骤SP6。
需要注意,参照图4,如果对像素的亮度值使用从“0”至“255”的256色调,则白色部分P1的亮度值为“255”,第一阴影部分P2的亮度值为“223”,而第二阴影部分P3的亮度值为“0”。
在步骤SP6中,记录/再生设备1的控制部9确定之后是否操作了输出切换按钮,以及是否提供了相应于输出切换按钮的操作数据D3。当确定未操作输出切换按钮时,控制部9前进至步骤SP8,反之,当确定操作了输出切换按钮时,控制部前进至下一步骤,或步骤SP7。
参照图5A和5B,当确定操作了操作部8的输出切换按钮时,在步骤SP7中,记录/再生设备1的控制部9将显示在第三显示部20上的图像从如图5A所示的第一叠加图像M1A转换至如图5B所示的对应于第二视频解码数据D9的第二叠加图像M1B,或从第二叠加图像M1B转换至第一叠加图像M1A,随后运行至下一步骤,或步骤SP8。
此时,如图5B,控制部9将位于第二叠加图像M1B右下部分的第二视频显示字符串C3(对应于显示字符串数据D13的字符串“第二图像”)和位于第二叠加图像M1B左上部分的输出切换显示字符串C2叠加。
因此,由于用这样的方法将第一视频显示字符串C1叠加在第一叠加图像M1A上,并将第二视频显示字符串C3叠加在第二叠加图像M1B上,因而记录/再生设备1能够使用户从视觉上确认两个叠加图像,不会导致将第一叠加图像M1A误认为是第二叠加图像M1B或相反的错误。另外,因为输出切换显示字符串C2叠加在第一叠加图像M1A和第二叠加图像M1B上,所以记录/再生设备1能够使用户在视觉上确认两个图像,不会导致将输出切换模式误认为其他模式的错误。
在步骤SP8中,记录/再生设备1的控制部9确认是否操作了操作部8的停止按钮,并且是否提供了相应于停止按钮的操作数据D3。当确认没有操作停止按钮时,控制部9返回步骤SP1,反之控制部9运行至下一步骤,或步骤SP9,结束处理。
(2-2)擦除控制处理顺序
现在,参照图6的流程图,在下面说明在第三显示部20的左边区域中显示第一叠加图像的左半部和在第三显示部20的右边区域显示第二叠加图像右半部的擦除(wiping)控制处理顺序。在记录/再生设备1中,第三显示部20的左边区域和右边区域通过在第三显示部20上预定位置进行划分来限定。
当操作了操作部8的视频算术运算按钮中的擦除按钮、并提供相应于擦除按钮的操作数据D3时,记录/再生设备1的控制部9将其操作模式转换成擦除模式,并根据预先存储在控制部9的ROM(没有示出)中的擦除控制程序执行擦除控制处理。擦除处理的顺序程序起始步骤RT2开始,之后进行下一步骤或步骤SP11。
在步骤SP11中,记录/再生设备1的控制部9利用算术运算部15执行合成算术运算,使下面所示的公式3有效:
f(A,B)=g(A,m-x)+g(B,x-m)           (3)
其中,A表示第一视频解码数据D8,B表示第二视频解码数据D9,同时M表示第三显示部20的显示屏的水平长度,m表示分割第一视频解码数据D8和第二视频解码数据D9的分隔区(partition)的水平位置,x表示水平位置坐标(0≤x≤M)
在上面的公式中,g(A,m-x)表示(m-x)大于“0”时的显示屏区域用于A,而(m-x)小于等于“0”时的显示屏区域不用于A。类似地,g(B,x-m)表示(m-x)大于“0”时的显示屏区域用于B,而(m-x)小于等于“0”时的显示屏区域不用于B。换句话说,位于分隔区位置m左边的显示屏区域专用于第一视频解码数据D8,位于分隔区位置m右边的显示屏区域专用于第二视频解码数据D9。
因此,控制部9通过使用预定的分隔区位置对第一视频解码数据D8和第二视频解码数据D9执行合成算术运算,生成运算视频数据D10,然后运行至下一步骤,或步骤SP12。
在步骤SP12中,记录/再生设备1的控制部9在查找表16中转换运算视频数据D10,从而使下面所示的公式4有效:
f(A,B)=f(A,B)                 (4)
在本例中,控制部9只使用运算视频数据D10作为转换运算视频数据D12,并运行至下一步,或步骤SP13。
在步骤SP13中,记录/再生设备1的控制部9根据对应于擦除按钮的操作生成的运算方法表示数据D11,生成针对字符串“第一图像”、“第二图像”、和“擦除”的显示字符串数据D13,还生成用于表示分割第一视频解码数据D8和第二视频解码数据D9的分隔区位置的光标数据D15(图1)。随后,控制部运行至下一步骤,或步骤SP14。
在步骤SP14中,记录/再生设备1的控制部9利用叠加部18将转换运算视频数据D12、显示字符串数据D13、和光标数据D15叠加。具体来说,控制部9通过将字符串“第一图像”与“擦除”的显示字符串数据D13叠加在相应于转换运算视频数据D12中的第一视频解码数据D8的数据上、将“第二图像”的显示字符串数据D13叠加在相应于第二视频解码数据D9的数据上、并将光标数据D15叠加在分割相应于第一视频解码数据D8的数据与相应于第二视频解码数据D9的数据的分隔区位置上来产生叠加运算视频数据D14,然后运行至下一步骤,或步骤SP15。
在步骤SP15中,如图7所示,记录/再生设备1的控制部9利用第三输出部19将叠加运算视频数据D14输出给第三显示部20,并使第三显示部20显示图7所示的、对应于叠加运算视频数据D14的叠加运算图像M1。随后,控制部运行至下一步骤,或步骤SP16。
具体来说,将控制部9初始化,使第三显示部20根据光标数据D15,使用光标C4作为在第三显示部20的屏幕区域中的分隔区,同时显示第一叠加图像M1A的左半部分和第二叠加图像M1B的右半部分。
此时,如图7所示,控制部9将第一视频显示字符串C1叠加在第一叠加图像M1A的下部,将擦除显示字符串C5(对应于显示字符串D13的字符串“擦除”)叠加在第一叠加图像M1A的上部、以及将第二视频显示字符串C3叠加在第二叠加图像M1B的下部。
在步骤SP16中,记录/再生设备1的控制部9确定在擦除控制处理期间内是否向左或向右操作了操作部8的拨盘式按键,和是否提供了相应于拨盘式按键的操作数据D3。当确定没有操作拨盘式按键时,控制部9前进至步骤SP18,相反,当确定操作了拨盘式按键时,控制部前进至下一步骤,或步骤SP17。
在步骤SP17中,当确定向左操作拨盘式按键时,如图8A所示,记录/再生设备1的控制部9在第三显示部20上移动光标C4的位置,从而减小左边部分的第一叠加图像M1A的尺寸,扩大右边部分的第二叠加图像M1B的尺寸。另一方面,当确定向右操作拨盘式按键时,如图8B所示,记录/再生设备1在第三显示部20上移动光标C4的位置,从而扩大左边部分的第一叠加图像M1A的尺寸,减小右边部分的第二叠加图像M1B的尺寸。随后,运行至下一步,或步骤SP18。
此时,因为光标C4叠加在第一叠加图像M1A和第二叠加图像M1B之间,所以记录/再生设备1能够使用户在视觉上识别分割第一叠加图像M1A和第二叠加图像M1B的分隔区的位置,也能直观地识别出光标C4的左边部分为第一叠加图像M1A,光标C4的右边部分为第二叠加图像M1B。
在步骤SP18中,记录/再生设备1的控制部9确定是否操作了操作部8的停止按钮和是否提供了相应于停止按钮的操作数据D3。当确认没有操作停止按钮时,控制部9返回步骤SP11,相反,运行至下一步骤,或步骤SP19,结束处理。
对于传统的记录/再生设备,必须提供包括用于显示第一图像的第一显示部13和用于显示第二图像的第二显示部14的多个显示部,当用户希望比较多个图像时,用户需要进行复杂而繁琐的调节操作,例如调节多个显示部的色调来使其一致。
与此相反,对于本实施例的记录/再生设备1,通过使用光标C4作为分隔区,可以同时显示第一叠加图像M1A的左半部和第二叠加图像M1B的右半部,使得用户仅通过观看单个第三显示部20就能够从视觉上确认第一叠加图像M1A的左半部和第二叠加图像M1B的右半部,因而能够即时对比第一叠加图像M1A和第二叠加图像M1B的色调差异。
另外,对于本实施例的记录/再生设备1,通过移动分割第一叠加图像M1A和第二叠加图像M1B的光标C4,能够改变第一叠加图像M1A和第二叠加图像M1B的显示屏区域,使得用户能够很容易在视觉上确认移动光标C4前显示的图像部分和移动光标C4后显示的图像部分之间的色调差异。
(2-3)立体图像视觉效果确认处理控制顺序
对于上面说明,假定以对应于分割人的左眼和右眼的距离、并被适当地确定为被拍摄对象和图像摄取部之间距离的函数的距离,将第一图像摄取部2和第二图像摄取部3彼此分开,并假定第一图像摄取部2和第二图像摄取部3彼此平行排列,使得将通过第一图像摄取部2获取的第一视频数据D1作为左眼视频数据D1使用,同时将通过第二图像摄取部3获取的第二视频数据D2作为右眼视频数据D2使用。
根据上述假设,将在下面参照图9的流程图描述通过使用记录/再生设备1的左眼视频数据D1和右眼视频数据D2确认立体图像视觉效果的立体图像视觉效果确认处理控制顺序。
当操作视频算术运算按钮中的立体图像视觉效果确认按钮、并提供相应于立体图像视觉效果确认按钮的操作数据D3时,记录/再生设备1的控制部9将其操作模式转换至立体图像视觉效果确认模式,并根据预先存储在控制部9的ROM(没有示出)中的立体图像视觉效果确认控制程序执行立体图像视觉效果确认控制处理。立体图像视觉效果确认控制处理的顺序从程序起始步骤RT3开始,之后进行下一步骤或步骤SP21。
在步骤SP21中,记录/再生设备1的控制部9利用算术运算部15执行合成算术运算,使下面所示的公式5有效:
f(A,B)=ABS(A-B)                   (5)
其中,A代表基于左眼视频数据D1的左眼视频解码数据D8,B代表右眼视频解码数据D9。
这指的是,合成叠加输入其中的左眼视频解码数据D8和右眼视频解码数据D9,并计算确定每个预定像素的两个数据差值的绝对值。换句话说,控制部9对左眼视频解码数据D8和右眼视频解码数据D9执行合成算术运算,生成合成视频数据D10。随后,控制部9运行至下一步骤,或步骤SP22。
此时,如果对比图11所示的正常图像M3,如图10所示的、被成像为根据左眼视频解码数据D8形成的左眼图像M2的对象向右倾斜,反之,如果对比如图11所示的正常图像M3,如图12所示的、根据右眼视频解码数据D9形成的右眼图像M4向左倾斜。
因此,通过合成叠加作为左眼图像M2观察的对象和作为右眼图像M4观察的对象,并且计算执行合成运算以确定左眼视频解码数据D8和右眼视频解码数据D9之间差值的绝对值,来实际形成根据合成视频数据D10形成的合成图像M5。需要注意,图12的第三阴影部分P4中每个像素的亮度值为“32”。
在步骤SP22中,记录/再生设备1的控制部9在查找表16中转换合成视频数据D10,使下面所示的公式6有效:
f′(A,B)=g(∫(A,B))               (6)
需要注意,表g为用于突出在提供的图像中超过预定阈值的所有亮度值的查找表。例如,如果表g的阈值为“200”,则控制部9通过将亮度值超过“200”的每个像素的数据转换成亮度值为“255”的数据、并将亮度值低于“200”的每个像素的数据转换成亮度值为“0”的数据,来生成合成视频数据D12。随后,控制部9前进至下一步骤,或步骤SP23。
在图14中所示并根据转换合成视频数据D12形成的转换图像M6为将亮度值超过“200”的每个像素的数据转换成亮度值为“255”的数据和将亮度值低于“200”的每个像素的数据转换成亮度值为“0”的数据的视差图像。
在步骤SP23中,记录/再生设备1的控制部9根据相应于立体图像视觉效果确认按钮的操作生成的运算方法表示数据D11,生成字符串“立体图像视觉效果确认”的显示字符串数据D13,随后运行至下一步骤,或步骤SP24。
在步骤SP24中,记录/再生设备1的控制部9叠加转换合成视频数据D12和显示字符串数据D13。换句话说,控制部9通过将“立体图像视觉效果确认”的显示字符串数据D13叠加在转换合成视频数据D12上来生成立体图像确认视频数据D14,随后运行至下一步骤,或步骤SP25。
在步骤SP25中,记录/再生设备1的控制部9将立体图像确认视频数据D14发送给第三显示部20,使第三显示部20显示如图15所示的对应于立体图像确认视频数据D14的立体视觉确认图像M7,然后运行至下一步骤,或步骤SP26。
如图15所示,控制部9将对应于显示字符串数据D13的立体图像视觉效果确认显示字符串C6“立体图像视觉效果确认”叠加在立体视觉确认图像M7的左上部分。
在步骤SP26中,记录/再生设备1的控制部9确认是否操作了操作部8的停止按钮和是否提供了相应于停止按钮的操作数据D3。当确认没有操作停止按钮时,控制部9返回步骤SP21,反之,控制部运行至下一步骤,或步骤SP27,结束处理。
实际上,当生成预定部分好像跳出一样出现的立体图像时,传统的记录/再生设备需要对左眼视频数据D1和右眼视频数据D2执行特别效果处理,用户需要使用包括一副偏光镜的专用特殊效果处理设备。具体而言,传统的记录/再生设备伴随着一个问题,即,当户外记录立体图像时,用户无法从视觉上确定立体图像的视觉效果,尤其是立体图像中好像跳出一样出现的部分(下文中称作“立体图像部分”)。
相反,对于本实施例的记录/再生设备1,通过合成叠加对应于左眼视频数据D1的左眼图像M2和对应于右眼视频数据D2的右眼图像,用户能够在记录操作期间内容易地从视觉上现场确认立体图像的立体图像部分。传统上,在户外记录立体图像之后,只能通过使用专用的特殊效果处理设备从视觉上确认立体图像的立体图像部分。
该立体图像具有这样的性质,即,当对应于左眼视频数据D1的左眼图像M2中的图像部分的每个像素值和对应于右眼视频数据D2的右眼图像M4中的图像部分的相应像素值之间的差值的绝对值很大时,立体图像部分会非常明显地好像跳出一样出现。
因此,通过将合成对应于左眼视频数据D1的左眼图像M2和对应于右眼视频数据的右眼图像M4而生成的立体图像确认视频数据D14输出给第三显示部20、计算确认左眼视频数据D1和右眼视频数据D2之间立体图像部分的每个像素的差值绝对值、突出显示各个像素的差值绝对值大于预定阈值的部分、并叠加作为合成结果得到的转换合成视频数据D12和显示字符串数据D13,记录/再生设备1能够使用户简单地从视觉上直观确认立体图像部分。
此时,记录/再生设备1能够使用户通过在记录操作或再生操作过程中从视觉上确认任何适当的立体图像部分,来操作记录或再生设备。另外,如果第一图像摄取部2和第二图像摄取部3的每一个的配置和位置发生改变,用户能够从视觉上现场确认用于记录或再生的立体视觉确认图像M7的视觉效果,这使用户能够在他或她拍摄对象的同时调节立体图像部分的视觉效果。
(3)操作和优势
通过上述的配置,记录/再生设备1将通过叠加作为对第一视频解码数据D8与第二视频解码数据D9执行算术运算的结果得到的转换运算视频数据D12和显示字符串数据D13而生成的叠加运算视频数据D14输出给第三显示部20。
因此,对于记录/再生设备1,不需要提供包括用于显示第一图像的第一显示部13和用于显示第二图像的第二显示部14的多个显示部,用户能够通过只将叠加运算视频数据D14作为算术运算结果输出,从视觉上确认通过叠加转换运算视频数据D12和表示运算方法的显示字符串数据D13得到的叠加运算图像。
另外,记录/再生设备1能够使用光标C4作为分隔区,通过显示第一叠加图像M1A的左半部分和第二叠加图像M1B的右半部分,使用户在单个第三显示部20上视觉上确认第一叠加图像M1A的左半部分和第二叠加图像M1B的右半部分,使得用户能够即时比较第一叠加图像M1A和第二叠加图像M1B的色调差。
再另外,记录/再生设备1通过将合成对应于左眼视频数据D1的左眼图像M2和对应于左眼视频数据D2的右眼图像M4而生成的立体图像确认视频数据D14输出给第三显示部20、计算确认左眼视频数据D1和右眼视频数据D2之间立体图像部分的每个像素的差值绝对值、突出显示每个像素的差值绝对值大于预定阈值的部分、并叠加作为合成结果得到的转换合成视频数据D12和显示字符串数据D13,能够使用户非常简单地从视觉上确认立体图像部分。通常,只有在户外记录立体图像之后、通过使用专用的特别效果处理设备才能视觉上确认立体图像的立体图像部分。
因此,通过上述配置,因为记录/再生设备1将通过叠加作为对第一视频解码数据D8和第二视频解码数据D9执行的算术运算的结果获得的转换运算视频数据D12和显示字符串数据D13而生成的叠加运算视频数据D14输出给第三显示部20,所以不再需要提供包括用于显示第一图像的第一显示部13和用于显示第二图像的第二显示部14的多个显示部。因此,能够使用户通过只将作为算术运算结果得到的叠加运算视频数据D14输出给第三显示部20,从视觉上确认通过叠加作为算术运算结果得到的转换合成视频数据D12和显示字符串数据D13而得到的叠加运算图像。换句话说,用户能够很容易地在视觉上确认多个图像的视觉效果。
(4)其他实施例
虽然上面说明中描述了包括第一视频数据D1和第二视频数据D2的两个视频数据分别通过第一输入部5和第二输入部6输入的实施例,但是本实施例决不是只限于两路输入,本实施例可进行改造,以接收三个视频数据或通常多个视频数据作为输入。
在实施例的上面说明中,当像素的亮度值等于或高于“200”时,转换相应视频数据,从而使像素显示“255”的亮度值,另一方面,当像素的亮度值低于“200”时,转换相应视频数据,从而使像素显示“0”的亮度值。但是,本发明不是仅限于此。例如,也可进行替换配置,当像素的亮度值等于或高于“128”时,转换相应视频数据,从而使像素显示“255”的亮度值,另一方面,当像素的亮度值低于“200”时,转换相应视频数据,从而使像素显示“0”的亮度值。本发明的实质在于突出亮度值高于预定阈值的每个像素。
按照已经指出的,在实施例的上面说明中,当像素的亮度值等于或高于“200”时,转换相应视频数据,从而使像素显示“255”的亮度值,另一方面,当像素的亮度值低于“200”时,转换相应视频数据,从而使像素显示“0”的亮度值。但是,本发明不是仅限于此。例如,可以转换相应于亮度值等于或高于“200”的像素的数据,从而使像素显现红色。本发明的实质在于突出亮度值等于或高于预定阈值的每个像素。
在实施例的上面描述中,虽然将第一视频编码数据D5的第(N-1)帧((N-1)帧)的奇数场(第一场)和第二视频编码数据D6的第(N-1)帧((N-1)帧)的奇数场(第一场)同时记录在记录介质4上和将它们从记录介质4同时读出,但是本发明并不仅限于此。例如,可进行替换配置,使得可以同时记录和读取三个视频数据或多个视频数据的帧。
在上面描述中,虽然记录/再生设备1的实施例为便携式记录/再生设备1,但是本发明并不仅限于此,它可以替换为固定式记录/再生设备。
虽然通过上述实施例用户可即时对比第一叠加图像M1A和第二叠加图像M1B的色调差,但是本发明并不仅限于此,可以替换地使用户对比第一叠加图像M1A和第二叠加图像M1B的对比度或其他一些参数的差。本发明的实质在于,根据本发明实施例的记录/再生设备使用户能够在单个显示部上对比第一图像和第二图像。
虽然记录/再生设备1的上述实施例包括记录/再生部7、控制部9、算术运算部15、显示字符串生成部17、和叠加部18,但是本发明并不仅限于此,可选的是,可以以协同的方式结合包括记录/再生设备、控制设备、算术运算设备、显示字符串生成设备、和叠加设备的独立设备,构成用于本发明目的的记录/再生***,除记录/再生设备以外的设备可以为通过有线、无线、或使用其他连接方式连接的外部设备。
虽然上述实施例包括除记录按钮、再生按钮、和停止按钮之外,还具有菜单按钮、用于从菜单选择特征的拨盘式按键、和多个视频运算按钮的操作部8,但是本发明并不仅限于此,操作部8可以进一步包括用于再生正在记录的数据的记录/再生按钮。通过这种配置,用户能够在他或她记录立体图像部分的同时,在视觉上确认立体图像部分。
虽然在上述实施例中假设A代表第一视频解码数据D8和B代表第二视频解码数据D9,使用公式(1)进行计算,但是本发明并不仅限于此,下面的公式(7)也可用于计算。
∫(A,B)=A和B                     (7)
可选择地,可以将三个视频解码数据或多个视频解码数据用于计算。为了本发明的目的,f(A,B)代表具有A和B两个变量的函数,意味着总是同时显示A图像和所有的B图像。通过这个配置,能够如图16所示,在第三显示部20上同时显示第一叠加图像M1A和第二叠加图像M1B,而不用从第一叠加图像M1A转换至第二叠加图像M1B,反之亦然。
虽然在上述实施例中假设A代表第一视频解码数据D8和B代表第二视频解码数据D9,同时M代表第三显示部20的显示屏的水平长度、m代表分割第一视频解码数据D8和第二视频解码数据D9的分隔区的水平位置、x代表水平位置坐标,使用上述公式(3)进行计算,但是本发明并不仅限于此,下面的公式(8)也可用于计算:
∫(A,B)=g(A,h-y)+g(B,y-h)             (8)
其中,H代表第三显示部20的显示屏的垂直长度,h代表分割第一视频解码数据D8和第二视频解码数据D9的分隔区的垂直位置,y代表垂直位置坐标。可选择地,可以使用三个视频数据或总共多个视频数据进行计算。当将上面的公式(8)用于计算时,同时显示第一叠加图像M1A的上半部分和第二叠加图像M1B的下半部分,来替代同时显示第一叠加图像M1A的左半部分和第二叠加图像M1B的右半部分。
在实施例的上述说明中虽然利用磁头7D在记录介质4(磁带)上记录数据,但是本发明并不仅限于此,可以将本发明用于包括光盘、磁光盘、半导体存储器、和磁盘等各种其他记录介质。
在上述实施例中虽然利用用于各个处理的硬件执行各种处理,但是本发明并不仅限于此,可选择地,可以利用软件执行各种处理。当利用用于各个处理的软件执行各种处理时,通过将各种程序安装在专用硬件结合了软件程序的计算机中,能够实现多种特性。例如,可以将程序从记录介质安装到通用个人计算机中,记录介质可以为光盘、磁光盘、半导体存储器、磁盘、或其他一些记录介质。也可以通过利用例如互联网的网络进行下载将程序安装在通用个人计算机中。
虽然通过用作记录/再生装置的记录/再生部7、用作算术运算装置的算术运算部15和查找表16、显示字符串生成部17和用作叠加装置的叠加部18,构成了根据本发明实施例的记录/再生设备或立体图像视觉效果确认设备的上述实施例,但是本发明并不仅限于此。根据本发明实施例的记录/再生设备或立体图像视觉效果确认设备也可以由具有与上述部件不同的结构的记录/再生装置、算术运算装置、和叠加装置构成。
本发明可应用于利用单个磁头将数据记录到磁带或其他一些记录介质上的记录/再生设备。
本领域的技术人员应该理解,根据设计要求和其他因素,在本发明的权利要求或其等价物范围之内,本发明可以有各种修正、结合、再结合和变更。

Claims (15)

1.一种记录/再生设备,包括:
记录/再生装置,用于记录多组输入的视频数据,并将其从记录介质读出进行再生;
算术运算装置,用于通过对应于外部指令的方法,对通过所述记录/再生装置再生的所述多组视频数据执行算术运算;以及
叠加装置,用于生成表示所述算术运算装置的算术运算方法的字符串数据,将通过所述算术运算装置的算术运算产生的运算视频数据和所述字符串数据叠加,并输出通过所述叠加产生的叠加视频数据,作为算术运算的结果。
2.根据权利要求1所述的设备,其中
所述算术运算装置使用一组视频数据作为所述运算视频数据,同时根据所述外部指令,从所述组视频数据切换至另一组视频数据,从而使用所述另一组视频数据作为所述运算视频数据。
3.根据权利要求1所述的设备,其中
所述算术运算装置使用所述运算视频数据中的预定位置作为用于分割所述组视频数据和所述另一组视频数据的分隔区的位置进行运算,以进行图像合成,并且
所述叠加装置生成用于表示用于分割所述组视频数据和所述另一组视频数据的分隔区的位置的光标数据,并将所述光标数据叠加到所述叠加视频数据的分隔区的所述位置上。
4.根据权利要求3所述的设备,其中
所述算术运算装置根据所述外部指令移动用于分割所述组视频数据和所述另一组视频数据的分隔区的所述位置,并且
所述叠加装置将所述光标数据叠加在所述分隔区的移动后位置上。
5.一种记录/再生设备,包括:
记录/再生部,用于记录多组输入的视频数据,并将其从记录介质上读出进行再生;
算术运算部,用于通过对应于外部指令的方法,对通过所述记录/再生部再生的所述多组视频数据执行算术运算;以及
叠加部,用于生成表示所述算术运算部的算术运算方法的字符串数据,将通过所述算术运算部的算术运算产生的运算视频数据和所述字符串数据叠加,并输出通过所述叠加产生的叠加视频数据,作为算术运算的结果。
6.一种记录/再生方法,包括:
记录/再生步骤,记录多组输入的视频数据,并将其从记录介质上读出进行再生;
算术运算步骤,通过对应于外部指令的方法,对在所述记录/再生步骤中再生的所述多组视频数据执行算术运算;以及
叠加步骤,生成表示所述算术运算步骤的算术运算方法的字符串数据,将通过所述算术运算步骤中的算术运算产生的运算视频数据和所述字符串数据叠加,并输出通过所述叠加产生的叠加视频数据,作为算术运算的结果。
7.根据权利要求6所述的方法,其中
所述算术运算步骤适于使用一组视频数据作为所述运算视频数据,同时根据外部指令从所述组视频数据转换至另一组视频数据,从而使用所述另一组视频数据作为所述运算视频数据。
8.根据权利要求6所述的方法,其中
所述算术运算步骤适于使用所述运算视频数据中的预定位置作为用于分割所述组视频数据和所述另一组视频数据的分隔区的位置进行运算,以进行图像合成,并且
所述叠加步骤适于生成用于表示用于分割所述组视频数据和所述另一组视频数据的分隔区的所述位置的光标数据,并将所述光标数据叠加到所述叠加视频数据的分隔区的所述位置上。
9.根据权利要求8所述的方法,其中
所述算术运算步骤适于根据所述外部指令移动用于分割所述组视频数据和所述另一组视频数据的分隔区的所述位置,并且
所述叠加步骤适于将所述光标数据叠加在所述分隔区的移动后位置上。
10.一种立体图像视觉效果确认设备,包括:
记录/再生装置,用于将输入的右眼视频数据和输入的左眼视频数据记录在记录介质上,并将其从所述记录介质读出;
合成装置,用于合成通过所述记录/再生装置再生的所述右眼视频数据和所述左眼视频数据,并将其合成进行叠加;以及
叠加装置,用于生成表示所述合成装置的合成方法的字符串数据,将通过所述合成装置合成产生的合成视频数据和所述字符串数据叠加,并输出通过所述叠加产生的叠加视频数据,作为合成结果。
11.根据权利要求10所述的设备,其中
所述合成装置合成所述右眼视频数据和所述左眼视频数据,从而将其逐个叠加,并计算每个像素的所述右眼视频数据和所述左眼视频数据之间的差值绝对值,以突出每个像素的所述差值绝对值等于或大于预定阈值的部分。
12.一种立体图像视觉效果确认方法,包括:
记录/再生步骤,将输入的右眼视频数据和输入的左眼视频数据记录在记录介质上,并将其从所述记录介质读出;
合成步骤,合成在所述记录/再生步骤中再生的所述右眼视频数据和所述左眼视频数据,并将其合成叠加;以及
叠加步骤,生成表示所述合成步骤的合成方法的字符串数据,将在所述合成步骤中合成产生的合成视频数据和所述字符串数据叠加,并输出通过所述叠加产生的叠加视频数据,作为合成结果。
13.根据权利要求12所述的方法,其中
所述合成步骤适于合成所述右眼视频数据和所述左眼视频数据,从而将其逐个叠加,并计算每个像素的所述右眼视频数据和所述左眼视频数据之间的差值绝对值,以突出每个像素的所述差值绝对值大于预定阈值的部分。
14.一种记录/再生设备,包括:
记录/再生部,记录多组输入的视频数据,并将其从记录介质上读出进行再生;
算术运算部,通过对应于外部指令的方法,对通过所述记录/再生部再生的所述多组视频数据执行算术运算;以及
叠加部,生成表示所述算术运算部的算术运算方法的字符串数据,将通过所述算术运算部的算术运算产生的运算视频数据和所述字符串数据叠加,并输出通过所述叠加产生的叠加视频数据,作为算术运算的结果。
15.一种立体图像视觉效果确认设备,包括:
记录/再生部,将输入的右眼视频数据和输入的左眼视频数据记录在记录介质上,并将其从所述记录介质读出;
合成部,合成通过所述记录/再生部再生的所述右眼视频数据和所述左眼视频数据,并将其合成进行叠加;以及
叠加部,生成表示所述合成部的合成方法的字符串数据,将通过所述合成部合成产生的合成视频数据和所述字符串数据叠加,并输出通过所述叠加产生的叠加视频数据,作为合成结果。
CN2006100650147A 2005-03-16 2006-03-15 记录/再生设备和方法 Expired - Fee Related CN1835574B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005075481A JP4126663B2 (ja) 2005-03-16 2005-03-16 立体映像視覚効果確認装置及び立体映像視覚効果確認方法
JP2005-075481 2005-03-16
JP2005075481 2005-03-16

Publications (2)

Publication Number Publication Date
CN1835574A true CN1835574A (zh) 2006-09-20
CN1835574B CN1835574B (zh) 2010-06-23

Family

ID=36593018

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006100650147A Expired - Fee Related CN1835574B (zh) 2005-03-16 2006-03-15 记录/再生设备和方法

Country Status (5)

Country Link
US (1) US7659934B2 (zh)
EP (1) EP1703744B1 (zh)
JP (1) JP4126663B2 (zh)
KR (1) KR101226874B1 (zh)
CN (1) CN1835574B (zh)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8237776B2 (en) * 2007-10-19 2012-08-07 Warner Bros. Entertainment Inc. Method and apparatus for generating stereoscopic images from a DVD disc
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
WO2010014973A1 (en) * 2008-08-01 2010-02-04 Real D Method and apparatus to mark and identify stereoscopic video frames
CN102197654A (zh) * 2008-10-31 2011-09-21 松下电器产业株式会社 信号处理装置
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
WO2010140866A2 (ko) * 2009-06-05 2010-12-09 엘지전자 주식회사 영상표시장치 및 그 동작방법
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
JP5716492B2 (ja) * 2011-03-30 2015-05-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
CA2838992C (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
CN109618084B (zh) 2011-06-10 2021-03-05 菲力尔***公司 红外成像***和方法
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
WO2012170954A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9065882B2 (en) 2013-03-05 2015-06-23 Comcast Cable Communications, Llc Processing signaling changes
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
CN105578116A (zh) * 2015-12-30 2016-05-11 邦彦技术股份有限公司 一种基于dsp的多通道视频流控制***和方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1095876A (zh) * 1993-05-25 1994-11-30 王淑云 特技字幕广告的制作方法
US5986706A (en) * 1993-07-22 1999-11-16 Canon Kabushiki Kaisha Electronic apparatus
DE69421873T2 (de) * 1993-09-20 2000-06-15 Canon K.K., Tokio/Tokyo Bildaufnahme- und anzeigesystem
JP3586892B2 (ja) 1994-06-21 2004-11-10 ソニー株式会社 多チャンネル映像再生装置およびその制御方法
JPH10510187A (ja) * 1994-12-09 1998-10-06 ジョスリン ダイアビーティーズ センター インコーポレイテッド 網膜検査及び治療のための電子造影装置
JP3931392B2 (ja) 1997-08-25 2007-06-13 ソニー株式会社 立体画像用ビデオ信号生成装置、立体画像用ビデオ信号送出装置および立体画像用ビデオ信号受信装置
CN1234571A (zh) * 1999-01-25 1999-11-10 天津三维显示技术有限公司 一种计算机立体成像技术
JP2000350086A (ja) * 1999-06-03 2000-12-15 Fuji Photo Film Co Ltd 画像処理装置、画像出力装置、及び、カメラ
US7098914B1 (en) * 1999-07-30 2006-08-29 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
US7221395B2 (en) * 2000-03-14 2007-05-22 Fuji Photo Film Co., Ltd. Digital camera and method for compositing images
JP2002223402A (ja) 2001-01-29 2002-08-09 Fuji Photo Film Co Ltd 電子機器、プログラム更新方法、セットアップファイル作成装置及びその方法
JP4617594B2 (ja) 2001-04-02 2011-01-26 ソニー株式会社 画像切り換え装置
JP4093833B2 (ja) * 2002-09-25 2008-06-04 シャープ株式会社 電子機器
EP1617684A4 (en) * 2003-04-17 2009-06-03 Sharp Kk THREE-DIMENSIONAL IMAGE CREATION DEVICE, THREE-DIMENSIONAL IMAGE REPRODUCING DEVICE, THREE-DIMENSIONAL IMAGE PROCESSING DEVICE, THREE-DIMENSIONAL IMAGE PROCESSING PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME

Also Published As

Publication number Publication date
KR101226874B1 (ko) 2013-01-25
CN1835574B (zh) 2010-06-23
EP1703744B1 (en) 2012-05-02
US7659934B2 (en) 2010-02-09
EP1703744A2 (en) 2006-09-20
EP1703744A3 (en) 2010-02-24
US20060210249A1 (en) 2006-09-21
KR20060100264A (ko) 2006-09-20
JP4126663B2 (ja) 2008-07-30
JP2006261960A (ja) 2006-09-28

Similar Documents

Publication Publication Date Title
CN1835574A (zh) 记录/再生设备和方法、及立体图像视觉效果确认设备和方法
CN1302660C (zh) 编辑***及其控制方法
CN1178168C (zh) 通过通信媒介转播数字视频和音频数据的方法
CN1264123C (zh) 虚拟空间控制数据接收装置及方法、发送接收***
CN1199455C (zh) 保留菜单控制数据的记录媒体及菜单控制方法和装置
CN1133128C (zh) 图像显示单元和运动图像检索***
CN1607819A (zh) 图像混合方法和混合图像数据生成装置
CN1860785A (zh) 再现设备、再现方法、再现程序、以及记录介质
CN1264336C (zh) 图像处理设备和图像处理方法
CN101042854A (zh) 信息再现设备和信息再现方法
CN1914915A (zh) 活动图像数据的编码方法、解码方法及实施这些方法的终端装置、以及双向对话型***
CN1845064A (zh) 信息处理方法和设备
CN1739304A (zh) 图像数据生成装置和再生该数据的图像数据再生装置
CN1754160A (zh) 用于数字视频内容的交互式视点创作的方法及装置
CN1758237A (zh) 改变遥控器操作按钮的功能分配的组合设备和方法
CN1229223A (zh) 图像处理装置、合成***装置和方法、分离方法及客户机
CN1296869C (zh) 用于动态图像转换、传输的设备、方法及程序
CN1728817A (zh) 信息处理设备,信息处理方法,记录媒体和程序
CN1532588A (zh) 图像处理装置、图像摄像***和图像显示***
CN1591425A (zh) 用于产生网站导航的方法
CN101042849A (zh) 信息处理设备和信息处理方法
CN1767648A (zh) 信息处理设备和信息处理方法、记录介质、以及程序
CN1127856C (zh) 活动图像合成装置
JP2007295479A (ja) 撮影装置および撮影方法、並びにプログラム
CN1255988C (zh) 多通道图象处理装置及其方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100623

Termination date: 20150315

EXPY Termination of patent right or utility model