CN107040709A - 图像处理装置、机器人***、机器人以及图像处理方法 - Google Patents

图像处理装置、机器人***、机器人以及图像处理方法 Download PDF

Info

Publication number
CN107040709A
CN107040709A CN201610944151.1A CN201610944151A CN107040709A CN 107040709 A CN107040709 A CN 107040709A CN 201610944151 A CN201610944151 A CN 201610944151A CN 107040709 A CN107040709 A CN 107040709A
Authority
CN
China
Prior art keywords
image
image processing
processing apparatus
information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610944151.1A
Other languages
English (en)
Inventor
岸良至
相矶政司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015221881A external-priority patent/JP2017092753A/ja
Priority claimed from JP2015221880A external-priority patent/JP2017091295A/ja
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of CN107040709A publication Critical patent/CN107040709A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/44End effector inspection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及图像处理装置、机器人***、机器人以及图像处理方法,能够容易地进行用户所希望的图像处理。该图像处理装置是进行图像所包含的物体的检查或者测量的图像处理装置,受理来自用户的操作,并基于受理到的上述操作,来选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,进行构成上述第二图像处理信息所表示的上述第二图像处理的多个上述第一图像处理的编辑。

Description

图像处理装置、机器人***、机器人以及图像处理方法
技术领域
本发明涉及图像处理装置、机器人***、机器人以及图像处理方法。
背景技术
进行拍摄图像所包含的物体的检查以及测量的图像处理的研究、开发正在开展。
关于此,已知有一种在依次登录图像处理指令来创建图像处理顺序时,根据之前刚刚登录的图像处理指令的种类,来显示应该作为下一个顺序而登录的图像处理指令的候补的图像处理指令的选择方法(参照专利文献1)。
另外,拍摄装置(照相机)具备用于使焦点对准对象物(对焦)的1块以上透镜。有一种具备能够通过用户(人)的手动来进行对焦的调整的部位(聚焦环)的拍摄装置。例如,用户一边观看通过拍摄装置当前正拍摄的映像(直播映像),一边手动调整该拍摄装置的聚焦环。
然而,在这样的基于用户的视觉的调整中,存在难以准确地进行调整的情况,例如,存在难以一边观看图像的细节部分一边进行调整的作业。并且,在使焦点对准有进深的对象物时,用户需要与聚焦环一起对透镜的光圈也进行调整。
为了辅助这样的基于用户的手动进行的调整,有一种显示对对焦的程度进行表示的指标值(聚焦指标值)的图像处理装置。作为聚焦指标值,例如可使用亮度差的统计值。
作为一个例子,在专利文献2所记载的图像处理装置中,进行使用输入图像所包含的像素的颜色的浓度值的平均值、以及输入图像所包含的像素的颜色的浓度值的平方平均值,来计算聚焦值,并输出计算出的聚焦值的处理(参照专利文献2的第0109~0110段)。
专利文献1:日本特开平07-28970号公报
专利文献2:日本特开2011-49980号公报
然而,在专利文献1所示的选择方法中,由于根据之前刚刚登录的图像处理指令来显示该候补,所以即使能够辅助图像处理顺序的创建,用户自身也只能选择为了进行所希望的检查以及测定而需要的图像处理指令。因此,在具有该选择方法的图像处理装置中,存在若不是具有与图像处理相关的专业知识的用户,则很难进行所希望的图像处理的情况。
另外,在专利文献2中,以往使用的聚焦值是相对的指标,存在对焦的精度不充分的情况。例如,由于亮度分布根据图像的内容而变化,所以按每个图像,受对象物的反射与相对较亮或较暗的调焦没有关系的要素影响,而存在图像的对焦的精度不充分的情况。
另外,在仅使图像处理的对象物体的关心区域对焦的情况下(使拍摄到的图像的一部分对焦的情况下),存在精度不充分的情况。另外,在具备图像处理装置的机器人或机器人***中,也存在同样的情况。
发明内容
本发明是为了解决上述课题的至少一部分而完成的,能够作为以下的形态或者实施方式来实现。
[实施方式1]本发明的一个实施方式是进行图像所包含的物体的检查或者测量的图像处理装置,受理来自用户的操作,并基于受理到的上述操作,来选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,进行构成上述第二图像处理信息所表示的上述第二图像处理的多个上述第一图像处理的编辑。
根据该结构,图像处理装置受理来自用户的操作,并基于受理到的操作,来选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,进行构成第二图像处理信息所表示的第二图像处理的多个第一图像处理的编辑。由此,在图像处理装置中,能够容易地进行用户所希望的图像处理。
[实施方式2]另外,本发明的其它实施方式也可以采用在图像处理装置中,使多个上述第二图像处理信息显示于显示部,能够从所显示的该多个上述第二图像处理信息中选择上述第二图像处理信息的结构。
根据该结构,图像处理装置能够将多个第二图像处理信息显示于显示部,并从所显示的该多个第二图像处理信息中选择第二图像处理信息。由此,图像处理装置能够基于所选择出的第二图像处理信息,容易地进行用户所希望的图像处理。
[实施方式3]另外,本发明的其它实施方式也可以采用在图像处理装置中,基于从用户受理到的操作,进行对构成上述第二图像处理信息所表示的上述第二图像处理的上述第一图像处理进行表示的第一图像处理信息的追加或者删除来作为上述编辑的结构。
根据该结构,图像处理装置基于从用户受理到的操作,进行对构成第二图像处理信息所表示的第二图像处理的第一图像处理进行表示的第一图像处理信息的追加或者删除来作为构成第二图像处理信息所表示的第二图像处理的多个第一图像处理的编辑。由此,图像处理装置能够将第二图像处理变更为用户所希望的图像处理。
[实施方式4]另外,本发明的其它实施方式也可以采用在图像处理装置中,用户能够输入在上述第一图像处理信息所表示的上述第一图像处理的执行中所使用的参数的结构。
根据该结构,图像处理装置能够由用户输入在第一图像处理信息所表示的第一图像处理的执行中所使用的参数。由此,图像处理装置能够基于输入的参数,容易地进行用户所希望的图像处理。
[实施方式5]另外,本发明的其它实施方式也可以采用在图像处理装置中,基于从用户受理到的操作来选择2个以上上述第一图像处理信息,并基于选择出的上述第一图像处理信息来生成上述第二图像处理信息的结构。
根据该结构,图像处理装置基于从用户受理到的操作来选择2个以上第一图像处理信息,并基于选择出的第一图像处理信息来生成第二图像处理信息。由此,图像处理装置能够基于生成的第二图像处理信息,容易地进行用户所希望的图像处理。
[实施方式6]另外,本发明的其它实施方式是一种机器人***,该机器人***具备上述任意一项所述的图像处理装置、以及基于图像处理装置的图像处理的结果来进行规定的作业的机器人。
根据该结构,机器人***受理来自用户的操作,并基于受理到的操作,选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,进行构成第二图像处理信息所表示的上述第二图像处理的多个第一图像处理的编辑。由此,在机器人***中,能够容易地进行用户所希望的图像处理。
[实施方式7]另外,本发明的其它实施方式是一种机器人,该机器人具备上述任意一项所述的图像处理装置。
根据该结构,机器人受理来自用户的操作,并基于受理到的操作,选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,进行构成第二图像处理信息所表示的上述第二图像处理的多个第一图像处理的编辑。由此,在机器人中,能够容易地进行用户所希望的图像处理。
[实施方式8]另外,本发明的其它实施方式是一种图像处理方法,该图像处理方法是进行图像所包含的物体的检查或者测量的图像处理方法,具有:受理来自用户的操作的操作受理步骤;基于通过上述操作受理步骤受理到的第一上述操作,来选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息的选择步骤;以及基于通过上述操作受理步骤受理到的第二上述操作,进行构成上述第二图像处理信息所表示的上述第二图像处理的多个上述第一图像处理的编辑的编辑步骤。
根据该结构,图像处理方法受理来自用户的操作,并基于受理到的操作,选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,进行构成第二图像处理信息所表示的上述第二图像处理的多个第一图像处理的编辑。由此,在图像处理方法中,能够容易地进行用户所希望的图像处理。
如上所述,本发明的实施方式1~8涉及的图像处理装置、机器人***、机器人、以及图像处理方法受理来自用户的操作,并基于受理到的操作,选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,进行构成第二图像处理信息所表示的上述第二图像处理的多个第一图像处理的编辑。由此,在图像处理装置、机器人***、机器人、以及图像处理方法中,能够容易地进行用户所希望的图像处理。
[实施方式9]本发明的一个实施方式是一种图像处理装置,在使拍摄装置所具有的透镜的位置变化之后,显示用于判定是否对上述拍摄装置所拍摄到的图像的一部分或者全部进行了对焦的第一信息、以及上述透镜的位置处的对焦的第二信息。
根据该结构,在图像处理装置中,显示用于判定是否对拍摄到的图像的一部分或者全部进行了对焦的第一信息、以及透镜的位置处的对焦的第二信息。由此,在图像处理装置中,例如能够对为了检查、测量等而拍摄到的图像的一部分或者全部,提示图像的对焦的精度,例如,虽然自动地进行微妙的调整很难,但能够通过基于用户的手动的调整来提高对焦的精度。
[实施方式10]另外,在上述实施方式9所记载的图像处理装置中,具备指定上述图像的一部分的指定部。
根据该结构,在图像处理装置中,指定图像的一部分。由此,在图像处理装置中,例如能够对在想要作为检查、测量等的对象的情况下被指定的图像的一部分提示图像的对焦的精度。
[实施方式11]另外,在上述实施方式10所述的图像处理装置中,上述图像的一部分是关心区域的单位、或者像素的单位。
根据该结构,在图像处理装置中,以关心区域的单位、或者像素的单位,来显示与第一指标值相关的信息以及与第二指标值相关的信息。由此,在图像处理装置中,能够以关心区域的单位、或者像素的单位,来仅提示例如想要作为检查、测量等的对象的关心区域或者像素的图像(图像部分)的对焦的精度。
[实施方式12]另外,在上述实施方式9~11中任一项所述的图像处理装置中,上述第一信息以及上述第二信息是指标值。
根据该结构,在图像处理装置中,第一信息以及第二信息是指标值。由此,在图像处理装置中,能够使用指标值来提示图像的对焦的精度。
[实施方式13]另外,在上述实施方式12所述的图像处理装置中,上述第一信息是焦点最符合的上述指标值。
根据该结构,在图像处理装置中,显示作为焦点最符合的指标值的第一信息、和第二信息。由此,在图像处理装置中,能够提示焦点最符合的指标值。
[实施方式14]另外,在上述实施方式12或者15所述的图像处理装置中,具备对上述图像的一部分基于上述指标值来显示对焦的有无的一方或者两方的对焦显示部。
根据该结构,在图像处理装置中,针对图像的一部分显示对焦的有无的一方或者两方。由此,在图像处理装置中,能够对图像的一部分提示对焦的有无(进行了对焦、以及未进行对焦)的一方或者两方。
[实施方式15]另外,在上述实施方式12~14中任一项所述的图像处理装置中,具备倾斜判定部,该倾斜判定在有多个上述图像的一部分,并对上述多个上述图像的一部分全部进行了对焦的情况下,关于由上述多个上述图像的一部分确定的对象判定为没有倾斜,另一方面,在对上述多个上述图像的一部分的1个以上未进行对焦的情况下,关于上述对象物判定为有倾斜。
根据该结构,在图像处理装置中,在对多个图像的一部分的全部进行了对焦情况下,关于由该多个图像的一部分确定的对象物判定为没有倾斜,另一方面,在对该多个图像的一部分的1个以上未进行对焦的情况下,关于该对象物判定为有倾斜。由此,在图像处理装置中,能够关于对象物提示倾斜的有无,例如,能够通过基于用户的手动的调整来调整该倾斜。
[实施方式16]另外,在上述实施方式12~15中任一项所述的图像处理装置中,具备使用上述图像提取物体的轮廓,并计算上述指标值的指标值计算部。
根据该结构,在图像处理装置中,提取物的轮廓,并计算指标值。由此,在图像处理装置中,能够使用与物体的轮廓相关的指标值,来提示图像的对焦的精度。
[实施方式17]另外,在上述实施方式16所述的图像处理装置中,上述指标值是基于上述轮廓的亮度的梯度方向的长度的值。
根据该结构,在图像处理装置中,指标值是基于轮廓的亮度的梯度方向的长度的值。由此,在图像处理装置中,能够使用基于轮廓的亮度的梯度方向的长度的指标值,来提示图像的对焦的精度。
[实施方式18]另外,在上述实施方式16所述的图像处理装置中,上述指标值是基于上述轮廓的亮度的边缘的宽度的值。
根据该结构,在图像处理装置中,指标值是基于轮廓的亮度的边缘的宽度的值。由此,在图像处理装置中,能够使用基于轮廓的亮度的边缘的宽度的指标值,来提示图像的对焦的精度。
[实施方式19]另外,在上述实施方式16所述的图像处理装置中,上述指标值是基于连接了上述轮廓的多个微小的亮度梯度的边缘宽度的值。
根据该结构,在图像处理装置中,指标值是基于连接了轮廓的多个微小的亮度梯度的边缘宽度的值。由此,在图像处理装置中,能够使用基于连接了轮廓的多个微小的亮度梯度的边缘宽度的指标值,来提示图像的对焦的精度。
[实施方式20]本发明的一个实施方式是一种机器人,该机器人具备上述实施方式9~19中任一项所述的图像处理装置。
根据该结构,在机器人中,作为在图像处理装置中能够单独地判定是否对拍摄到的图像的一部分或者全部进行了对焦的指标值,显示与第一指标值相关的信息以及与第二指标值相关的信息。由此,在机器人中,能够提示图像的对焦的精度,例如,能够通过基于用户的手动的调整来提高对焦的精度。
[实施方式21]本发明的一个实施方式是一种机器人***,该机器人***具备:上述实施方式9~19中任一项所述的图像处理装置;以及对上述图像进行拍摄的上述拍摄装置。
根据该结构,在机器人***中,作为在图像处理装置中能够单独地判定是否对拍摄到的图像的一部分或者全部进行了对焦的指标值,显示与第一指标值相关的信息以及与第二指标值相关的信息。由此,在机器人***中,能够提示图像的对焦的精度,例如,能够通过基于用户的手动的调整来提示对焦的精度。
如上所述,根据本发明的实施方式9~21涉及的图像处理装置、机器人以及机器人***,显示用于判定是否对拍摄到的图像的一部分或者全部进行了对焦的第一信息、以及上述透镜的位置处的对焦的第二信息。由此,在本发明的图像处理装置、机器人以及机器人***中,例如,能够对为了进行检查、测量等而拍摄到的图像的一部分或者全部,提示图像的对焦的精度,例如,能够通过基于用户的手动的调整来提高对焦的精度。
附图说明
图1是表示本实施方式涉及的图像处理***1的一个例子的结构图。
图2是表示图像处理装置20的硬件结构的一个例子的图。
图3是表示图像处理装置20的功能结构的一个例子的图。
图4是表示主画面的一个例子的图。
图5是表示当在主画面G1中由用户选择事例且构成选择出的事例的多个工具的每一个被执行时,控制部28所进行的处理的流程的一个例子的流程图。
图6是表示选择方法选择画面的一个例子的图。
图7是表示事例选择画面的一个例子的图。
图8是表示显示有对构成事例的工具进行表示的工具信息的主画面的一个例子的图。
图9是表示显示有编辑画面的主画面的一个例子的图。
图10是表示滤波处理选择画面的一个例子的图。
图11是表示实施方式的变形例涉及的机器人50的一个例子的结构图。
图12是表示机器人控制装置60的功能结构的一个例子的图。
图13是表示本发明的一个实施方式(第二实施方式)涉及的图像处理装置的简要的结构例的图。
图14是表示由拍摄装置拍摄到的图像的一个例子的图。
图15是表示梯度方向的距离与亮度的关系的一个例子的图。
图16是表示边缘图的一个例子的图。
图17是表示图像的尺寸的一个例子的图。
图18是针对边缘宽度表示对比度与个数的关系的一个例子的图。
图19是表示在边缘图中提取出的部分的一个例子的图。
图20是表示计算模糊宽度的处理的顺序的一个例子的流程图。
图21是表示拍摄的配置的一个例子的图。
图22是表示对焦的有无的显示的一个例子的图。
图23是表示显示对焦的有无的处理以及判定倾斜的处理的顺序的一个例子的流程图。
图24是表示拍摄的配置的其它一个例子的图。
图25是表示由拍摄装置拍摄的图像中的对象物的图像的配置的一个例子的图。
图26是表示每个像素的对焦的有无的显示的一个例子的图。
图27是表示每个像素的对焦的有无的显示的另一个例子的图。
图28是表示每个像素的对焦的有无的显示的另一个例子的图。
图29是表示包含对焦最符合的指标值的显示的画面显示的一个例子的图。
图30是表示在通过用户的手动来调整拍摄的配置的情况下,由图像处理装置进行的处理的顺序的一个例子的图。
图31是表示本发明的一个实施方式(第三实施方式)涉及的机器人的简要的结构例的图。
图32是表示本发明的一个实施方式(第三实施方式)涉及的控制装置的简要的结构例的图。
图33是表示本发明的一个实施方式(第四实施方式)涉及的机器人***的简要的结构例的图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。
(第一实施方式)
<图像处理***的结构>
首先,对图像处理***1的结构进行说明。图1是表示本实施方式涉及的图像处理***1的一个例子的结构图。图像处理***1具备拍摄部10、以及图像处理装置20。
拍摄部10例如是具备作为将会聚的光转换为电信号的拍摄元件的CCD(ChargeCoupled Device:电荷耦合器件)、CMOS(Complementary Metal Oxide Semiconductor:互补金属氧化物半导体)等的照相机。在这一个例子中,拍摄部10被设置于能够拍摄包含对象物O在内的范围的位置。
对象物O例如是组装于产品的板、齿轮、螺钉、螺栓等工业用的零件、部件。在图1中,为了图的简化,将对象物O表示为立方体形状的物体。此外,对象物O也可以取代工业用的零件、部件而是日用品、生物体等其它物体。另外,对象物O的形状也可以取代立方体形状而是其它形状。
另外,在这一个例子中,对象物O被载置于作业台TB的上表面。作业台TB例如是桌子。此外,作业台TB也可以取代桌子而是地板、货架等其它物体。另外,在图1所示的例子中,在作业台TB的上表面仅载置有1个对象物O,但也可以代替于此而为载置2个以上对象物O的结构。
另外,拍摄部10通过线缆以能够通信的方式与图像处理装置20连接。经由线缆的有线通信例如依据以太网(注册商标)、USB等标准来进行。此外,拍摄部10也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信来与图像处理装置20连接的结构。
图像处理装置20进行图像所包含的物体的检查或者测量。该测量中也包含计算该物体的三维坐标系中的位置以及姿势。该三维坐标系例如是世界坐标系、机器人坐标系、其它局部坐标系等。图像处理装置20例如是工作站、台式PC(Personal Computer:个人电脑)、笔记本PC、平板PC、多功能移动电话终端(智能手机)、带有通信功能的电子书阅读器、PDA(Personal Digital Assistant:个人数字助理)等。
<图像处理装置所进行的处理的概要>
以下,对图像处理装置20所进行的处理的概要进行说明。
在这一个例子中,图像处理装置20将包括对象物O的范围作为拍摄范围来使拍摄部10进行拍摄。而且,图像处理装置20获取拍摄部10拍摄到的拍摄图像。图像处理装置20基于获取到的拍摄图像,来进行该拍摄图像所包含的对象物O的检查或者测量。
具体而言,图像处理装置20受理来自用户的操作,并基于受理的操作,来执行多个第一图像处理,进行用户所希望的图像处理。对于多个第一图像处理的一部分或者全部而言,对图像进行的处理可以相互不同,该处理也可以相互相同。
在执行多个第一图像处理时,图像处理装置20受理来自用户的操作,并基于受理的操作,选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,并执行构成选择出的第二图像处理信息所表示的第二图像处理的多个第一图像处理。另外,图像处理装置20受理来自用户的操作,并基于受理的操作,进行构成第二图像处理信息所表示的第二图像处理的多个第一图像处理的编辑。由此,图像处理装置20能够容易地进行用户所希望的图像处理。
例如,当由在过去进行的图像处理中执行的多个第一图像处理构成第二图像处理的情况下,用户通过选择表示该第二图像处理的第二图像处理信息,能够执行进行与过去进行的图像处理相同的处理的图像处理。另外,在第二图像处理信息是表示该过去进行的图像处理的图像、字符串等的情况下,用户能够基于该图像、该字符串等,从多个第二图像处理信息中选择表示所希望的图像处理的第二图像处理信息。由此,图像处理装置20能够容易地进行用户所希望的图像处理。
以下,作为第一图像处理的一个例子,将第一图像处理视为用户为了进行所希望的图像处理而使用的道具,将第一图像处理称为工具,将第一图像处理信息称为工具信息来进行说明。在这一个例子中,工具信息是包含表示工具的文字、图像的按钮。按钮是在图像处理装置20所显示的各种画面中能够选择操作(按下、点击、轻击)的图标。
另外,以下作为第二图像处理的一个例子,将第二图像处理视为由多个工具进行的图像处理的模型(模板),将第二图像处理称为事例,将第二图像处理信息称为事例信息来进行说明。在这一个例子中,事例信息是包含表示事例的文字、图像的按钮。
<工具的具体例>
在这一个例子中,工具中包含以下所示的1A)~7A)这7个图像处理。
1A)几何探索处理(几何搜索)
2A)直线检测处理
3A)直线间距离计算处理
4A)颜色检查处理
5A)2点间距离计算处理
6A)2条直线交点检测处理
7A)预先处理(前处理)
8A)简易运算处理
此外,也可以是代替上述1A)~8A)的一部分或者全部而在工具中包含其它图像处理的结构,还可以是除了上述1A)~8A)的全部以外,还包含其它图像处理的结构。
几何探索处理是从图像中检测由用户指定的物体的轮廓的几何学特征的处理。图像处理装置20在几何探索处理中,基于由用户预先输入的参数来确定由用户指定的形状。在这一个例子中,参数是在图像处理装置20所显示的画面中按每个工具由用户输入的信息。另外,参数在该画面中按每个工具由用户输入后,与各工具建立对应关系。例如,在图像处理装置20所显示的画面中针对几何探索处理由用户输入的参数与几何探索处理建立对应关系。
直线检测处理是从图像中检测被用户指定的区域内所包含的直线的处理。图像处理装置20在直线检测处理中,基于由用户预先输入的参数来确定要检测的直线。
直线间距离计算处理是基于由用户预先输入的参数,在2个位置进行直线检测处理,并计算检测出的2条直线之间的距离的处理。图像处理装置20在直线间距离计算处理中,基于由用户预先输入的参数来分别确定两条直线。
颜色检查处理是判定通过几何探索处理检测出的物体的表面、通过几何探索处理检测出的轮廓的内部等的颜色是否是由用户指定的颜色的处理。图像处理装置20在颜色检查处理中,基于由用户预先输入的参数来确定由用户指定的颜色。
2点间距离计算处理是计算由用户指定的2点之间的距离的处理。图像处理装置20在2点间距离计算处理中,基于由用户预先输入的参数来分别确定由用户指定的2点。该2点例如是表示通过几何探索处理检测出的物体的重心的点、和通过几何探索处理检测出的直线的两个端点中的一个端点等。
2条直线交点检测处理是检测由用户指定的2条直线的交点的位置的处理。图像处理装置20在2条直线交点检测处理中,基于由用户预先输入的参数来确定由用户指定的两条直线。
预先处理是在进行上述1A)~6A)的每一个处理之前,对图像进行由用户指定的滤波处理的处理。图像处理装置20在预先处理中,基于由用户预先输入的参数来确定由用户指定的滤波处理。由用户指定的滤波处理例如包含图像的二值化滤波处理、图像的平滑化滤波处理、锐化滤波处理、中值滤波处理等。
简易运算处理是进行由用户指定的运算(例如,四则运算、使用了初等函数的运算)的处理。图像处理装置20在简易运算处理中,基于由用户预先输入的参数来确定由用户指定的运算。
其中,有向上述说明了的各参数中输入执行了其它工具的结果的情况。具体而言,有在逐个依次执行多个工具的情况下,向与某个工具建立了对应关系的参数中的一个,输入作为在该工具之前执行的工具的执行结果而被输出的值的情况。例如,在通过两个几何探索处理和2点间距离计算处理的组合,来进行计算两个物体的距离的处理的情况下,通过2点间距离计算处理计算的2点间的距离是通过两个几何探索处理的每一个检测出的2点间的距离。即,该情况下,分别通过两个几何探索处理检测出的2个点各自的位置作为与2点间距离计算处理建立对应关系的参数被输入。这样,在图像处理装置20中,有在某个工具的参数中反映其它工具的处理结果、工具彼此的依赖关系的情况。以下,为了便于说明,将在某个工具的参数中反映其它工具的处理结果、工具彼此的依赖关系的情况称为参数的依赖关系性来进行说明。
<事例的具体例>
在这一个例子中,事例包含以下所示的1B)~4B)这4个图像处理。
1B)间隙测量处理
2B)物体颜色检查处理
3B)2个物体间距离计算处理
4B)四边形中心检测处理
此外,也可以为在事例中代替上述1B)~4B)的一部分或者全部而包含其它图像处理的结构,还可以为除了上述1B)~4B)的全部以外还包含其它图像处理的结构。
如上所述,事例由多个工具构成。间隙测量处理由工具中的几何探索处理、预先处理、2条直线检测处理以及直线间距离计算处理的组合构成。具体而言,在间隙测量处理中,对图像进行预先处理,从进行了预先处理的图像中通过几何探索处理来检测测量对象的位置,并根据检测出的位置来对直线间距离检测处理的2条直线探索区域进行修正,从进行了预先处理的图像中检测2条直线,并通过直线间距离计算处理来计算检测出的2条直线之间的距离。由此,在间隙测量处理中,可计算(测量)图像所包含的两个物体间的间隙。
物体颜色检查处理由工具中的几何探索处理、和颜色检查处理的组合构成。具体而言,在物体颜色检查处理中,从图像中通过几何探索处理检测由用户指定的物体,并通过颜色检查处理来判定检测出的该物体的颜色是否是由用户指定的颜色。由此,在物体颜色检查处理中,可判定图像所包含的物体的颜色是否是由用户指定的颜色。
2个物体间距离计算处理由工具中的几何探索处理与2点间距离计算处理的组合构成。具体而言,在2个物体间距离计算处理中,从图像中通过第一次的几何探索处理来检测表示由用户指定的第一个物体即第一物体的重心的点,并从该图像中通过第二次的几何探索处理来检测表示由用户指定的第二个物体即第二物体的重心的点,通过2点间距离计算处理计算表示第一物体的重心的点与表示第二物体的重心的点之间的距离。由此,在2个物体间距离计算处理中,可计算图像所包含的第一物体与第二物体之间的距离。
四边形中心检测处理由工具中的2条直线交点检测处理与简易运算处理的组合构成。具体而言,在四边形中心检测处理中,从图像中通过第一次的2条直线交点检测处理来检测第一直线与第二直线的交点,从该图像中通过第二次的2条直线交点检测处理来检测第一直线与第三直线的交点,从该图像中通过第三次的2条直线交点检测处理来检测第二直线与第四直线的交点,从该图像中通过第四次的2条直线交点检测处理来检测第三直线与第四直线的交点。然后,在四边形中心检测处理中,通过简易运算处理来计算具有以检测出的4个交点分别为顶点的四边形的中心(例如,形心)。
此外,在图像处理装置20中,也可以是在上述事例的一部分或者全部中,不用用户输入上述的参数的依赖关系性而是预先登录有该参数的依赖关系性的结构,还可以是预先由用户输入的结构,也可以是未预先登录而之后用户输入的结构。
<图像处理装置的硬件结构>
以下,参照图2,对图像处理装置20的硬件结构进行说明。图2是表示图像处理装置20的硬件结构的一个例子的图。图像处理装置20例如具备CPU(Central Processing Unit:中央处理器)21、存储部22、输入受理部23、通信部24、以及显示部25。另外,图像处理装置20经由通信部24与拍摄部10进行通信。这些结构要素经由总线Bus相互以能够通信的方式进行连接。
CPU21执行储存于存储部22的各种程序。
存储部22例如包含HDD(Hard Disk Drive:硬盘驱动器)、SSD(Solid StateDrive:固态硬盘)、EEPROM(Electrically Erasable Programmable Read-Only Memory:电可擦除可编程只读存储器)、ROM(Read-Only Memory:只读存储器)、RAM(Random AccessMemory:随机存储器)等。此外,存储部22也可以代替内置于图像处理装置20的结构,而是通过USB等数字输入输出端口等连接的外置型的存储装置。存储部22储存由图像处理装置20处理的各种信息、图像、程序(包括执行上述工具的程序)。
输入受理部23例如是键盘、鼠标、触摸板、其它的输入装置。此外,输入受理部23也可以作为触摸面板而与显示部25一体地构成。
通信部24例如包含USB等数字输入输出端口、以太网(注册商标)端口等而构成。
显示部25例如是液晶显示器面板、或有机EL(Electro Luminescence:电致发光)显示器面板。
<图像处理装置的功能结构>
以下,参照图3,对图像处理装置20的功能结构进行说明。图3是表示图像处理装置20的功能结构的一个例子的图。图像处理装置20具备存储部22、输入受理部23、显示部25、图像获取部27、以及控制部28。
图像获取部27从拍摄部10获取拍摄部10拍摄到的拍摄图像。
控制部28对图像处理装置20的整体进行控制。控制部28具备拍摄控制部31、显示控制部33、第二图像处理信息生成部37、第二图像处理信息编辑部39、以及图像处理执行部43。控制部28所具备的这些功能部例如通过CPU21执行存储于存储部22的各种程序来实现。另外,这些功能部中的一部分或者全部也可以是LSI(Large Scale Integration:大规模集成电路)、ASIC(Application Specific Integrated Circuit:专用集成电路)等硬件功能部。
拍摄控制部31使拍摄部10对包含对象物O的拍摄范围进行拍摄。
显示控制部33基于由输入受理部23受理的来自用户的操作,使显示部25显示包含GUI(Graphical User Interface:图形用户界面)的各种画面。
第二图像处理信息生成部37基于在显示控制部33使显示部25显示的画面上由用户使用输入受理部23选择出的1个以上工具信息,生成对由该工具信息分别表示的工具构成的事例进行表示的事例信息。第二图像处理信息生成部37将所生成的事例信息存储至存储部22。
第二图像处理信息编辑部39基于在显示控制部33使显示部25显示的画面上通过输入受理部23受理的来自用户的操作,对存储于存储部22的事例信息进行编辑。
图像处理执行部43执行在显示控制部33使显示部25显示的画面上由用户使用输入受理部23选择出的工具信息所表示的工具。另外,图像处理执行部43执行构成在显示控制部33使显示部25显示的画面上由用户使用输入受理部23选择出的事例信息所表示的事例的多个工具的每一个。在这些时候,图像处理执行部43基于在显示控制部33使显示部25显示的画面上由用户使用输入受理部23输入的参数来执行工具。
<关于控制部所进行的处理的具体例>
以下,参照图4~图8,对控制部28所进行的处理的具体例进行说明。其中,这里作为控制部28所进行的处理的一个例子,对在显示控制部33使显示部25显示的主画面上用户选择事例信息,并执行构成选择出的事例信息所表示的事例的多个工具的每一个时由控制部28所进行的处理进行说明。
这一个例子中的主画面是用户进行事例的生成、编辑、删除、执行等的画面。事例的生成是指选择多个工具,来生成与选择出的该工具建立有对应关系的事例信息。事例的编辑包含针对构成事例的多个工具的新的工具的追加、构成事例的多个工具的一部分的删除。事例的删除是构成事例的多个工具的全部的删除。事例的执行是构成事例的多个工具的执行。另外,该主画面是显示在图像处理装置20中执行的图像处理的结果的画面。此外,该主画面除了这些以外,也可以是用户执行其它处理的画面,还可以是显示其它信息的画面。
这里,参照图4,对主画面进行说明。图4是表示主画面的一个例子的图。图4所示的主画面的一个例子即主画面G1具有区域G11、区域G12、包含按钮B11~按钮B18的多个按钮、以及多个下拉菜单。此外,主画面G1也可以是具有除了按钮B11~按钮B18以外的多个按钮、和取代多个下拉菜单的一部分或者全部而具有其它信息、图像、字符串、GUI等的结构,还可以是除了这些全部部件以外,还具有其它信息、图像、字符串、GUI等的结构。
在区域G11显示用户选择出的工具信息。例如,显示控制部33在由用户选择了工具信息的情况下,将选择出的工具信息显示于区域G11。另外,显示控制部33在由用户选择出事例信息的情况下,将分别表示构成选择出的事例信息所表示的事例的多个工具的工具信息显示于区域G11。
在区域G12显示成为用户进行图像处理的对象的图像、即作为对该图像进行各种图像处理之前的图像的处理前图像、或对该图像进行了各种图像处理后的图像即处理后图像。成为用户进行图像处理的对象的图像可以是图像获取部27从拍摄部10获取到的拍摄图像,也可以是预先存储于存储部22的图像。例如,显示控制部33在选择了该拍摄图像作为成为由用户进行图像处理的对象的图像的情况下,将选择出的该拍摄图像显示于区域G12。
按钮B11是显示选择方法选择画面的按钮,该选择方法选择画面用于选择为了用户进行所希望的图像处理而使用的工具的选择方法。显示控制部33在由用户对按钮B11进行了选择操作(按下、点击、轻击)的情况下,与主画面G1重叠地显示选择方法选择画面。
按钮B12是显示对显示于区域G11的工具信息中的、由用户选择出的工具信息所表示的工具进行编辑的编辑画面的按钮。工具的编辑包含与工具建立对应关系的参数的输入、追加、删除等。另外,在工具是预先处理的情况下,工具的编辑中除了这些以外,还包含在预先处理中执行的滤波处理的选择、追加、删除等。显示控制部33在按钮B12被按下的情况下,在主画面G1的区域G11显示该编辑画面。
按钮B13是对成为进行图像处理的对象的图像执行显示于区域G11的工具信息中的由用户选择出的工具信息所表示的工具的按钮。图像处理执行部43在按钮B13被按下的情况下,对相应图像执行显示于区域G11的工具信息中的由用户选择出的工具信息所表示的工具。
按钮B14是对成为进行图像处理的对象的图像,执行显示于区域G11的1个以上工具信息分别表示的工具的按钮。图像处理执行部43在按钮B14被按下的情况下,从上方开始依次逐个选择显示于区域G11的工具信息,并对成为进行图像处理的对象的图像依次执行选择出的工具信息所表示的工具。
按钮B15是代替处理后图像而将处理前图像显示于区域G12的按钮。在区域G12显示有处理后图像的状态下按钮B15被按下的情况下,显示控制部33在区域G12显示处理前图像。
按钮B16是代替处理前图像而将处理后图像显示于区域G12的按钮。在区域G12显示有处理前图像的状态下按钮B16被按下的情况下,显示控制部33在区域G12显示处理后图像。
按钮B17是显示从存储部22读出使区域G12显示的图像的图像选择画面的按钮。显示控制部33在按钮B17被按下的情况下,与主画面G1重叠地显示该图像选择画面。
按钮B18是显示将显示于区域G12的图像存储(保存)于存储部22的图像存储画面的按钮。显示控制部33在按钮B18被按下的情况下,与主画面G1重叠地显示该图像存储画面。
在这样的主画面G1中由用户选择了事例信息,并分别执行构成选择出的事例信息所表示的事例的多个工具时,控制部28例如进行图5所示的流程图的各处理。图5是表示在主画面G1中由用户选择了事例,并分别执行构成选择出的事例的多个工具时,控制部28所进行的处理的流程的一个例子的流程图。其中,图5所示的流程图的步骤S100的处理是图像获取部27从拍摄部10获取拍摄图像之后的处理,是显示控制部33在显示部25显示出主画面G1之后的处理。
显示控制部33在主画面G1上通过输入受理部23受理由用户按下按钮B11的操作(步骤S100)。接下来,显示控制部33基于在步骤S100中受理的操作,与主画面G1重叠地显示选择方法选择画面(步骤S110)。
这里,参照图6,对选择方法选择画面进行说明。图6是表示选择方法选择画面的一个例子的图。图6所示的选择方法选择画面的一个例子即选择方法选择画面G2在这一个例子中,重叠地显示在主画面G1的区域G12上。选择方法选择画面G2具有按钮B21、按钮B22、按钮B23、以及按钮B24。此外,选择方法选择画面G2也可以是取代按钮B22、按钮B23、以及按钮B24的一部分或者全部而具有其它信息、图像、字符串、GUI等的结构,也可以是除了按钮B22、按钮B23、以及按钮B24的全部以外,还具有其它信息、图像、字符串、GUI等的结构。
按钮B21是对选择事例的事例选择画面进行显示的按钮。显示控制部33在按钮B21被按下的情况下,与选择方法选择画面G2重叠地显示事例选择画面。
按钮B22是显示从按每个类型分类出的工具的列表(一览)选择工具的第一工具选择画面的按钮。显示控制部33在按钮B22被按下的情况下,与选择方法选择画面G2重叠地显示第一工具选择画面。
按钮B23是显示从按每个功能分类出的工具的列表(一览)选择工具的第二工具选择画面的按钮。显示控制部33在按钮B23被按下的情况下,与选择方法选择画面G2重叠地显示第二工具选择画面。
按钮B24是删除(关闭)选择方法选择画面G2的按钮(取消按钮)。显示控制部33在按钮B24被按下的情况下,删除选择方法选择画面G2。
在步骤S110中显示出选择方法选择画面G2之后,显示控制部33在选择方法选择画面G2上通过输入受理部23受理由用户按下按钮B21的操作(步骤S120)。接下来,显示控制部33与选择方法选择画面G2重叠地显示事例选择画面(步骤S130)。
这里,参照图7,对事例选择画面进行说明。图7是表示事例选择画面的一个例子的图。图7所示的事例选择画面的一个例子即事例选择画面G3在这一个例子中,重叠地显示在选择方法选择画面G2上。事例选择画面G3具有按钮B31、按钮B32、按钮B33、按钮B34、按钮B35、以及按钮B36。此外,事例选择画面G3也可以是除了按钮B31、按钮B32、按钮B33、按钮B34、按钮B35、以及按钮B36的全部以外,还具有其它信息、图像、字符串、GUI等的结构。
按钮B31是表示多个事例中的间隙测量处理的工具信息。显示控制部33在按钮B31被按下的情况下,删除(关闭)选择方法选择画面G2以及事例选择画面G3,并将表示构成被按下的按钮B31所表示的事例的多个工具的工具信息显示于主画面G1的区域G11。
按钮B32是表示多个事例中的物体颜色检查处理的工具信息。显示控制部33在按钮B32被按下的情况下,删除(关闭)选择方法选择画面G2以及事例选择画面G3,并将表示构成被按下的按钮B32所表示的事例的多个工具的工具信息显示于主画面G1的区域G11。
按钮B33是表示多个事例中的2个物体间距离计算处理的工具信息。显示控制部33在按钮B33被按下的情况下,删除(关闭)选择方法选择画面G2以及事例选择画面G3,并将表示构成被按下的按钮B33所表示的事例的多个工具的工具信息显示于主画面G1的区域G11。
按钮B34是表示多个事例中的四边形中心检测处理的工具。显示控制部33在按钮B34被按下的情况下,删除(关闭)选择方法选择画面G2以及事例选择画面G3,并将表示构成被按下的按钮B34所表示的事例的多个工具的工具信息显示于主画面G1的区域G11。
按钮B35是显示对事例选择画面G3追加新的事例信息的事例信息追加画面的按钮。显示控制部33在按钮B35被按下的情况下,与事例选择画面G3重叠地显示事例信息追加画面。
按钮B36是删除(关闭)事例选择画面G3的按钮(取消按钮)。显示控制部33在按钮B36被按下的情况下,删除事例选择画面G3。
在步骤S130中显示了事例选择画面G3之后,显示控制部33经由事例选择画面G3通过输入受理部23受理由用户按下按钮B31的操作(步骤S140)。接下来,显示控制部33删除(关闭)选择方法选择画面G2以及事例选择画面G3,并将表示构成在步骤S140中被按下的按钮B31所表示的事例即间隙测量处理的多个工具的每一个的工具信息显示于主画面G1的区域G11(步骤S150)。
这里,参照图8,对显示了表示构成事例的工具的工具信息的主画面G1进行说明。图8是表示显示了表示构成事例的工具的工具信息的主画面的一个例子的图。如图8所示,显示控制部33在事例选择画面G3上按钮B31被按下的情况下,在区域G11上分别显示:表示构成在步骤S140中选择出的按钮B31所表示的事例即间隙测量处理的作为5个工具的预先处理的工具信息T11、表示几何探索处理的工具信息T12、表示直线检测处理的工具信息T13、表示直线检测处理的工具信息T14、以及表示直线间距离计算处理的工具信息T15。
在显示了图8所示的主画面G1之后,用户分别输入与显示于区域G11的各工具信息建立对应关系的参数,并按下按钮B14,由此用户能够容易地计算所希望的2根直线之间的距离。在图8所示的主画面G1的状态下按钮B14被按下的情况下,图像处理执行部43对成为进行图像处理的对象的图像,从上方开始依次逐个执行显示于区域G11的5个工具信息。具体而言,图像处理执行部43对成为进行图像处理的对象的图像,按照工具信息T11所表示的预先处理、工具信息T12所表示的几何探索处理、工具信息T13所表示的直线检测处理、工具信息T14所表示的直线检测处理、工具信息T15所表示的直线间距离计算处理的顺序,执行这些工具。
在这一个例子中,成为进行图像处理的对象的图像是显示于区域G12的图像PP。图像PP中拍摄有物体PP1和物体PP2。其中,在这一个例子中,在作为用户选择出的事例的间隙测量处理中,在工具信息T12所表示的几何探索处理中从图像PP所包含的物体PP1以及物体PP2中检测出的几何学的特征被作为分别与工具信息T13以及工具信息T14的每一个所表示的直线检测处理建立对应关系的参数而输入。另外,在间隙测量处理中,通过工具信息T13以及工具信息T14的每一个所表示的直线检测处理分别从图像PP检测的2根直线被作为与工具信息T15所表示的直线间距离计算处理建立对应关系的参数而输入。
此外,这里作为一个例子,对通过工具信息T13所表示的直线检测处理检测图像PP所包含的物体PP1的直线部分即直线SL1,通过工具信息T14所表示的直线检测处理检测图像PP所包含的物体PP2的直线部分即直线SL2的情况进行说明。
在步骤S150中当在主画面G1的区域G11显示了工具信息之后,图像处理执行部43经由主画面G1通过输入受理部23受理由用户按下按钮B14的操作(步骤S160)。接下来,图像处理执行部43对成为进行图像处理的对象的图像(在这一个例子中,是图像PP),按照工具信息T11所表示的预先处理、工具信息T12所表示的几何探索处理、工具信息T13所表示的直线检测处理、工具信息T14所表示的直线检测处理、工具信息T15所表示的直线间距离计算处理的顺序,执行这些工具(步骤S170)。而且,执行了这些工具的结果是计算出直线SL1与直线SL2之间的距离即距离LL。接下来,显示控制部33将显示在步骤S170中执行了工具的结果(即、距离LL)的区域G13显示于主画面G1。在这一个例子中,区域G13是区域G12的下方的区域,并且是区域G11的右方的区域。然后,显示控制部33在区域G13显示表示该结果的信息(步骤S180)。
这样,图像处理装置20基于从用户受理到的操作来选择事例信息,并执行构成选择出的事例信息所表示的事例的多个工具。例如,如上所述,在事例信息所包含的字符串、图像是表示过去进行的图像处理的信息的情况下,即使用户没有与图像处理相关的专业知识,也能够基于事例信息,容易地选择进行所希望的图像处理的事例。结果,用户能够通过图像处理装置20容易地进行所希望的图像处理。
另外,由于在图像处理装置20中,能够选择事例信息,并执行构成选择出的事例信息所表示的事例的多个工具,所以也可以不用每次进行图像处理时都重新选择表示与该图像处理相应的工具的工具信息,能够实现与图像处理相关的作业的效率化。
<事例以及事例信息的编辑中的控制部的处理>
以下,再次参照图8,对事例以及事例信息的编辑进行说明。
能够对图8所示的主画面G1的区域G11,取代所显示的多个工具信息的一部分或者全部,追加表示新的工具的工具信息。例如,在图8所示的主画面G1的状态下,当由用户按下按钮B11,在图6所示的选择方法选择画面G2上按钮B22被按下的情况下,显示控制部33与主画面G1重叠地显示未图示的第一工具选择画面。如上所述,第一工具选择画面具有按每个类型分类出的工具信息的列表(一览)。
在第一工具选择画面上由用户选择了该列表所包含的工具信息的情况下,主画面G1的区域G11被追加由用户选择出的该工具信息。而且,第二图像处理信息编辑部39将新被追加了工具信息后的显示于区域G11的工具信息的每一个所表示的工具重新与表示由被新追加工具信息之前的显示于区域G11的工具信息的每一个所表示的工具构成的事例的事例信息建立对应关系。
另外,区域G11中的工具信息的顺序例如能够通过拖放工具信息来进行更换。在更新该顺序的情况下,第二图像处理信息编辑部39将被更换顺序后的显示于区域G11的工具信息的每一个所表示的工具重新与表示由被更换顺序之前显示于区域G11的工具信息的每一个所表示的工具构成的事例的事例信息建立对应关系。
另外,能够删除显示于主画面G1的区域G11的多个工具信息的一部分或者全部。例如,用户从区域G11选择工具信息T11并显示右点击菜单,在选择了该右点击菜单的“删除”的情况下,显示控制部33将工具信息T11从区域G11删除。而且,第二图像处理信息编辑部39将删除了工具信息T11之后的显示于区域G11的工具信息的每一个所表示的工具重新与表示由删除工具信息T11之前的显示于区域G11的工具信息的每一个所表示的工具构成的事例的事例信息建立对应关系。
这样,用户能够对构成事例信息所表示的事例的工具进行编辑。结果,用户能够通过图像处理装置20将事例信息所表示的事例容易地编辑为进行所希望的图像处理的事例。
另外,在图像处理装置20中,由于能够容易对该事例进行编辑,所以在进行与过去已进行的图像处理的一部分处理不同的图像处理(例如,与过去已进行的图像处理仅参数、一部分工具不同的图像处理)的情况下,用户通过对表示进行与过去已进行的图像处理相同的图像处理的事例的事例信息进行编辑,能够容易地进行所希望的图像处理。结果,图像处理装置20能够提高与图像处理相关的作业的效率。
<事例以及事例信息的生成中的控制部的处理>
以下,再次参照图7,对事例以及事例信息的生成进行说明。
在图7所示的事例选择画面G3的按钮B35被按下的情况下,显示控制部33如上所述与主画面G1重叠地显示未图示的事例信息追加画面。事例信息追加画面具有输入事例的名称的栏。用户能够在事例信息追加画面中输入新生成的事例的名称。
在事例信息追加画面上由用户进行的事例的名称的输入结束之后,第二图像处理信息生成部37生成表示被输入的名称的事例的事例信息。该生成的事例信息所表示的事例未与工具建立对应关系。显示控制部33将第二图像处理信息生成部37生成的事例信息显示于事例选择画面G3。例如,当由用户在事例信息追加画面上输入了“XXX”这一名称的情况下,第二图像处理信息生成部37生成表示名称是“XXX”的事例的事例信息。而且,显示控制部33将第二图像处理信息生成部37生成的该事例信息显示于图7所示的事例选择画面G3中的未配置有按钮的区域。未配置有按钮的区域例如是按钮B34的右侧旁边。
在如上所述刚刚显示了新的事例信息之后,该事例信息所表示的事例未与工具建立对应关系。因此,用户能够通过在<事例以及事例信息的编辑时的控制部的处理>中说明的方法,使1个以上工具与在事例选择画面G3中新显示的事例信息所表示的事例建立对应关系。由此,用户能够容易地生成表示进行所希望的图像处理的事例的事例信息。
<参数的输入中的控制部的处理>
以下,参照图9以及图10,对上述编辑画面中的参数的输入进行说明。编辑画面在用户从显示于图8所示的主画面G1的区域G11的工具信息选择出工具信息至后,通过按下按钮B12而被显示于区域G11。即,显示控制部33在用户从显示于图8所示的主画面G1的区域G11的工具信息选择出工具信息之后按下按钮B12的情况下,将编辑画面显示于区域G11。此时,显示控制部33将对与用户选择出的该工具信息所表示的工具建立对应关系的参数进行编辑的编辑画面显示于区域G11。
图9是表示显示了编辑画面的主画面的一个例子的图。图9所示的编辑画面的一个例子即编辑画面G4在这一个例子中,被显示于主画面G1的区域G11。另外,图9所示的编辑画面G4是对与工具信息T12所表示的几何探索处理建立对应关系的参数进行编辑的编辑画面。
编辑画面G4具有输入与工具建立对应关系的各种参数的多个栏、选择该参数的下拉菜单、以及包含按钮B41和按钮B42的多个按钮。此外,编辑画面G4也可以是代替除了按钮B41和按钮B42以外的多个按钮的一部分或者全部而具有其它信息、图像、字符串、GUI等的结构,也可以除了该全部要素以外还具有其它信息、图像、字符串、GUI等的结构。
按钮B41是在编辑画面G4上确定被输入或者选择出的参数,并将该参数与工具建立对应关系的按钮。在图9所示的例子中,按钮B41是将该参数与工具信息T11所表示的几何探索处理建立对应关系的按钮。显示控制部33在按钮B41被按下的情况下,删除(关闭)编辑画面G4,并将主画面G1变更为图8所示的状态。
按钮B42是删除(关闭)编辑画面G4的按钮(取消按钮)。显示控制部33在按钮B42被按下的情况下,删除(关闭)编辑画面G4,并将主画面G1变更为图8所示的状态。
这样,由于对与工具中的、预先处理以外的工具建立对应关系的参数进行编辑的编辑画面具有与图9所示的编辑画面相同的结构,所以省略说明。与预先处理建立对应关系的编辑画面和其它编辑画面不同,具有显示对在预先处理中进行的滤波处理加以选择的滤波处理选择画面的按钮。显示控制部33在该按钮被按下的情况下,与主画面G1重叠地显示滤波处理选择画面。
图10是表示滤波处理选择画面的一个例子的图。图10所示的滤波处理选择画面的一个例子即滤波处理选择画面G5具有分别表示多个滤波处理的信息即滤波处理信息的列表(一览)L1、按钮B51、以及按钮B52。此外,滤波处理选择画面G5也可以是代替按钮B51和按钮B52的任意一方或者两方而具有其它信息、图像、字符串、GUI等的结构,也可以是代替该两方而具有其它信息、图像、字符串、GUI等的结构。
列表L1中包含:表示二值化滤波处理的滤波处理信息、表示平滑化滤波处理的滤波处理信息、表示锐化滤波处理的滤波处理信息、表示中值滤波处理的滤波处理信息等多个滤波处理信息。用户能够从滤波处理选择画面G5的列表L1所包含的滤波处理信息中,选择表示在预先处理中进行的滤波处理的滤波处理信息。
按钮B51是将从列表L1由用户选择出的滤波处理信息确定为在预先处理中进行的滤波处理,并与预先处理建立对应关系的按钮。其中,能够将1个以上滤波处理与预先处理建立对应关系。另外,该1个以上滤波处理中的一部分或者全部也可以是功能相同的滤波处理。例如,在预先处理与2个平滑化滤波处理建立了对应关系的情况下,在预先处理中,进行2次平滑化滤波处理。
按钮B52是删除(关闭)滤波处理选择画面G5的按钮(取消按钮)。显示控制部33在按钮B52被按下的情况下,删除滤波处理选择画面G5。
此外,在上述说明中,工具也可以进一步由多个其它图像处理构成。该情况下,该工具相当于上述说明中的事例,多个该其它图像处理相当于上述说明中的工具。该情况下的具体例之一是上述说明的预先处理与滤波处理的关系。另外,在上述说明中,其它图像处理也可以由多个事例构成。该情况下,该事例相当于上述说明中的工具,该其它图像处理相当于上述说明中的事例。
<实施方式的变形例>
以下,参照图11以及图12,对实施方式的变形例进行说明。其中,在实施方式的变形例中,对与实施方式相同的结构部标注相同的符号而省略说明。图11是表示实施方式的变形例涉及的机器人50的一个例子的结构图。在实施方式的变形例中,内置于机器人50的机器人控制装置60具备在上述实施方式中说明的图像处理装置20所具备的功能部的一部分。
<机器人的结构>
首先,对机器人50的结构进行说明。
机器人50是具备第一臂、第二臂、对第一臂以及第二臂进行支承的支承台、以及机器人控制装置60的双臂机器人。双臂机器人是具备这一个例子中的第一臂和第二臂那样的2根臂的机器人。此外,机器人50也可以取代双臂机器人而是单臂机器人。单臂机器人是具备1根臂的机器人。例如,单臂机器人具备第一臂和第二臂的任意一方。另外,机器人50也可以取代双臂机器人而是具备3根以上的臂的多臂机器人。
第一臂具备第一末端执行器E1和第一机械手M1。
第一末端执行器E1在这一个例子中,是具备能够把持物体的爪部的末端执行器。此外,第一末端执行器E1也可以是取代具备该爪部的末端执行器而具备电动驱动器的末端执行器等其它末端执行器。
第一末端执行器E1通过线缆以能够通信的方式与机器人控制装置60连接。由此,第一末端执行器E1基于从机器人控制装置60获取的控制信号进行动作。此外,经由线缆的有线通信例如依据以太网(注册商标)、USB(Universal Serial Bus:通用串行总线)等标准来进行。另外,第一末端执行器E1也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信来与机器人控制装置60连接的结构。
第一机械手M1具备7个关节和第一拍摄部51。另外,7个关节分别具备未图示的致动器。即,具备第一机械手M1的第一臂是7轴垂直多关节型的臂。第一臂通过由支承台、第一末端执行器E1、第一机械手M1以及第一机械手M1所具备的7个关节各自的致动器执行的协作的动作来进行7轴的自由度的动作。此外,第一臂可以是以6轴以下的自由度动作的结构,也可以是以8轴以上的自由度动作的结构。
在第一臂以7轴的自由度动作的情况下,与第一臂以6轴以下的自由度动作的情况相比较,可采取的姿势增加。由此,第一臂例如动作变得流畅,能够进一步容易地避免与存在于第一臂的周边的物体的干扰。另外,在第一臂以7轴的自由度动作的情况下,与第一臂以8轴以上的自由度动作的情况相比较,第一臂的控制容易减少计算量。
第一机械手M1所具备的7个(关节所具备的)致动器分别通过线缆以能够通信的方式与机器人控制装置60连接。由此,该致动器基于从机器人控制装置60获取的控制信号,使第一机械手M1动作。其中,经由线缆的有线通信例如依据以太网(注册商标)、USB等标准来进行。另外,第一机械手M1所具备的7个致动器中的一部分或者全部也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信与机器人控制装置60连接的结构。
第一拍摄部51例如是具备将会聚的光转换为电信号的作为拍摄元件的CCD、CMOS等的照相机。在这一个例子中,第一拍摄部51设置于第一机械手M1的一部分。因此,第一拍摄部51根据第一臂的动作而移动。另外,第一拍摄部51能够拍摄的范围根据第一臂的动作而变化。第一拍摄部51可以是对该范围的静止图像进行拍摄的结构,也可以是对该范围的动态图像进行拍摄的结构。
另外,第一拍摄部51通过线缆以能够通信的方式与机器人控制装置60连接。经由线缆的有线通信例如依据以太网(注册商标)、USB等标准来进行。此外,第一拍摄部51也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信与机器人控制装置60连接的结构。
第二臂具备第二末端执行器E2和第二机械手M2。
第二末端执行器E2在这一个例子中,是具备能够把持物体的爪部的末端执行器。此外,第二末端执行器E2也可以取代具备该爪部的末端执行器而是具备电动驱动器的末端执行器等其它末端执行器。
第二末端执行器E2通过线缆以能够通信的方式与机器人控制装置60连接。由此,第二末端执行器E2基于从机器人控制装置60获取的控制信号进行动作。其中,经由线缆的有线通信例如依据以太网(注册商标)、USB等标准来进行。另外,第二末端执行器E2也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信与机器人控制装置60连接的结构。
第二机械手M2具备7个关节和第二拍摄部52。另外,7个关节分别具备未图示的致动器。即,具备第二机械手M2的第二臂是7轴垂直多关节型的臂。第二臂通过由支承台、第二末端执行器E2、第二机械手M2以及第二机械手M2所具备的7个关节各自的致动器执行的协作的动作来进行7轴的自由度的动作。此外,第二臂也可以是以6轴以下的自由度动作的结构,还可以是以8轴以上的自由度动作的结构。
在第二臂以7轴的自由度动作的情况下,与第二臂以6轴以下的自由度动作的情况相比较,可采取的姿势增加。由此,第二臂例如动作变得流畅,能够进一步容易地避免与存在于第二臂的周边的物体的干扰。另外,在第二臂以7轴的自由度动作的情况下,与第二臂以8轴以上的自由度动作的情况相比较,第二臂的控制容易减少计算量。
第二机械手M2所具备的7个(关节所具备的)致动器分别通过线缆以能够通信的方式与机器人控制装置60连接。由此,该致动器基于从机器人控制装置60获取的控制信号,使第二机械手M2动作。此外,经由线缆的有线通信例如依据以太网(注册商标)、USB等标准来进行。另外,第二机械手M2所具备的7个致动器中的一部分或者全部也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信与机器人控制装置60连接的结构。
第二拍摄部52例如是具备将会聚的光转换为电信号的作为拍摄元件的CCD、CMOS等的照相机。在这一个例子中,第二拍摄部52设置于第二机械手M2的一部分。因此,第二拍摄部52根据第二臂的动作而移动。另外,第二拍摄部52能够拍摄的范围根据第二臂的动作而变化。第二拍摄部52可以是对该范围的静止图像进行拍摄的结构,也可以是对该范围的动态图像进行拍摄的结构。
另外,第二拍摄部52通过线缆以能够通信的方式与机器人控制装置60连接。经由线缆的有线通信例如依据以太网(注册商标)、USB等标准来进行。此外,第二拍摄部52也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信与机器人控制装置60连接的结构。
另外,机器人50具备第三拍摄部53以及第四拍摄部54。
第三拍摄部53例如是具备将会聚的光转换为电信号的作为拍摄元件的CCD、CMOS等的照相机。第三拍摄部53设置于能够与第四拍摄部54一起立体拍摄第四拍摄部54能够拍摄的范围的部位。第三拍摄部53通过线缆以能够通信的方式与机器人控制装置60连接。经由线缆的有线通信例如依据以太网(注册商标)、USB等标准来进行。此外,第三拍摄部53也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信与机器人控制装置60连接的结构。
第四拍摄部54例如是具备将会聚的光转换为电信号的作为拍摄元件的CCD、CMOS等的照相机。第四拍摄部54设置于能够与第三拍摄部53一起立体拍摄第三拍摄部53能够拍摄的范围的部位。第四拍摄部54通过线缆以能够通信的方式与机器人控制装置60连接。经由线缆的有线通信例如依据以太网(注册商标)、USB等标准来进行。此外,第四拍摄部54也可以是通过依据Wi-Fi(注册商标)等通信标准进行的无线通信与机器人控制装置60连接的结构。
在这一个例子中,上述说明的机器人50所具备的这些各功能部从内置于机器人50的机器人控制装置60获取控制信号。而且,该各功能部进行基于获取到的控制信号的动作。此外,机器人50也可以是代替内置机器人控制装置60的结构而被设置于外部的机器人控制装置60控制的结构。该情况下,机器人50和机器人控制装置60构成机器人***。另外,机器人50也可以是不具备第一拍摄部51、第二拍摄部52、第三拍摄部53、以及第四拍摄部54中的一部分的结构。
机器人控制装置60通过对机器人50发送控制信号,来使机器人50动作。由此,机器人控制装置60使机器人50进行规定的作业。
此外,第一拍摄部51、第二拍摄部52、第三拍摄部53以及第四拍摄部54中的一部分或者全部也可以是与机器人50独立的拍摄部。该情况下,机器人50、与机器人50独立的拍摄部、以及机器人控制装置60构成机器人***。
<机器人控制装置60的硬件结构>
以下,对机器人控制装置60的硬件结构进行说明。其中,表示机器人控制装置60的硬件结构的一个例子的图与仅对表示图2所示的图像处理装置20的硬件结构的一个例子的图的符号进行了变更后的图相同。机器人控制装置60例如具备存储部61、输入受理部63、通信部、以及显示部65。另外,机器人控制装置60经由通信部与机器人50进行通信。这些结构要素经由总线Bus以能够相互通信的方式连接。
CPU21执行储存于存储部61的各种程序。
存储部61例如包含HDD、SSD、EEPROM、ROM、RAM等。此外,存储部61也可以代替被内置于机器人控制装置60而是通过USB等数字输入输出端口等连接了的外置型的存储装置。存储部61储存由机器人控制装置60处理的各种信息、图像、程序、表示未图示的供给材料区域的位置的信息等。
输入受理部63例如是具备键盘、鼠标、触摸板等的示教盒(teaching pendant)、或其它的输入装置。此外,输入受理部63也可以作为触摸面板与显示部65构成为一体。
通信部例如包含USB等数字输入输出端口、以太网(注册商标)端口等而构成。
显示部65例如是液晶显示器面板、或有机EL(Electro Luminescence)显示器面板。
<机器人控制装置的功能结构>
以下,参照图12,对机器人控制装置60的功能结构进行说明。图12是表示机器人控制装置60的功能结构的一个例子的图。机器人控制装置60具备存储部61、输入受理部63、显示部65、图像获取部67、以及控制部68。
图像获取部67从第一拍摄部51获取第一拍摄部51拍摄到的拍摄图像。另外,图像获取部67从第二拍摄部52获取第二拍摄部52拍摄到的拍摄图像。另外,图像获取部67从第三拍摄部53获取第三拍摄部53拍摄到的拍摄图像。另外,图像获取部67从第四拍摄部54获取第四拍摄部54拍摄到的拍摄图像。
控制部68对机器人控制装置60的整体进行控制。控制部68具备拍摄控制部31a、显示控制部33、第二图像处理信息生成部37、第二图像处理信息编辑部39、图像处理执行部43、以及机器人控制部45。控制部68所具备的上述功能部例如通过CPU21执行存储于存储部61的各种程序来实现。另外,这些功能部中的一部分或者全部也可以是LSI(Large ScaleIntegration)、ASIC(Application Specific Integrated Circuit)等硬件功能部。
拍摄控制部31a使第一拍摄部51、第二拍摄部52、第三拍摄部53以及第四拍摄部54的任意一个对包含对象物O的拍摄范围进行拍摄。以下,作为一个例子,对拍摄控制部31a使第三拍摄部53拍摄该拍摄范围的情况进行说明。
机器人控制部45基于图像获取部67从第三拍摄部53获取到的由图像处理执行部43对拍摄图像进行的图像处理的结果,使机器人50动作。例如,由图像处理执行部43进行的图像处理的结果是对该拍摄图像所包含的对象物O的重心在机器人坐标系中的位置进行计算的结果。该情况下,机器人控制部45基于该位置,使第一臂或者第二臂把持对象物O。
这样,通过机器人控制装置60具备图像处理装置20所具备的功能部的一部分,机器人50能够得到与实施方式相同的效果。即,在机器人50所具备的机器人控制装置60中,即使用户没有与用于使机器人50进行规定的作业所需要的图像处理相关的专业知识,也能够基于事例信息,容易地选择进行所希望的图像处理的事例。结果,用户能够通过机器人控制装置60容易地进行所希望的图像处理,并能够使机器人50容易地进行规定的作业。
另外,在机器人50所具备的机器人控制装置60中,由于能够选择事例信息,并执行构成选择出的事例信息所表示的事例的多个工具,所以也可以不用每次想要进行为了使机器人50进行规定的作业所需要的图像处理时,都重新选择表示与该图像处理相应的工具的工具信息,能够实现与该图像处理相关的作业的效率化。
此外,在实施方式的变形例中,对机器人控制装置60具备图像处理装置20所具备的功能部的一部分的情况进行了说明,但机器人50也可以是将机器人控制装置60和图像处理装置20作为独立个体而具备的结构。该情况下,机器人控制装置60和图像处理装置20通过有线或者无线以能够相互通信的方式连接。另外,该情况下,机器人50、机器人控制装置60、以及图像处理装置20构成机器人***。而且,机器人控制装置60经由图像处理装置20使第三拍摄部53对拍摄范围进行拍摄,并使图像处理装置20进行基于拍摄到的拍摄图像的图像处理,从图像处理装置20获取该图像处理的结果。机器人控制装置60基于获取到的图像处理的结果使机器人50进行规定的作业。
另外,在实施方式的变形例中,对机器人控制装置60具备图像处理装置20所具备的功能部的一部分的情况进行了说明,但机器人50也可以是代替机器人控制装置60而具备具有机器人控制装置60的功能部的一部分的图像处理装置20的结构。该情况下,图像处理装置20可以被内置于机器人50,也可以是与机器人50独立并与机器人50一起设置于机器人***的结构。而且,图像处理装置20使第三拍摄部53对拍摄范围进行拍摄,进行基于拍摄到的拍摄图像的图像处理,并基于该图像处理的结果使机器人50进行规定的作业。
如以上说明那样,实施方式中的图像处理装置20(或者机器人50、上述机器人***)受理来自用户的操作,并基于受理到的操作,选择表示由多个第一图像处理(在这一个例子中是工具)构成的第二图像处理(在这一个例子中是事例)的信息即第二图像处理信息(在这一个例子中,是事例信息),进行构成第二图像处理信息所表示的第二图像处理的多个第一图像处理的编辑。由此,在图像处理装置20中,能够容易地进行用户所希望的图像处理。
另外,图像处理装置20使显示部(在这一个例子中,是显示部25或者显示部65)显示多个第二图像处理信息,能够从所显示的该多个第二图像处理信息中选择第二图像处理信息。由此,图像处理装置20能够基于选择出的第二图像处理信息,容易地进行用户所希望的图像处理。
另外,图像处理装置20基于从用户受理到的操作,进行表示构成第二图像处理信息所表示的第二图像处理的第一图像处理的第一图像处理信息(在这一个例子中,是工具信息)的追加或者删除,作为构成第二图像处理信息所表示的第二图像处理的多个第一图像处理的编辑。由此,图像处理装置20能够将第二图像处理变更为用户所希望的图像处理。
另外,图像处理装置20能够由用户输入在基于第一图像处理信息的第一图像处理的执行中所使用的参数。由此,图像处理装置20能够基于输入的参数,容易地进行用户所希望的图像处理。
另外,图像处理装置20基于从用户受理到的操作来选择2个以上第一图像处理信息,并基于选择出的第一图像处理信息生成第二图像处理信息。由此,图像处理装置能够基于所生成的第二图像处理信息,容易地进行用户所希望的图像处理。
(第二实施方式)
<图像处理装置的概要>
图13是表示本发明的一个实施方式(第二实施方式)涉及的图像处理装置11的简要的结构例的图。另外,图13中还示有与图像处理装置11连接的拍摄装置12。
图像处理装置11具备输入部121、输出部122、存储部123、以及图像处理控制部124。
输入部121具备指定部141。
输出部122具备显示部151。
图像处理控制部124具备指标值计算部161、对焦显示部162、倾斜判定部163、以及最佳指标值显示部164。
输入部121输入信息。作为一个例子,输入部121可以具有操作部,输入与由用户对该操作部进行的操作相应的信息。作为其它例,输入部121也可以通过接收从外部的装置发送出的信息来进行输入。在本实施方式中,输入部121输入由拍摄装置12拍摄到的图像的数据。
指定部141输入与由用户进行的指定相应的信息,来指定图像的部分(图像的一部分)。指定部141的功能也可以包含于通过上述的操作部来输入信息的功能。
输出部122输出信息。作为一个例子,输出部122可以对用户输出信息。作为其它例,输出部122也可以通过向外部的装置发送信息来进行输出。
显示部151具有画面(显示画面),在该画面上显示输出信息,从而对用户输出该信息。
此外,输出部122也可以具有通过声音输出信息的扬声器,利用该扬声器来输出信息。
存储部123存储信息。
存储部123存储被图像处理控制部124使用的控制程序以及参数等。
另外,存储部123存储多个图像的信息(图像数据)、以及与图像处理相关的信息。
此外,存储部123也可以存储其它任意的信息。
图像处理控制部124具有CPU(Central Processing Unit),通过利用该CPU执行存储于存储部123的控制程序,来进行各种处理。在这种情况下,该CPU也可以使用存储于存储部123的参数等。
指标值计算部161对于图像的信息,计算指标值。
对焦显示部162对上述的图像的部分,基于计算出的指标值来显示对焦的有无的信息。
倾斜判定部163基于图像的多个部分中的对焦的有无,来判定倾斜的有无。
最佳指标值显示部164在通过用户的手动对拍摄装置12的聚焦环等进行了调整的情况下,将对焦最符合的指标值(在本实施方式中,将对焦最符合称为最佳)显示于显示部151。
这里,在本实施方式中,将对图像进行拍摄的拍摄装置12、和对由拍摄装置12拍摄到的图像的信息进行处理的图像处理装置11构成为独立元件,但作为其它结构例,也可以将图像处理装置11的功能一体地组装于拍摄装置12。
<指标值>
参照图14~图20,对在本实施方式中使用的指标值进行说明。在本实施方式中,指标值计算部161对指标值进行计算。
在本实施方式中,使用能够单独地判定是否对焦的指标值。这样的指标值并不是相对的而是绝对的指标值。绝对的指标值例如不依赖于每个图像的亮度的变化,即使对不同的图像也都有效。
在本实施方式中,作为指标值,使用称为模糊宽度的值。模糊宽度是在图像的对象区域中,从对比度较高的图像中提取一定数量的轮廓线的宽度(边缘宽度)的平均值,是以像素(pixel)为单位的值。
这里,在本实施方式中,作为边缘宽度,使用与对比度的20%~80%相当的宽度,但作为其它结构例,也可以使用其它百分比(%)的宽度。例如,作为边缘宽度,也可以使用与对比度的10%~90%相当的宽度、或者也可以使用与对比度的30%~70%相当的宽度、或者也可以使用其它宽度。
在本实施方式中,作为一个像素的指标值,使用该像素中的局部的模糊宽度(边缘宽度)。
另外,在本实施方式中,作为规定区域的指标值,使用利用该规定区域中的多个局部的模糊宽度(边缘宽度)而以统计方式计算出的模糊宽度(统计模糊宽度)。
首先,参照图14~图16,对图像的局部的模糊宽度(本实施方式中的一个像素的指标值)进行说明。
指标值计算部161对处理对象的图像的整体进行扫描,在检测出亮度的梯度时,从那里沿着梯度方向检测局部的模糊宽度(边缘宽度)并进行提取。其中,此时提取轮廓。
图14是表示由拍摄装置12拍摄到的图像111的一个例子的图。
另外,图14中示有将图像111的一部分放大后的图像(放大图像112)。放大图像112中示有指标值计算部161开始探索的位置(探索开始位置131)和亮度的梯度方向132。在本实施方式中,将从亮度较高(亮)的一方朝向较低(暗)的一方的方向设为梯度方向,但作为其它结构例,也可以将从亮度较低(暗)的一方朝向较高(亮)的一方的方向设为梯度方向。
图15是表示梯度方向的距离与亮度的关系的一个例子的图。
梯度方向的距离例如以亮度的最大值或最小值等为基准来决定。
在图15所示的图表中,横轴表示亮度的梯度方向的距离(长度),纵轴表示亮度。对于处理对象的图像中的一个梯度方向(图14中的梯度方向132的一个例子),示有探索开始位置211(图14中的探索开始位置131的一个例子)和亮度的特性212。
在本实施方式中,指标值计算部161在亮度的特性212中,以亮度的最大值与最小值的对比度为基准,决定对比度的20%~80%。
图15中示有亮度为最大值的距离A1、亮度为最小值的距离A4、亮度为对比度的80%的距离A2、以及亮度为对比度的20%的距离A3。距离A1与距离A4之间的长度相当于亮度的两端的宽度(亮度两端宽度)。距离A2与距离A3之间的长度相当于本实施方式的边缘宽度。距离A2与距离A3之间的中点的位置成为该边缘宽度的中点的位置(边缘中点位置)。
这里,在本实施方式中,指标值计算部161将亮度是规定的阈值以上的位置作为探索开始位置211来使用。该阈值例如可以被预先设定,并存储于存储部123。而且,指标值计算部161从探索开始位置211开始,对亮度的梯度的两侧进行探索,直到亮度平坦或者梯度反转。此外,探索开始位置211也可以稍微偏离,只要能够沿着两侧行进,就能够得到同样的探索结果。
图16是表示边缘图311的一个例子的图。
指标值计算部161基于探索结果,生成边缘图311。
边缘图311例如是能够对处理对象的图像中的全部的像素的位置,储存(存储)规定的信息的表。
在本实施方式中,指标值计算部161使与边缘宽度相关的信息和该边缘宽度的中点的位置(边缘中点位置331)对应,储存于边缘图311。在本实施方式中,作为与边缘宽度相关的信息,将边缘宽度(本身)的信息和其对比度的信息储存至边缘图311。
指标值计算部161在处理对象的图像的整体中,对亮度的梯度的全部进行探索,并将其信息储存至边缘图311。由此,在边缘图311中,对于处理对象的图像的整体,汇总与边缘宽度相关的信息。在本实施方式中,在该处理中排除相同的信息的重复。
接下来,参照图17~图20,对图像中的统计模糊宽度(本实施方式中的规定区域的指标值)进行说明。
图17是表示图像411的尺寸的一个例子的图。
在本实施方式中,将与图像411的尺寸相同尺寸的图像作为处理对象。图像411是长方形(或者正方形),作为其尺寸,横向的长度(宽度)是W,纵向的长度(高度)是H,对角线的长度是L。这里,W、H、L分别用像素的个数来表示。
图18是针对边缘宽度示出对比度与个数的关系的一个例子的图。
图18所示的图表与在处理对象的图像的整体中探索出的边缘宽度相关。
在图18所示的图表中,横轴表示边缘宽度的对比度,纵轴表示边缘宽度的个数。对于边缘宽度,示有对比度与个数的关系的特性511。在本实施方式中,亮度的值是0~255,对比度是0~255。
指标值计算部161从已得到的边缘宽度中,从对比度高的边缘宽度起提取规定量的边缘宽度的信息。在本实施方式中,作为该规定量,使用处理对象的图像的对角线的长度(L个像素)。作为其它结构例,作为该规定量,例如也可以使用处理对象的图像的横向的长度(W个像素),或者也可以使用处理对象的图像的纵向的长度(H个像素),或者也可以使用它们之和((W+H)个像素),或者也可以使用其它长度。
在图18中,在特性511中对被提取的部分标注斜线。
图19是表示在边缘图611(与图16所示的边缘图311相当)中被提取出的部分(提取部分631)的一个例子的图。
在图19中,对提取部分631标注有斜线。
指标值计算部161计算提取出的全部的边缘宽度(储存于边缘图611中的边缘中点位置的边缘宽度)的平均值。而且,指标值计算部161将该计算结果(该平均值)作为模糊宽度(统计模糊宽度),作为本实施方式中的对焦的指标值(规定区域的指标值)来使用。
图20是表示计算模糊宽度的处理的顺序的一个例子的流程图。
此外,以上示出了指标值计算部161对处理对象的图像的整体的区域计算模糊宽度的情况,但也可以对处理对象的图像中的一部分区域计算模糊宽度。它们只是区域不同,能够通过同样的处理来计算模糊宽度。在本实施方式中,作为处理对象的图像中的一部分区域的一个例子,使用关心区域(ROI:Region Of Interest)。指定部141也可以根据用户的指示等,来指定ROI。
(步骤S1)
指标值计算部161计算处理对象的图像(或者,ROI)的对角线的长度(对角长)。在本实施方式中,该对角长是L个像素。
(步骤S2)
指标值计算部161基于边缘宽度的探索结果,从对比度较高的边缘宽度起提取L个像素量的边缘宽度。
(步骤S3)
指标值计算部161计算提取出的边缘宽度的平均值。该平均值作为处理对象的图像(或者,ROI)的模糊宽度来使用,在本实施方式中,作为对焦的指标值(规定区域的指标值)来使用。
这里,虽然在本实施方式中,从对比度较高的边缘宽度起提取规定量的边缘宽度的信息,但作为其它结构例,也可以使用从模糊宽度(这里是边缘宽度)较小的边缘宽度起提取规定量的边缘宽度的信息的结构。
另外,在本实施方式中,对于亮度的轮廓线而言,设亮度的梯度是一条直线(斜率是一个)而计算了边缘宽度,但作为其它结构例,也可以在亮度的轮廓线中,通过连接多个微小的亮度的梯度来计算边缘宽度,该情况下,边缘宽度成为从边缘的一端到该边缘的另一端对微小的亮度的梯度的长度进行总计而得到的值(积分值)。该值成为在亮度的梯度中,从边缘的一端到该边缘的另一端,沿着各个位置上的亮度梯度方向的锯齿状,对其长度进行总计所得的值。在本实施方式中,边缘的一端成为对比度是20%的位置,该边缘的另一端成为对比度是80%的位置。
此外,对于模糊宽度,由本申请人得到了以下那样的评价实验的结果,可认为模糊宽度适合作为对焦的指标值。
(评价实验的结果1)从焦点大幅偏离的位置到对焦附近为止的模糊宽度单调减少。
(评价实验的结果2)在对焦附近中,高频的对比度的再现与模糊宽度具有一定的相关性。
(评价实验的结果3)模糊宽度几乎不被噪声影响。
(评价实验的结果4)在中间色调中,即使对比度不同,模糊宽度也几乎不变。
(评价实验的结果5)即使对象改变,也能够将模糊宽度作为绝对指标来使用。此外,虽然模糊宽度也可包含一定的误差,但是是认为在实际使用中没有问题的程度。
<图像处理装置的详细动作>
参照图21~图30,对图像处理装置11的动作的详细内容进行说明。
参照图21~图23,对与对焦的有无的判定以及倾斜的有无的判定相关的处理进行说明。
图21是表示拍摄的配置的一个例子的图。
图21中示有拍摄装置711(图13所示的拍摄装置12的一个例子)、与拍摄装置711的拍摄面平行的面(平行面721)、以及对象物722。这里,平行面721是用于说明的假想的面,不是存在于实际的空间的物体。
在图21的例子中,平面状的对象物722成为不与平行面721平行的配置(非平行的配置)。
图22是表示对焦的有无的显示的一个例子的图。
图22中示有显示部151的画面所显示的图像811的一个例子。该图像811是在以图21的例子的配置拍摄到的图像上,由对焦显示部162显示了对焦的有无的图像。
该图像811所包含的对象物的图像812是图21所示的对象物722的图像,在图22的例子中,右侧进行了对焦而左侧未进行对焦。
在图22的例子中,对焦显示部162对4个框的区域(框区域831~834)分别判定对焦的有无(是否进行了对焦),并显示表示该判定的结果的信息。上述框区域831~834例如是想要作为进行检查、测量等的对象的关心区域(ROI)。
在图22的例子中,对焦显示部162使正进行对焦的框区域831~833的框的线型(例如,实线)与未进行对焦的框区域834的框的线型(例如,虚线)不同来进行显示,从而区别地显示对焦的有无。
此外,作为区别地显示对焦的有无的结构,也可以使用其它结构。作为一个例子,对焦显示部162也可以使进行对焦的框区域831~833的框或者内部的颜色(例如,绿色)与未进行对焦的框区域834的框或者内部的颜色(例如,红色)不同来进行显示,从而区别地显示对焦的有无。作为其它例,对焦显示部162也可以使进行对焦的框区域831~833的框或者内部的花纹与未进行对焦的框区域834的框或者内部的花纹不同来进行显示,从而区别地显示对焦的有无。作为其它例,对焦显示部162也可以使用文字、数字、符号等来对各框区域831~834区别地显示对焦的有无。
这里,在对各框区域831~834通过指标值计算部161计算出的指标值比规定的阈值良好的情况下,对焦显示部162判定为进行对焦(有对焦),在该指标值没有比该阈值良好的情况下,对焦显示部162判定为未进行对焦(无对焦)。该情况下,指标值计算部161将各框区域831~834作为ROI,对各框区域831~834计算指标值。该阈值例如也可以被预先设定,并存储于存储部123。
在本实施方式中,将模糊宽度作为指标值来使用,指标值越小则在对焦的点上越良好,指标值越大则在对焦的点上越不良好。
在图22的例子中,针对对象物的图像812,在上侧且左右的中央附近设定有框区域831,在右侧且上下的中央附近设定有框区域832,在下侧且左右的中央附近设定有框区域833,在左侧且上下的中央附近设定有框区域834。各框区域831~834分别被配置于夹着对象物的图像812的各边而包含内部和外部的位置。
此外,作为一个例子,各框区域831~834也可以被预先设定,并存储于存储部123。作为其它例,指定部141也可以根据用户的指示等,来指定各框区域831~834。
另外,在图22的例子中,示出了在一个图像811上表示4个框区域831~834的情况,但在一个图像上示有的框区域的个数可以是1个以上任意的个数。例如,指定部141也可以根据用户的指示等,指定框区域的个数。
倾斜判定部163基于由对焦显示部162判定对焦的有无的结果,来判定倾斜的有无。在本实施方式中,倾斜判定部163对处理对象的图像811所包含的对象物的图像812,判定该对象物的倾斜的有无(该对象物是否倾斜)。在本实施方式中,倾斜判定部163在对针对对象物设定的2个以上区域(在图22的例子中,是框区域831~834)的全部进行对焦的情况下,判定为该对象物未倾斜,另一方面,在对一个以上区域未进行对焦的情况下,判定为该对象物倾斜。此外,在本实施方式中,是在对全部的区域未进行对焦的情况下判定为对象物倾斜的结构,但也可以使用其它结构。
在图22的例子中,针对对象物,对上侧的框区域831、右侧的框区域832以及下侧的框区域833进行对焦,对左侧的框区域834未进行对焦。基于此,倾斜判定部163判定为该对象物倾斜。
倾斜判定部163将表示倾斜的有无的判定结果的信息显示于显示部151的画面。
例如,倾斜判定部163可以使具有倾斜的对象物的框(轮廓)的线型(例如,实线)与没有倾斜的对象物的框(轮廓)的线型(例如,虚线)不同来显示,从而区别地显示倾斜的有无。
此外,作为区分地显示倾斜的有无的结构,也可以使用其它结构。作为一个例子,倾斜判定部163也可以使具有倾斜的对象物的框(轮廓)或者内部的颜色(例如,黄色)与没有倾斜的对象物的框(轮廓)或者内部的颜色(例如,蓝色)不同来显示,从而区别地显示倾斜的有无。作为其它例,倾斜判定部163也可以使具有倾斜的对象物的框(轮廓)或者内部的花纹与没有倾斜的对象物的框(轮廓)或者内部的花纹不同来显示,从而区别地显示倾斜的有无。作为其它例,倾斜判定部163也可以在没有倾斜的情况下显示包含全部的区域的框(在图22的例子中,是包围4个框区域831~834的框,未图示),另一方面,在有倾斜的情况下不显示该框,从而可以区别地显示倾斜的有无。作为其它例,倾斜判定部163也可以使用文字、数字、符号等,区别地显示对象物的倾斜的有无。
图23是表示显示对焦的有无的处理以及判定倾斜的处理的顺序的一个例子的流程图。
在图像处理装置11中,进行(步骤S21)~(步骤S29)的处理。
(步骤S21)
输入部121输入由拍摄装置12拍摄到的图像的信息。
(步骤S22)
指标值计算部161以及对焦显示部162对被输入的图像的信息,提取最初成为计算指标值的对象的区域(在图22的例子中,是框区域831~834中的任意一个)的信息并获取。此外,该区域例如也可以被预先设定、或者也可以由指定部141指定。
(步骤S23)
指标值计算部161对计算指标值的对象的区域(在本例中,是在当前时刻成为对象的一个区域),计算指标值。
(步骤S24)
对焦显示部162基于由指标值计算部161计算出的指标值,判定对焦的有无。
(步骤S25)
对焦显示部162针对对象的区域,将对焦的有无的判定的结果(在图22的例子中,是与对象的框区域相关的信息)显示于显示部151的画面。
(步骤S26)
这里,在本例中,图像处理控制部124(例如,对焦显示部162等)判定是否通过输入部121被输入了与由用户进行的操作相应的结束的指示。
在该判定的结果是图像处理控制部124(例如,对焦显示部162等)判定为被输入了结束的指示的情况下,结束本处理(步骤S26:是)。另一方面,在该判定的结果是图像处理控制部124(例如,对焦显示部162等)判定为未被输入结束的指示的情况下,移至(步骤S27)的处理(步骤S26:否)。
此外,也可以将(步骤S26)的处理设置在本流程中的其它位置。
(步骤S27)
对焦显示部162判定是否存在下一个成为计算指标值的对象的区域。
在该判定的结果是对焦显示部162判定为存在下一个成为计算指标值的对象的区域的情况下,移至(步骤S28)的处理(步骤S27:是)。另一方面,在该判定的结果是对焦显示部162判定为不存在下一个成为计算指标值的对象的区域的情况下,移至(步骤S29)的处理(步骤S27:否)。
这里,在本实施方式中,当设定有成为计算指标值的对象的区域的个数(在图22的例子中,是框区域831~834的个数即4个)的情况下,对焦显示部162在对该个数的区域计算出指标值的时刻,判定为不存在下一个成为计算指标值的对象的区域。该个数例如可以预先设定、或者也可以由指定部141指定。
另外,作为其它结构例,对焦显示部162也可以根据与由用户进行的操作相应的指示(通过输入部121输入的用户的指示),来判定是否存在下一个成为计算指标值的对象的区域。
(步骤S28)
指标值计算部161以及对焦显示部162对被输入的图像的信息,提取并获取下一个成为计算指标值的对象的区域的信息。而且,在图像处理装置11中,将该区域设为对象,并移至(步骤S23)的处理。
(步骤S29)
倾斜判定部163作为综合判定,基于由对焦显示部162判定对焦的有无的结果,来判定倾斜的有无。另外,倾斜判定部163将表示该判定的结果的信息显示于显示部151的画面。而且,在图像处理装置11中,移至(步骤S21)的处理。这里,在本实施方式中,倾斜判定部163对与被输入的图像的信息相应的图像所包含的对象物,判定倾斜的有无(该对象物是否倾斜)。
在本实施方式中,在通过倾斜判定部163判定为有倾斜的情况下,进行变更拍摄的配置(在图21的例子中,是拍摄装置711与对象物722的倾斜等的配置)的处理,直到判定为没有倾斜。该变更的处理例如可以通过由图像处理装置11或者其它装置执行的预先设定的控制来进行、或者也可以通过用户的手动来进行。这里,拍摄的配置的变更例如可以变更拍摄装置711本身或者对象物722本身的位置或者姿势、或者也可以变更拍摄装置711的内部的光学***元件(透镜等)的位置或者姿势。
在本实施方式中,在通过倾斜判定部163判定为有倾斜的情况下,视为拍摄的配置不行(NG),在通过倾斜判定部163判定为没有倾斜的情况下,许可(OK)拍摄的配置。
此外,例如也可以使用预先设定如被判定了对焦的有无的区域只有一个的情况等那样,很难或者不能够判定倾斜的情况的条件,在满足该条件时,倾斜判定部163不进行倾斜的判定的结构。
在图22的例子中,在图像处理装置11中反复进行下述处理:获取1张图像811,进行对该图像811所包含的对象物的图像812设定4个框区域831~834,对各框区域831~834判定对焦的有无并显示,基于其结果判定该对象物的倾斜的有无并显示的处理,之后,获取下一个图像并进行同样的处理。
参照图24~图28,对对焦的有无根据拍摄的配置发生变化的情况进行说明。
图24是表示拍摄的配置的另一个例子的图。
图24中示有拍摄装置911(图13所示的拍摄装置12的一个例子)、以及3个不同的对象物931~933。
在图24的例子中,各对象物931~933相对于拍摄装置911的拍摄面的距离(在图24的例子中,是距离被放置了对象物931的台的高度)各不相同。
图25是表示由拍摄装置911拍摄的图像1011中的对象物的图像1031~1033的配置的一个例子的图。
在图25的例子中,示有各对象物的图像1031~1033的配置,未示出对焦的有无。对象物的图像1031、对象物的图像1032、对象物的图像1033分别是与图24所示的对象物931、对象物932、对象物933对应的图像。
在本例中,由于各对象物931~933相对于拍摄装置911的拍摄面的距离不同,所以关于各对象物的图像1031~1033,对焦的有无可能不同。
在图26~图28中,在第一配置、第二配置以及第三配置中,拍摄装置911与对象物931~933的配置(拍摄的配置)各不相同。
根据拍摄的配置的变更,来切换第一配置、第二配置、第三配置以及其它配置。该变更的处理例如可以通过由图像处理装置11或者其它装置执行的预先设定的控制来进行,或者也可以通过用户的手动来进行。这里,拍摄的配置的变更例如可以变更拍摄装置911本身或者对象物931~933本身的位置或者姿势,或者也可以变更拍摄装置911的内部的光学***元件(透镜等)的位置或者姿势。
图26是表示每个像素的对焦的有无的显示的一个例子的图。
图26中示有在第一配置中由拍摄装置911拍摄到的图像1111的一个例子。该图像1111中包含与图24所示的对象物931、对象物932、对象物933分别对应的对象物的图像1131、对象物的图像1132、对象物的图像1133。
在图26的例子中,指标值计算部161以及对焦显示部162将图像1111的整体的区域设定为成为计算指标值的对象的区域。指标值计算部161对每个像素计算边缘宽度(在本例中,为一个像素的指标值)。对焦显示部162对每个计算出边缘宽度的像素,判定对焦的有无,并显示该判定的结果。作为一个例子,对焦显示部162以规定的颜色(例如,黑色等)或闪烁等来显示进行了对焦的像素,从而区别地显示进行对焦的像素与未进行对焦的像素。此外,在利用颜色(上述的规定的颜色)来区别进行了对焦的像素与未进行对焦的像素的情况下,因被拍摄的物体的颜色可能会产生两者的颜色一致的情况,但只要在视觉上能够区别,则也可以允许。
简单来说,在图26的例子中,对一个对象物的图像1133进行了对焦,对其它2个对象物的图像1131、1132未进行对焦。在图26的例子中,使框的线型(例如,实线和虚线)不同来区别表示由与进行了对焦的对象物的轮廓对应的像素构成的框区域1153、和由未进行对焦的对象物的轮廓构成的框区域1151、1152。
这里,在本实施方式中,将图16所示的边缘图311中的边缘中点位置331作为像素的位置来使用,将与该边缘中点位置331对应储存的边缘宽度作为该像素的边缘宽度(一个像素的指标值)来使用。
在本实施方式中,对焦显示部162对在图像1111的整体的区域中被计算出边缘宽度的全部的像素中,对比度为上位的规定量以内的像素,判定为进行了对焦(有对焦),对其它像素(为上位的规定量以外的像素)判定为未进行对焦(无对焦)。这里,作为上位的规定量,例如可以使用参照图17~图19说明的L等。
此外,作为判定各像素的对焦的有无的方法,也可以使用其它方法。作为一个例子,对焦显示部162可以针对各像素,将由指标值计算部161计算出的边缘宽度作为指标值,在该指标值比规定的阈值良好的情况下,判定为进行了对焦(有对焦),在该指标值没有比该阈值良好的情况下,判定为未进行对焦(无对焦)。
图27是表示每个像素的对焦的有无的显示的另一个例子的图。
图27中示有在第二配置中由拍摄装置911拍摄到的图像1211的一个例子。该图像1211中包含与图24所示的对象物931、对象物932、对象物933分别对应的对象物的图像1231、对象物的图像1232、对象物的图像1233。
简单来说,在图27的例子中,对一个对象物的图像1231进行了对焦,对其它2个对象物的图像1232、1233未进行对焦。
关于各对象物的框区域1251~1253,与图26的例子的情况相同。
图28是表示每个像素的对焦的有无的显示的另一个例子的图。
图28中示有在第三配置中由拍摄装置911拍摄到的图像1311的一个例子。该图像1311中包含与图24所示的对象物931、对象物932、对象物933分别对应的对象物的图像1331、对象物的图像1332、对象物的图像1333。
简单来说,在图28的例子中,对一个对象物的图像1332进行了对焦,对其它2个对象物的图像1331、1333未进行对焦。
关于各对象物的框区域1351~1353,与图26的例子的情况相同。
此外,在图25~图28中,将由拍摄装置911拍摄到的图像1011、1111、1211、1311的整体作为处理对象的图像来使用,但作为其它结构例,也可以将由拍摄装置911拍摄到的图像的一部分作为处理对象的图像来使用。该一部分例如也可以由指定部141来指定。
图29是表示包含最佳对焦最符合的指标值的显示的画面显示的一个例子的图。
图29中示有显示部151的画面1411的显示的一个例子。
在画面1411中,在上段设置有显示图像的区域(图像显示部1471),在中段设置有显示框区域的信息的区域(框区域信息显示部1481),在下段设置有显示对焦最符合的指标值(在本实施方式中,称为最佳的指标值)的区域(最佳指标值显示部1491)。此外,这些多个显示部的配置也可以是其它配置。
在图像显示部1471中,重叠地显示由拍摄装置(例如,图24所示的拍摄装置911)拍摄到的图像、和对该图像设定的框区域1451。在图29的例子中,该图像中包含有3个不同的对象物(例如,图24所示的对象物931~933)的图像1431~1433。这里,框区域1451能够根据用户的指示等,在该图像中使位置变化(移动)。
在框区域信息显示部1481中例如显示作为进行检查、测量等的对象的框区域1451的信息。在图29的例子中,作为框区域1451而使用ROI。在图29的例子中,作为框区域1451的信息,使用了该框区域1451的中心的位置(中心位置)的信息、该框区域1451的横向的长度(宽度)的信息、以及该框区域1451的纵向的长度(高度)的信息。中心位置由(横向的位置、纵向的位置)的坐标值来表示。各长度是以像素为单位的长度。
此外,作为框区域1451,也可以使用图像的整体的区域。
在最佳指标值显示部1491中,作为对焦的指标值,显示当前的指标值、和从过去的规定的开始时刻到当前为止所得到的指标值中最佳的指标值。在图29的例子中,各个指标值用数值来表示。在图29的例子中,用(当前的指标值/最佳的指标值)这一形式来显示。在本实施方式中,指标值越良好,则该指标值越变小。在图29的例子中,由于当前的指标值是1.5,最佳的指标值是1.2,所以示出与当前的拍摄的配置相比,具有更加良好的拍摄的配置。
在本实施方式中,最佳指标值显示部164在从规定的开始时刻到规定的结束时刻为止的期间由指标值计算部161计算出的指标值中,判定最佳的指标值。而且,最佳指标值显示部164将当前的指标值和最佳的指标值显示于显示部151的画面(在图29的例子中,是画面1411的最佳指标值显示部1491)。该情况下,指标值计算部161或最佳指标值显示部164将由指标值计算部161计算出的指标值存储至存储部123。
例如,用户通过手动连续地变更拍摄的配置,从而显示多个拍摄的配置中的指标值来作为参考,而且,用户以当前的指标值成为良好的指标值的方式,对拍摄的配置进行调整。作为一个例子,用户旋转拍摄装置911所具备的聚焦环,从而将当前的指标值从较大的值(未进行对焦的值)逐渐变小,之后,在超过最小值(进行了对焦的值)而逐渐增大之后,以当前的指标值成为该最小值的方式,进行调整。这里,拍摄的配置的变更例如可以变更拍摄装置911本身或者对象物931~933本身的位置或者姿势,或者也可以变更拍摄装置911的内部的光学***元件(透镜等)的位置或者姿势。
这里,判定最佳的指标值的期间是从规定的开始时刻到规定的结束时刻为止的期间。
规定的开始时刻以及规定的结束时刻分别可以通过例如由图像处理装置11或者其它装置执行的预先设定的控制来设定,或者也可以根据用户的指示来设定。作为一个例子,可以将新设定了框区域1451的时刻设定为规定的开始时刻,另外,也可以将使框区域1451变更为其它框区域的时刻设定为规定的结束时刻。作为其它例,也可以将由用户指定的时刻设定为规定的开始时刻或规定的结束时刻。作为其它例,在通过上述的任意一种来设定规定的开始时刻的情况下,可以预先设定规定的开始时刻与规定的结束时刻之间的期间的长度、或者也可以根据用户的指示来设定。
图30示有在通过用户的手动对拍摄的配置进行调整的情况下由图像处理装置11进行的处理的顺序的一个例子的图。
这里,本流程的处理例如在从规定的开始时刻到规定的结束时刻为止的期间进行。
在该期间,在任意的时机,在拍摄装置12中受理用户的操作。由此,变更拍摄的配置。在本实施方式中,作为用户的操作,采用拍摄装置12所具备的聚焦环的操作。
(步骤S41)
在图像处理装置11中,输入部121输入由拍摄装置12拍摄到的图像的信息。
(步骤S42)
在图像处理装置11,指标值计算部161计算框区域1451的指标值。另外,指标值计算部161等将该指标值存储至存储部123。另外,对焦显示部162针对框区域1451判定对焦的有无并进行显示。
(步骤S43)
在图像处理装置11中,最佳指标值显示部164显示当前的指标值,并且判定最佳的指标值并显示。此外,最佳指标值显示部164也可以将该最佳的指标值存储于存储部123。
(步骤S44)
在图像处理装置11中,图像处理控制部124判定是否结束本流程的处理。
在该判定的结果是图像处理控制部124判定更为结束本流程的处理的情况下,结束本流程的处理(步骤S44:是)。
另一方面,在该判定的结果是图像处理控制部124判定为不结束本流程的处理的情况下,移至步骤S41的处理(步骤S44:否)。
这里,图像处理控制部124例如在成为了规定的结束时刻的情况下、或者根据用户等的指示而中断本流程的处理的情况下等,判定为结束本流程的处理。
如上所述,在本实施方式涉及的图像处理装置11中,将基于难以给拍摄到的对象物或者拍摄到的图像的内容带来影响的边缘宽度的值作为对焦的指标值来使用。由此,在本实施方式涉及的图像处理装置11中,能够最大限度地运用光学***所具有能力,来进行对焦的调整。
另外,在本实施方式涉及的图像处理装置11中,在拍摄到的图像上,对一个以上框区域判定并显示对焦的有无。由此,在本实施方式的图像处理装置11中,能够以框区域为单位,向用户提示对焦的有无。因此,用户能够高精度地进行对焦的调整。
作为具体例,在本实施方式涉及的图像处理装置11中,能够在想要对焦的位置设定框区域。例如,在仅使图像处理的对象物体的关心区域对焦的情况下(使拍摄到的图像的一部分对焦的情况下),能够提高对焦的精度。
另外,在本实施方式涉及的图像处理装置11中,对多个框区域判定对焦的有无并显示。由此,在本实施方式涉及的图像处理装置11中,能够判定对象物的倾斜的有无。
例如,以往在具有进深的对象物相对于拍摄面倾斜的情况下,存在很难针对该对象物,通过用户的手动来调整光圈环和聚焦环以使具有阶梯差的不同的2个位置的部分(例如,近前和里侧2个位置)的焦点同时对准的情况。与此相对,在本实施方式涉及的图像处理装置11中,对具有进深(具有凹凸)的对象物,能够向用户提示是否对需要的部分的全部进行对焦。
另外,在本实施方式涉及的图像处理装置11中,在拍摄到的图像上,对一个以上像素判定对焦的有无并显示。由此,在本实施方式涉及的图像处理装置11中,能够以像素为单位,向用户提示对焦的有无。因此,用户能够高精度地进行对焦的调整。
另外,在本实施方式涉及的图像处理装置11中,在进行对焦的调整时,显示当前的指标值和过去的最佳的指标值双方来指导用户。由此,在本实施方式涉及的图像处理装置11中,用户能够一边观看当前的指标值和最佳的指标值双方,一边进行对焦的调整。
作为一个例子,用户通过手动旋转拍摄装置12的聚焦环,并且使图像处理装置11计算指标值并显示,使图像处理装置11存储良好的指标值(例如,最良好的指标值)。而且,用户通过手动旋转拍摄装置12的聚焦环,并且以成为该良好的指标值的方式旋转聚焦环。
另外,在本实施方式涉及的图像处理装置11中,例如即使在因线路中的作业环境等而产生了亮度差的情况下,也能够根据指标值,对对象物的全部或者一部分高精度地进行对焦的调整。由此,在本实施方式涉及的图像处理装置11中,能够进行稳定的高精度的对焦的调整。
另外,在本实施方式涉及的图像处理装置11中,例如在进行对象物的检查或测量等时,能够使成为处理的对象的图像中的所希望的部分(一部分)对焦,由此,能够对检查或测量等的对象进行对焦,能够提高检查或测量等的精度。
作为具体例,在本实施方式涉及的图像处理装置11中,在仅对对象物的规定的区域(ROI)进行检查或测量等的情况下,能够使该区域对焦,例如即使在对象物具有凹凸的情况下,也能够提高对焦的精度。由此,能够使焦点对准对象物的部分的区域(ROI),而能够提高检查或测量等的精度。此外,也可以根据需要,对拍摄对象物时的倾斜(斜率)进行修正。
如上所述,根据本实施方式涉及的图像处理装置11,能够提高图像的对焦的精度。
(第三实施方式)
在本实施方式中,示出将第二实施方式涉及的图像处理装置11的功能应用于双臂的机器人的情况。
<机器人>
图31是表示本发明的一个实施方式(第三实施方式)涉及的机器人2001的简要的结构例的图。
机器人2001具备处于上部的头部、处于中央部的躯干部、处于下部的台部(台的部分)、以及设置于躯干部的臂部。
机器人2001是作为臂部具有2根臂(臂)的双臂机器人。
机器人2001具备第一机械手MNP1、第一力传感器2031-1、以及第一末端执行器END1作为一个臂侧的结构。它们被一体化,在本实施方式中,在第一机械手MNP1与第一末端执行器END1之间具备第一力传感器2031-1。
机器人2001具备第二机械手MNP2、第二力传感器2031-2、以及第二末端执行器END2作为另一个臂侧的结构。它们被一体化,在本实施方式中,在第二机械手MNP2与第二末端执行器END2之间具备第二力传感器2031-2。
在本实施方式中,能够通过一个臂侧的结构(安装了末端执行器END1的机械手MNP1)进行7轴的自由度的动作,并能够通过另一个臂侧的结构(安装了末端执行器END2的机械手MNP2)进行7轴的自由度的动作,但作为其它结构例,也可以采用进行6轴以下或者8轴以上的自由度的动作的结构。
这里,由于在臂以7轴的自由度动作的情况下,与以6轴以下的自由度动作的情况相比较,可采取的姿势增加,所以例如动作变得流畅,并能够容易地避免与存在于该臂的周边的物体的干扰。另外,在臂以7轴的自由度动作的情况下,与臂以8轴以上的自由度动作的情况相比较,该臂的控制容易减少计算量。由于这样的理由,在本实施方式中,作为优选的一个例子,采用了以7轴的自由度动作的臂。
另外,在本实施方式中,躯干部是能够在腰的部分以1轴的自由度旋转的结构。
另外,机器人2001具备分别设置于头部的左右的2个拍摄部(第一拍摄部2011-1、第二拍摄部2011-2)、设置于第一机械手MNP1的规定部位的拍摄部(第三拍摄部2021-1)、以及设置于第二机械手MNP2的规定部位的拍摄部(第四拍摄部2021-2)。
各个拍摄部(第一拍摄部2011-1、第二拍摄部2011-2、第三拍摄部2021-1、第四拍摄部2021-2)例如是使用了CCD(Charge Coupled Device)或者CMOS(Complementary MetalOxide Semiconductor)等的照相机。
第一拍摄部2011-1以及第二拍摄部2011-2分别根据头部的动作而活动。
第三拍摄部2021-1以及第四拍摄部2021-2分别根据第一机械手MNP1以及第二机械手MNP2的动作而活动。
另外,机器人2001具备控制装置2051。在本实施方式中,机器人2001在台部的内部具备控制装置2051。
控制装置2051对机器人2001的动作进行控制。控制装置2051例如对第一机械手MNP1以及第二机械手MNP2的动作进行控制。并且,在机器人2001的腰等部分能够动作的结构中,控制装置2051对该腰等部分的动作进行控制。
在本实施方式中,第一拍摄部2011-1、第二拍摄部2011-2、第三拍摄部2021-1以及第四拍摄部2021-2分别拍摄图像,并将拍摄到的图像的信息发送(输出)至控制装置2051。另外,第一力传感器2031-1以及第二力传感器2031-2分别对作用于第一末端执行器END1以及第二末端执行器END2的每一个末端执行器的力以及力矩进行检测,并将检测结果的信息发送(输出)至控制装置2051。控制装置2051能够接收(输入)这些信息,并在对机器人2001的动作进行控制时,使用接收到的信息。
这里,第一拍摄部2011-1、第二拍摄部2011-2、第三拍摄部2021-1、第四拍摄部2021-2、第一力传感器2031-1以及第二力传感器2031-2分别与控制装置2051经由线路连接,能够经由该线路来通信信息。
在本实施方式中,对第一机械手MNP1的位置以及姿势、第二机械手MNP2的位置以及姿势、以及由各拍摄部(第一拍摄部2011-1、第二拍摄部2011-2、第三拍摄部2021-1、第四拍摄部2021-2)拍摄的图像,进行了坐标系的校准。
在本实施方式中,控制装置2051根据预先设定的动作控制程序,对机器人2001的动作进行控制。控制装置2051对机器人2001(主体)教示为了实现机器人2001的动作而需要的各种信息。
作为具体例,控制装置2051对各机械手(第一机械手MNP1以及第二机械手MNP2)的动作进行控制,从而能够进行由各末端执行器(第一末端执行器END1以及第二末端执行器END2)把持物体、使被各末端执行器把持的物体移动、将被各末端执行器把持的物体载置于规定位置并放开(解除把持)、以及对被各末端执行器把持的物体进行加工(例如,开孔等)等。
此外,作为机器人,也可以代替具备2根臂(臂)的双臂机器人,而是具备1根臂(臂)的单臂机器人,还可以是并行链接机器人,也可以是正交轴机器人,也可以是单轴机器人,也可以是平面关节型(SCARA)机器人。
<控制装置>
图32是表示本发明的一个实施方式(第三实施方式)涉及的控制装置2051的简要的结构例的图。
控制装置2051具备输入部2111、输出部2112、存储部2113、以及控制部2114。输入部2111具备指定部2131。输出部2112具备显示部2141。控制部2114具备机器人控制部2151、和图像处理控制部2152。
输入部2111从外部输入信息。例如,输入部2111也可以具有被用户操作的操作部,来输入与操作部的操作相应的信息,另外,也可以输入从外部的装置输出的信息。指定部2131具有受理指定的功能。
输出部2112向外部输出信息。例如,输出部2112也可以具有画面(显示画面),向该画面输出信息,另外,也可以向外部的装置输出信息。显示部2141具有在该画面显示信息的功能。
存储部2113对信息进行存储。例如,存储部2113存储动作控制程序、以及各种参数等。
控制部2114进行与机器人2001相关的各种控制。例如,控制部2114具备CPU等处理器,通过执行存储于存储部2113的动作控制程序,来进行各种控制。
机器人控制部2151进行与机器人2001的机械手MNP1、MNP2或者末端执行器END1、END2等相关的控制。
图像处理控制部2152进行与图像处理相关的控制。
这里,在本实施方式中,输入部2111以及指定部2131、输出部2112以及显示部2141、存储部2113、图像处理控制部2152分别关于图像处理,例如具有与第二实施方式涉及的图13所示的输入部121以及指定部141、输出部122以及显示部151、存储部123、图像处理控制部124相同的功能。另外,在本实施方式中,4个拍摄部2011-1、2011-2、2021-1、2021-2中的一个(或者也可以是2个以上)与第二实施方式涉及的图13所示的拍摄装置12对应。此外,在本实施方式中,也可以将拍摄部(拍摄部2011-1、2011-2、2021-1、2021-2中的一个以上)的聚焦环的功能设置于输入部121等。
机器人控制部2151也可以基于通过图像处理控制部2152得到的图像处理的结果,进行与机器人2001相关的控制。
如上所述,在本实施方式涉及的机器人2001中,具备包含图像处理控制部2152的图像处理装置的功能,能够得到与第二实施方式的情况相同的效果。
(第四实施方式)
图33是表示本发明的一个实施方式(第四实施方式)涉及的机器人***2201的简要的结构例的图。
机器人***2201具备机器人2211、控制装置2212、以及拍摄装置2213。控制装置2212具备图像处理装置2231。
机器人2211与控制装置2212以能够通信的方式连接。控制装置2212与拍摄装置2213以能够通信的方式连接。
这里,在本实施方式中,图像处理装置2231例如具有与第二实施方式涉及的图13所示的图像处理装置11相同的功能。另外,在本实施方式中,拍摄装置2213与第二实施方式涉及的图13所示的拍摄装置12对应。
另外,控制装置2212具有进行与机器人2211相关的控制的功能。控制装置2212也可以基于通过图像处理装置2231得到的图像处理的结果,进行与机器人2211相关的控制。
此外,在本实施方式中,独立地具备机器人2211和拍摄装置2213。
另外,作为机器人2211,也可以使用各种机器人。
如上所述,在本实施方式涉及的机器人***2201中,具备图像处理装置2231,能够得到与第二实施方式的情况以及第三实施方式的情况相同的效果。
(以上的实施方式的总结)
作为一个结构例,是在使拍摄装置(在图13的例子中,是拍摄装置12)所具有的透镜的位置变化之后,显示用于判定是否对拍摄装置拍摄到的图像的一部分或者全部进行了对焦的第一信息(在图29的例子中,是最佳的指标值的信息)、和透镜的位置处的对焦的第二信息(在图29的例中,是当前的指标值的信息)的图像处理装置(在图13的例子中,是图像处理装置11)。
作为一个结构例,在图像处理装置中,具备指定图像的一部分的指定部(在图13的例子中,是指定部141)。
作为一个结构例,在图像处理装置中,图像的一部分以关心区域(ROI)为单位(例如,图22的例子)、或者以像素为单位(例如,图26~图28的例子)。
作为一个结构例,在图像处理装置中,第一信息以及第二信息是指标值。
作为一个结构例,在图像处理装置中,第一信息是焦点最符合的指标值(图29的例子)。
作为一个结构例,在图像处理装置中,具备针对图像的一部分基于指标值显示对焦的有无的一方或者两方的对焦显示部(在图13的例子中,是对焦显示部162)。
作为一个结构例,在图像处理装置中,具备在具有多个图像的一部分,并对多个图像的一部分的全部进行了对焦的情况下,对由该多个图像的一部分确定的对象物判定为没有倾斜,另一方面,在对该多个图像的一部分的1个以上未进行对焦的情况下,对该对象物判定为有倾斜的倾斜判定部(在图13的例中,是倾斜判定部163)(图22的例子)。
作为一个结构例,在图像处理装置中,具备使用图像来提取物体的轮廓,并计算指标值的指标值计算部(在图13的例子中,是指标值计算部161)(图14~图20的例子)。
作为一个结构例,在图像处理装置中,指标值是基于轮廓的亮度的梯度方向的长度的值(图14~图20的例子)。
作为一个结构例,在图像处理装置中,指标值是基于轮廓的亮度的边缘的宽度的值(图14~图20的例子)。
作为一个结构例,在图像处理装置中,指标值是基于将轮廓的多个微小的亮度梯度连接了的边缘宽度的值(与图14~图20相关的其它例)。
作为一个结构例,是一种机器人(在图31~图32的例中,是机器人2001),该机器人具有上述那样的图像处理装置(在图31~图32的例子中,是图像处理控制部2152的功能部分的装置)。
作为一个结构例,是一种机器人***(在图33的例子中,是机器人***2201),该机器人***具备上述那样的图像处理装置(在图33的例子中,是图像处理装置2231)、拍摄图像的拍摄装置(在图33的例子中,是拍摄装置2213)、以及机器人(在图33的例子中,是机器人2211)。
以上,针对本发明的实施方式,参照附图进行了详细叙述,但具体的结构并不限于该实施方式,只要不脱离本发明的主旨,也可以进行变更、置换、删除等。另外,也包含不脱离本发明的主旨的范围的设计等。
另外,也可以将用于实现以上说明的装置(例如,图像处理装置20、机器人50的机器人控制装置60、图像处理装置11、2231、控制装置2051、2212等)中的任意的结构部的功能的程序记录于计算机可读取的记录介质,使计算机***读入该程序并执行。
其中,这里所说的“计算机***”也包含OS(Operating System:操作***)、周边设备等硬件。另外,“计算机可读取的记录介质”是指软盘、光磁盘、ROM(Read Only Memory)、CD(Compact Disk:光盘)-ROM等便携式介质、内置于计算机***的硬盘等存储装置。并且,“计算机可读取的记录介质”还包括像经由因特网等网络、电话线路等通信线路发送程序的情况下的成为服务器、客户端的计算机***内部的易失性存储器(RAM:Random AccessMemory)那样,将程序保持一定时间的部件。
另外,上述程序也可以从将该程序储存于存储装置等的计算机***,经由传输介质、或者通过传输介质中的载波传输至其它计算机***。这里,传输程序的“传输介质”是指像因特网等网络(通信网)、或者电话线路等通信线路(通信线)那样具有传输信息的功能的介质。
另外,上述程序也可以是用于实现上述的功能的一部分的程序。并且,上述程序也可以是能够通过与已经被记录于计算机***的程序的组合来实现上述的功能的、所谓的差分文件(差分程序)。
附图标记的说明
1…图像处理***,10…拍摄部,20…图像处理装置,21、61…CPU,22、62…存储部,23、63…输入受理部,24、64…通信部,25、65…显示部,27、67…图像获取部,28、68…控制部,31、31a…拍摄控制部,33…显示控制部,37…第二图像处理信息生成部,39…第二图像处理信息编辑部,43…图像处理执行部,45…机器人控制部,50…机器人,51…第一拍摄部,52…第二拍摄部,53…第三拍摄部,54…第四拍摄部,60…机器人控制装置。

Claims (8)

1.一种图像处理装置,其特征在于,是进行图像所包含的物体的检查或者测量的图像处理装置,
受理来自用户的操作,
基于受理到的上述操作,来选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息,
进行构成上述第二图像处理信息所表示的上述第二图像处理的多个上述第一图像处理的编辑。
2.根据权利要求1所述的图像处理装置,其特征在于,
使多个上述第二图像处理信息显示于显示部,能够从所显示的该多个上述第二图像处理信息中选择上述第二图像处理信息。
3.根据权利要求1或2所述的图像处理装置,其特征在于,
基于从用户受理到的操作,进行对构成上述第二图像处理信息所表示的上述第二图像处理的上述第一图像处理进行表示的第一图像处理信息的追加或者删除来作为上述编辑。
4.根据权利要求3所述的图像处理装置,其特征在于,
用户能够输入在上述第一图像处理信息所表示的上述第一图像处理的执行中所使用的参数。
5.根据权利要求3所述的图像处理装置,其特征在于,
基于从用户受理到的操作来选择2个以上上述第一图像处理信息,并基于选择出的上述第一图像处理信息来生成上述第二图像处理信息。
6.一种机器人***,其特征在于,具备:
权利要求1所述的图像处理装置;以及
机器人,基于上述图像处理装置的图像处理的结果来进行规定的作业。
7.一种机器人,其特征在于,
具备权利要求1所述的图像处理装置。
8.一种图像处理方法,其特征在于,是进行图像所包含的物体的检查或者测量的图像处理方法,具有:
受理来自用户的操作的操作受理步骤;
基于通过上述操作受理步骤受理到的第一上述操作,来选择表示由多个第一图像处理构成的第二图像处理的信息即第二图像处理信息的选择步骤;以及
基于通过上述操作受理步骤受理到的第二上述操作,来进行构成上述第二图像处理信息所表示的上述第二图像处理的多个上述第一图像处理的编辑的编辑步骤。
CN201610944151.1A 2015-11-12 2016-11-02 图像处理装置、机器人***、机器人以及图像处理方法 Pending CN107040709A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-221881 2015-11-12
JP2015-221880 2015-11-12
JP2015221881A JP2017092753A (ja) 2015-11-12 2015-11-12 画像処理装置、ロボットおよびロボットシステム
JP2015221880A JP2017091295A (ja) 2015-11-12 2015-11-12 画像処理装置、ロボットシステム、ロボット、及び画像処理方法

Publications (1)

Publication Number Publication Date
CN107040709A true CN107040709A (zh) 2017-08-11

Family

ID=57286313

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610944151.1A Pending CN107040709A (zh) 2015-11-12 2016-11-02 图像处理装置、机器人***、机器人以及图像处理方法

Country Status (3)

Country Link
US (1) US10306149B2 (zh)
EP (1) EP3171329A1 (zh)
CN (1) CN107040709A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111273783A (zh) * 2020-03-25 2020-06-12 北京百度网讯科技有限公司 数字人的控制方法及装置
CN113056351A (zh) * 2018-11-01 2021-06-29 佳能株式会社 外部输入设备、机器人***、机器人***的控制方法、控制程序及记录介质
CN113196041A (zh) * 2018-12-13 2021-07-30 富士胶片株式会社 损伤图制作辅助装置、损伤图制作辅助方法、损伤图制作辅助程序及损伤图制作辅助***

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102283176B1 (ko) 2013-03-15 2021-07-29 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 로봇 수술 시스템에서의 수술 중 도구의 교환
US10593007B1 (en) * 2015-06-11 2020-03-17 Digimarc Corporation Methods and arrangements for configuring industrial inspection systems
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10593074B1 (en) * 2016-03-16 2020-03-17 Liberty Mutual Insurance Company Interactive user interface for displaying geographic boundaries
JP7074482B2 (ja) 2018-01-17 2022-05-24 京セラ株式会社 画像処理装置、撮像システム、移動体、および画像処理方法
JP7250489B2 (ja) * 2018-11-26 2023-04-03 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
KR20190104483A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 로봇 시스템 및 그 제어 방법
US11587302B2 (en) * 2019-12-17 2023-02-21 X Development Llc Shared dense network with robot task-specific heads

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5940296A (en) * 1995-11-06 1999-08-17 Medar Inc. Method and system for interactively developing a graphical control-flow structure and associated application software for use in a machine vision system
US20110072349A1 (en) * 2003-02-05 2011-03-24 Paul Delano User manipulation of video feed to computer screen regions
CN102795003A (zh) * 2011-05-20 2012-11-28 佳能株式会社 图像处理设备和图像处理设备的控制方法
US20130195345A1 (en) * 2012-02-01 2013-08-01 Seiko Epson Corporation Inspecting apparatus, robot apparatus, inspecting method, and inspecting program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728970A (ja) 1993-07-07 1995-01-31 Fuji Facom Corp 画像処理コマンドの選択方法
JP3266753B2 (ja) 1995-03-13 2002-03-18 キヤノン株式会社 状態通知装置
JPH114378A (ja) 1997-06-13 1999-01-06 Olympus Optical Co Ltd 画像取込装置
JP2000125179A (ja) 1998-10-19 2000-04-28 Dainippon Screen Mfg Co Ltd デジタルカメラおよびその処理を実行するためのプログラムを記録した記録媒体
JP4539318B2 (ja) * 2004-12-13 2010-09-08 セイコーエプソン株式会社 画像情報の評価方法、画像情報の評価プログラム及び画像情報評価装置
JP2008276115A (ja) 2007-05-07 2008-11-13 Olympus Imaging Corp デジタルカメラ及びフォーカス制御プログラム
JP5347845B2 (ja) 2009-08-28 2013-11-20 オムロン株式会社 画像処理プログラムおよび画像処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5940296A (en) * 1995-11-06 1999-08-17 Medar Inc. Method and system for interactively developing a graphical control-flow structure and associated application software for use in a machine vision system
US20110072349A1 (en) * 2003-02-05 2011-03-24 Paul Delano User manipulation of video feed to computer screen regions
CN102795003A (zh) * 2011-05-20 2012-11-28 佳能株式会社 图像处理设备和图像处理设备的控制方法
US20130195345A1 (en) * 2012-02-01 2013-08-01 Seiko Epson Corporation Inspecting apparatus, robot apparatus, inspecting method, and inspecting program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113056351A (zh) * 2018-11-01 2021-06-29 佳能株式会社 外部输入设备、机器人***、机器人***的控制方法、控制程序及记录介质
CN113196041A (zh) * 2018-12-13 2021-07-30 富士胶片株式会社 损伤图制作辅助装置、损伤图制作辅助方法、损伤图制作辅助程序及损伤图制作辅助***
US11959862B2 (en) 2018-12-13 2024-04-16 Fujifilm Corporation Damage figure creation supporting apparatus, damage figure creation supporting method, damage figure creation supporting program, and damage figure creation supporting system
CN113196041B (zh) * 2018-12-13 2024-06-11 富士胶片株式会社 损伤图制作辅助装置、损伤图制作辅助方法、损伤图制作辅助程序及损伤图制作辅助***
CN111273783A (zh) * 2020-03-25 2020-06-12 北京百度网讯科技有限公司 数字人的控制方法及装置
CN111273783B (zh) * 2020-03-25 2023-01-31 北京百度网讯科技有限公司 数字人的控制方法及装置

Also Published As

Publication number Publication date
US10306149B2 (en) 2019-05-28
US20170142340A1 (en) 2017-05-18
EP3171329A1 (en) 2017-05-24

Similar Documents

Publication Publication Date Title
CN107040709A (zh) 图像处理装置、机器人***、机器人以及图像处理方法
CN102662229B (zh) 具有触摸屏的显微镜
CN105444691B (zh) 轮廓线测量装置以及机器人***
KR102196845B1 (ko) 정보 처리 장치 및 정보 처리 방법
JP6213662B2 (ja) 表面性状指標化装置、表面性状指標化方法及びプログラム
CN103988497B (zh) 一种创建空间书签的方法
JP5411049B2 (ja) 画像処理装置
CN107005641A (zh) 拍摄装置、电子设备以及程序
JP5719760B2 (ja) 欠陥分類装置
JP4747970B2 (ja) 画像処理装置
CN105269578A (zh) 指示装置以及机器人***
CN108846819B (zh) 激光切割参数获取方法及装置、电子设备、存储介质
US11833697B2 (en) Method of programming an industrial robot
CN102074031B (zh) 一种印刷电路板外观检查机的建标方法
CN107087150A (zh) 一种基于双目立体和光度立体的三维摄像方法、***及装置
US7706024B2 (en) Image processing apparatus
US10562187B2 (en) Robot, robot control device, and robot system
JPWO2016152334A1 (ja) 測色装置および測色方法
CN108476295A (zh) 离焦图像组合
CN105378573A (zh) 信息处理装置、检查范围的计算方法以及程序
CN106476015A (zh) 机器人、控制装置以及机器人***
JP6140255B2 (ja) 画像処理装置及び画像処理方法
JP7154084B2 (ja) 三次元形状測定装置および三次元形状測定プログラム
JP2007102270A (ja) 画像処理装置
CN109903128A (zh) 3d智能试衣服***及使用方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170811