CN107251540A - 基于聚类的照片导航 - Google Patents
基于聚类的照片导航 Download PDFInfo
- Publication number
- CN107251540A CN107251540A CN201580076700.1A CN201580076700A CN107251540A CN 107251540 A CN107251540 A CN 107251540A CN 201580076700 A CN201580076700 A CN 201580076700A CN 107251540 A CN107251540 A CN 107251540A
- Authority
- CN
- China
- Prior art keywords
- image
- capture
- processing equipments
- panorama
- adjacent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Navigation (AREA)
Abstract
该技术涉及导航基于在捕获图像时展现的公共模式而被组织到聚类的图像。例如,可以确定满足预定模式的捕获的图像集。捕获的图像集的集中的图像可以根据预定模式被分组到一个或多个聚类。可以接收显示一个或多个聚类的第一聚类的请求,并且作为响应,可以选择来自所请求的第一聚类的第一捕获的图像。然后可以显示所选择的第一捕获的图像。
Description
背景技术
已经使用了组织和导航多个用户捕获的各种场景的图像的许多方法。在一些示例中,可以将由多个用户捕获的相同场景的图像组合到组。这样的组可以包含从与捕获的场景相关的许多角度和距离拍摄的各种数量的捕获的图像。然后,用户可以在单个组内查看图像,而不考虑捕获的图像的位置。因此,当前组织和导航图像的方法导致图像的不可预测的显示,这对用户可能是不直观的并且令人不快的。
发明内容
本公开内容内的实施例一般涉及呈现图像。一个方面包括用于在设备上组织和导航图像聚类的方法。可以由一个或多个处理设备访问捕获的图像集。一个或多个处理设备然后可以检测捕获的图像集内的图像是否满足预定模式;根据所检测到的预定模式将捕获的图像集中的图像分组到一个或多个聚类;接收显示捕获的图像的一个或多个聚类中的第一聚类的请求;以及响应于请求,选择来自第一聚类的第一捕获的图像以显示。可以提供来自第一聚类的第一捕获的图像以显示。
一个实施例提供了用于组织和导航图像聚类的***。该***包括一个或多个计算设备;以及存储指令的存储器,指令可由一个或多个计算设备执行。指令包括:由一个或多个计算设备访问捕获的图像集;由一个或多个计算设备检测捕获的图像集内的图像是否满足预定模式;以及由一个或多个计算设备根据所检测到的预定模式将捕获的图像集中的图像分组到一个或多个聚类;由一个或多个计算设备接收显示捕获的图像的一个或多个聚类中的第一聚类的请求;由一个或多个计算设备响应于该请求而选择来自第一聚类的第一捕获的图像以显示;以及提供来自第一聚类的第一捕获的图像以显示。
一个实施例提供了用于组织和导航图像聚类的***。该***包括一个或多个计算设备;以及存储指令的存储器,指令可由一个或多个计算设备执行。指令包括:由一个或多个计算设备访问捕获的图像集;由一个或多个计算设备检测捕获的图像集内的图像是否满足预定模式;由一个或多个计算设备根据所检测到的预定模式将捕获的图像集中的图像分组到一个或多个聚类;由一个或多个计算设备接收显示捕获的图像的一个或多个聚类中的第一聚类的请求;由一个或多个计算设备响应于该请求而选择来自第一聚类的第一捕获的图像以显示;提供来自第一聚类的第一捕获的图像以显示;由一个或多个计算设备从第一聚类内的图像确定在第一捕获的图像的预定接近度内的相邻捕获图像集;由一个或多个处理设备从相邻捕获图像集指派第一捕获的图像的一个或多个相邻图像;以及由一个或多个处理设备响应于点击或拖动事件而提供一个或多个相邻图像。
附图说明
图1是根据本公开的方面的示例***的功能图。
图2是图1的示例***的示意图。
图3是根据本公开的方面的以全景模式捕获图像的计算设备的示例。
图4是根据本公开的方面的以平移模式捕获图像的计算设备的示例。
图5是根据本公开的方面的以轨道模式捕获图像的计算设备的示例。
图6A是根据本公开的方面的全景模式聚类集合的示例。
图6B是根据本公开的方面的视角阈值的示例。
图7A是根据本公开的方面的捕获的平移图像的初始候选集的示例。
图7B是根据本公开的方面的角度阈值的示例。
图8是根据本公开的方面的轨道模式聚类的示例。
图9是根据本公开的方面的在聚类内导航的计算设备的示例。
图10是根据本公开的方面的视角的示例。
图11是根据本公开的方面的在聚类之间导航的计算设备的示例。
图12是根据本公开的方面的流程图。
具体实施方式
该技术涉及导航在捕获图像时基于展现的公共模式而被组织到聚类的图像。例如,可以由一个或多个计算设备来分析由多个用户捕获的各种场景的图像,以将捕获的图像组织到与相同场景对应的聚类,并且当组合时满足至少一个公共模式。然后,用户可以选择聚类,并且作为响应,所选择的聚类内的捕获的图像可以显示在一个或多个计算设备中的一个上。当用户平移通过聚类内的捕获的图像时,显示器可以根据指派给聚类内的图像的公共模式切换到另一捕获的图像。另外,用户可以在观看不同的聚类之间切换。因此,向用户提供了可以模仿多个用户通常捕获正在显示的场景的方式的平滑导航体验。
来自一个或多个用户的捕获的图像也可以组合到模式。例如,可以由一个或多个计算设备,根据捕获的图像在组合时满足的模式的类型,将给定场景的捕获的图像分组到聚类。在这方面,来自一个或多个用户的捕获的图像集可以被放置在全景模式聚类、平移模式聚类和轨道模式聚类中的一个或多个中。
为了确定全景模式聚类,可以确定表示相机从该处捕获第一捕获的图像的坐标的全景中心。可以通过使用第一全景圆内的每个附加捕获的图像对第一全景中心的坐标迭代地进行平均来找到更新的全景中心。然后可以计算最终的全景圆,以包括尽可能多的在第一全景圆内的捕获的图像。可以通过对不落在确定的最终全景圆内的捕获的图像反复执行上述过程来发现附加的最终全景圆。
为了确定平移模式聚类,可以对于每个捕获的图像计算和关联阈值角度内的最近相邻图像的缩小的候选集。可以扩展缩小的候选集以创建处于相关联的捕获的图像的角度阈值内的捕获的图像的潜在平移模式聚类。可以通过保持满足阈值判据的潜在平移模式聚类来确定平移模式聚类。在这方面,可以忽略包含小于阈值数量的捕获的图像的潜在平移模式聚类。可以使得包含至少阈值数量的捕获的图像的潜在平移模式聚类成为平移模式聚类。
为了确定轨道模式聚类,可以发现或识别针对一个或多个轨道对象中心并且围绕轨道对象中心提供平滑平移的捕获的图像。例如,可以比较捕获的图像以确定具有重叠图像数据的捕获的图像的组。包含重叠图像数据的捕获的图像的组被视为相邻图像。轨道对象中心是通过将每个捕获的图像视为从捕获的图像的位置发出的并且以在捕获的图像被捕获时相机中心指向的方向的射线来确定的。然后可以找到相邻图像的射线之间的交点。然后,聚类算法可以由确定具有足够水平的交叉点的区域来找到轨道对象中心。
对于每个轨道对象中心,包含与位于轨道对象中心的场景的一部分相关联的图像数据的捕获的图像可以与该轨道对象中心相关联。可以分析包含至少阈值数量的捕获的图像的捕获的图像的组,以确定每组图像内的捕获的图像所覆盖的视角是否包含大于阈值角度值的视角。满足设定阈值的所有组图像都可以被视为轨道模式聚类。
可以在计算设备的显示器上观看所确定的聚类内的一个或多个捕获的图像。在这方面,用户可以在不同的聚类之间或在单个聚类内进行导航。例如,可以在显示器上提供表示当前未被查看的聚类的点击目标,以使用户能够在聚类之间切换。此外,可以向用户提供表示当前查看的聚类内的相邻图像的拖动目标,以使用户能够在当前查看的聚类内导航。
可以基于当前选择的聚类来确定点击目标。例如,用户可以选择要查看的初始聚类。初始聚类内的捕获的图像可以显示在计算设备上。在初始聚类之外当前显示的捕获的图像的一个或多个相邻的捕获的图像可以被指派为一个或多个点击目标。
为了使用拖动目标在全景模式聚类内提供导航,可以对于当前聚类内当前显示的捕获的图像最接近的每个捕获的图像计算拖动目标成本。对于每个拖动矢量方向,可以将具有最低拖动目标成本的图像成为沿该拖动矢量方向的拖动目标。因此,当用户沿着拖动矢量方向平移显示器时,可以在计算设备上显示具有最低拖动目标成本的拖动目标。
为了在轨道和平移模式聚类内导航,可以找到或识别当前显示的捕获的图像的右侧和左侧的相邻捕获的图像。可以将相邻图像的视角与当前显示的图像的视角进行比较,以确定图像是否位于当前显示的图像的左侧或右侧。然后可以分别使得左或右的目标拖动距离最接近的相邻图像成为左右拖动目标。因此,当用户将显示器向左或向右平移时,可以分别在计算设备上显示左或右拖动目标。
本文描述的特征可以允许模拟用户通常将如同在那里观看场景的方式的平滑导航体验。通过这样做,用户可以体验可预测的导航体验,其提供场景的自然视图。此外,当导航场景的大组和小组的捕获的图像时,导航体验将是一致的。
示例***
图1和图2包括其中可以实现上述特征的示例***100。不应将其视为限制本公开的范围或本文所述特征的有用性。在该示例中,***100可以包括计算设备110、120、130和140以及存储***150。每个计算设备110可以包含通常存在于通用计算设备中的一个或多个处理器112、存储器114和其它组件。计算设备110、120、130和140中的每一个的存储器114可以存储由一个或多个处理器112可访问的信息,包括可由一个或多个处理器112执行的指令116。
存储器还可以包括可由处理器检索、操纵或存储的数据118。存储器可以是能够存储处理器可访问的信息的任何非暂时类型,诸如硬盘驱动器、存储卡、ROM、RAM、DVD、CD-ROM、可写入、和只读存储器。
指令116可以是由一个或多个处理器直接(诸如机器代码)或间接地执行(诸如脚本)的任何指令集。在这方面,术语“指令”、“应用”、“步骤”和“程序”在本文中可以互换使用。指令可以以对象代码格式存储以由处理器直接处理,或以任何其它计算设备语言,包括根据需要或预先编译的独立源代码模块的脚本或集合。下面更详细地说明指令的功能、方法和例程。
可以根据指令116由一个或多个处理器112检索、存储或修改数据118。例如,尽管本文描述的主题不受任何特定数据结构限制,但是数据可以存储在计算机寄存器中、作为具有许多不同字段和记录的表存储在关系数据库中、或XML文档。数据还可以以任何计算设备可读格式格式化,例如但不限于二进制值、ASCII或Unicode。此外,数据可以包括足以识别相关信息的任何信息,诸如数字、描述性文本、专有代码、指针、对存储在诸如在其它网络位置处的其它存储器中的数据的引用,或由函数使用以计算相关数据的信息。
一个或多个处理器112可以是任何常规处理器,诸如市售CPU。或者,处理器可以是专用组件,诸如专用集成电路(“ASIC”)或其它基于硬件的处理器。尽管不是必需的,但是一个或多个计算设备110可以包括专门的硬件组件来执行特定的计算过程,诸如更快或更有效率地解码视频、匹配视频帧与图像、使视频畸变、编码畸变的视频。
尽管图1功能性地将处理器112、存储器114和计算设备110的其它元件示为在相同的块内,但是处理器、计算机、计算设备或存储器实际上可以包括可能在或不在同一物理外壳内存储的多个处理器、计算机、计算设备或存储器。例如,存储器可以是位于与计算设备110不同的外壳中的硬盘驱动器或其它存储介质。因此,对处理器、计算机、计算设备或存储器的引用将被理解为包括对可能并行操作或不并行操作的处理器、计算机、计算设备或存储器的集合的引用。例如,计算设备110可以包括作为负载平衡的服务器场、分布式***等操作的服务器计算设备。此外,尽管下面描述的一些功能被指示为在具有单个处理器的单个计算设备上发生,但是各种本文描述的主题的各方面可以由多个计算设备例如通过网络160传送信息来实现。
每个计算设备110可以在网络160的不同节点处,并能够直接和间接地与网络160的其它节点进行通信。尽管图1-2中仅描绘了几个计算设备,但是应当理解,典型的***可以包括大量连接的计算设备,其中每个不同的计算设备位于网络160的不同节点处。本文描述的网络160和中间节点可以使用各种协议和***互连,使得网络可以是互联网、万维网、特定内部网、广域网或本地网络的一部分。网络可以利用诸如以太网、WiFi和HTTP的标准通信协议、一个或多个公司专有的协议、以及上述各种组合。虽然如上所述发送或接收信息时获得了某些优点,但是本文描述的主题的其它方面不限于任何特定的信息传输方式。
作为示例,每个计算设备110可以包括能够经由网络与存储***150以及计算设备120、130和140进行通信的web服务器。例如,服务器计算设备110中的一个或多个可以使用网络160来在诸如计算设备120、130和140的显示器122、132或142的显示器上向诸如用户220、230或240的用户传送和呈现信息。在这方面,计算设备120、130和140可以被视为客户端计算设备,并且可以执行本文所描述的全部或一些特征。
使用如上所述的一个或多个处理器、存储器和指令,可以与服务器计算设备110类似地配置每个客户端计算设备120、130和140。每个客户端计算设备120、130或140可以是指期望由用户220、230、240使用的个人计算设备,并且具有通常与个人计算设备结合使用的所有组件,诸如中央处理单元(CPU),存储数据和指令的存储器(例如,RAM和内部硬盘驱动器),诸如显示器122、132或142的显示器(例如,具有屏幕的监视器、触摸屏、投影仪、电视机或其它可操作以显示信息的设备),和用户输入设备124(例如,鼠标、键盘、触摸屏或麦克风)。客户端计算设备还可以包括用于记录视频流和/或捕获图像的相机、扬声器、网络接口设备以及用于将这些元件彼此连接的所有组件。
虽然客户端计算设备120、130和140可以各自包括全尺寸的个人计算设备,但是它们也可以替选地包括能够通过诸如互联网的网络与服务器无线地交换数据的移动计算设备。仅作为示例,客户端计算设备120可以是移动电话或能够经由互联网获得信息的诸如启用无线的PDA、平板PC或上网本的设备。在另一示例中,客户端计算设备130可以是头戴式计算***。用户可以例如通过使用小型键盘、小键盘、麦克风,利用照相机使用视觉信号、或触摸屏来输入信息,与客户端计算设备进行交互。
与存储器114一样,存储***150可以是能够存储服务器计算设备110可访问的信息的任何类型的计算机化存储装置,诸如硬盘驱动器、存储器卡、ROM、RAM、DVD、CD-ROM、可写、和只读存储器。此外,存储***150可以包括分布式存储***,其中数据存储在可以物理上位于相同或不同地理位置的多个不同存储设备上。如图1所示,存储***150可以经由网络160连接到计算设备,和/或可以直接连接到计算设备110、120、130和140中的任何(未示出)。
示例方法
现在将描述根据本公开的各个方面的操作。应当理解,以下操作不必以下面描述的精确顺序执行。相反,各种步骤可以以相反的顺序处理或同时处理或根本不处理。
可以由一个或多个计算设备分析由多个用户捕获的各种场景的图像,以将捕获的图像组织到对应于相同场景的聚类,并且当组合时满足至少一个公共模式。用户可以根据三个公共模式之一捕获图像。用户可以通过执行全景模式、平移模式或轨道模式来捕获具有相机的场景的图像。例如,用户可以在转动照相机时站在单个位置并且捕获场景的多个图像,因此执行全景模式。诸如使用客户端计算设备120的用户220的用户可以在捕获场景的图像时使计算设备以弧线运动进行移动。图3示出了用户通过摇摄配备有相机的客户端计算设备120来捕获场景302的示例。在这方面,计算设备120可以围绕轴线301旋转以旋转配备有相机的客户端计算设备120相对于场景302的视野。随着计算设备120旋转通过不同的视野311至314,可以捕获场景302的不同部分。
用户还可以当在线性方向上移动时捕获场景的多个图像,从而执行平移模式。图4示出了当捕获场景402时诸如用户220的用户可以如何沿着轴线401以线性运动来移动计算设备120的示例。在这方面,计算设备120可以沿轴线401移动以将配备有相机的客户端计算设备120的视野相对于场景402切换。随着计算设备120沿着轴线401移动,可以捕获不同的视场411至414。
此外,用户可以在围绕场景的圆方向上移动时捕获场景的多个图像,因此执行轨道模式。图5示出了诸如用户220的用户可以如何围绕场景521在圆方向上移动计算设备120的示例。在这方面,用户220可以围绕场景521沿着从523到533的路径移动计算设备120。当计算设备120沿着路径移动时,可以捕获不同的视场511至521。
来自一个或多个用户的捕获的图像也可以组合到模式。例如,可以由一个或多个计算设备基于捕获的图像在组合时满足的模式的类型,将给定场景的捕获的图像分组到聚类。在这方面,来自一个或多个用户的一组捕获的图像可以被放置在全景模式聚类、平移模式聚类和/或轨道模式聚类中。在分组捕获的图像时,可能会省略高度维度(海拔),因为可能在小范围高度内获取多组照片。因此,捕获的图像的分组可以基于表示横向和纵向平面的二维平面。
为了确定全景模式聚类,确定表示相机从此处捕获第一捕获的图像的坐标的第一全景中心。在这方面,如图6A所示,可以由计算具有诸如约3米或更多或更小的设定半径的第一全景中心周围的圆距离来围绕第一全景中心找到第一全景圆。在该示例中,可以在其中捕获第一捕获的图像611的(X1,Y1)处找到第一全景中心A。可以通过对第一全景中心A的坐标与第一全景圆605内的每个附加捕获的图像613和615迭代地求平均来找到更新的全景中心。第一全景圆605包括来自(X1,Y1)处的捕获点A和(X2,Y2)处的捕获点C的捕获的图像。可以执行迭代,直到更新的全景中心坐标收敛,或直到已经执行了设定阈值的迭代,诸如30次或更多次或更少次迭代。
然后可以在更新的全景中心坐标周围找到最终的全景圆,以便尽可能包括在第一全景圆内的捕获的图像。在图6A的示例中,可以确定最终的全景圆607以包括在捕获点A处捕获的图像611和615以及在捕获点C处捕获的图像613。可以通过对不落在确定的最终全景圆内的捕获的图像,诸如在(X3,Y3)处的点B捕获的图像,迭代地执行上述过程,来发现附加的最终全景圆609。可以执行该过程,直到所有捕获的图像在最终全景圆内。在某些情况下,最终的全景圆可能只包括单个捕获的图像。
可以通过保持满足某些阈值判据的最终全景圆来确定全景模式聚类。在这方面,可以忽略包含小于阈值数量的捕获的图像(例如8个或更多或更少)的最终全景圆。此外,可以分析至少包含阈值数量的捕获的图像的任何最终全景圆,以确定每个最终全景圆内的捕获的图像覆盖的视角即视场的总角度是否包含大于阈值角度值的视角,如图6B所示。在图6B的示例中,可以确定分别在两个最终全景圆607和609内捕获的图像X2和X3之间的视角以看它们是否满足阈值角度值。满足上述判据中的至少一个或两个的所有最终全景圆可以被视为全景模式聚类。
为了确定平移模式聚类,可以确定在彼此的设定角度阈值内的捕获的图像。例如,如图7A所示,对于第一捕获的图像,可以确定相对于场景沿着水平轴线在第一捕获的图像的左侧和右侧最接近的相邻捕获的图像的初始候选集。在图7A的示例中,可以确定第一捕获的图像A以及初始候选集内的捕获的图像(这里图像B至E),当捕获的图像时相机中心指向的方向。如图7B所示,可以丢弃初始候选集内的其方向处于与第一捕获的图像的角度大于例如约36度或更多或更小的阈值角度的每个捕获的图像,使得剩余图像是从大致相同的角度捕获的那些。在这方面,第一捕获的图像A可以处于90度角,X1,而图像C可以处于45度角,X2。因此,由于差大于设定角度阈值,可以从初始候选集中丢弃图像C。然后可以将初始候选集减少为包括预定数量的缩小的候选集,诸如最接近第一捕获的图像的初始候选集的六个或更多或更少的捕获的图像。因此,可以为每个捕获的图像计算和关联缩小的候选集。
可以扩展缩小的候选集以创建潜在的平移模式聚类。例如,从第一捕获的图像开始,可以分析与第一捕获的图像相关联的缩小候选集内的每个捕获的图像。处于设定角度阈值内并且位于相对于场景沿着水平轴线的第一捕获的图像的左侧的捕获的图像可以被组合到潜在平移模式聚类。如果与第一捕获的图像相关联的缩小候选集内的所有捕获的图像满足设定角度阈值或处于设定角度阈值内,则也可以分析与第一捕获的图像的左侧紧邻的捕获的图像相关联的相邻候选集内的捕获的图像。满足角度阈值的相邻候选集的每个捕获的图像可以被放置到潜在平移聚类中。例如,可以迭代地分析与当前分析的捕获的图像的左侧紧邻的捕获的图像相关联的相邻候选集,从最接近当前分析的图像的图像开始,以确定所捕获的图像是否满足角度阈值或者处于当前分析的图像的角度阈值内。这可以继续,直到相邻候选集内的捕获的图像之一不满足或不在当前分析的图像的角度阈值内。然后可以将满足当前分析的图像的角度阈值的所有分析的捕获的图像包括在潜在平移模式聚类中。然后可以执行相同的处理以在第一捕获的图像的右侧找到图像。
可以通过保持满足附加阈值判据的潜在平移模式聚类来确定平移模式聚类。在这方面,可以忽略包含小于阈值数量(诸如8个或更多或更少)的捕获的图像的潜在平移模式聚类。包含至少阈值数量的捕获的图像的潜在平移模式聚类可以被视为平移模式聚类。
为了确定轨道模式聚类,发现指向一个或多个轨道对象中心并且围绕轨道对象中心提供平滑平移的捕获的图像。例如,可以比较捕获的图像以确定具有重叠图像数据的捕获的图像的组。可以使用计算机视觉算法,诸如特征检测算法和来自运动的结构(SfM)算法,找到重叠图像数据。在这方面,可以确定每个捕获的图像的特征点。然后可以使用SfM算法来比较每个捕获的图像的特征点,以确定是否这些点中的任何是公共的,这意味着它们包含重叠图像数据。包含重叠图像数据的捕获的图像的组被视为相邻图像。
如图8所示,可以通过将每个捕获的图像视为从捕获的图像的位置发出的、并且在当捕获的图像被捕获时相机中心指向的方向上的射线,来确定轨道对象中心。在该示例中,然后可以找到相邻图像A到E的射线之间的交点。然后可以通过确定具有足够水平的相交点803的区域,使用聚类算法,以找到轨道对象中心。在一个示例中,可以使用确定用交叉射线密集填充的区域的中心点的K均值聚类算法来确定轨道对象中心坐标。
可以通过将捕获的图像与轨道对象中心相关联来确定轨道模式聚类。例如,如图8所示,对于每个轨道对象中心,可以将包含与位于轨道对象中心803的场景801的一部分相关联的图像数据的捕获的图像与该轨道对象中心相关联。然后可以将与相应轨道对象中心803相关联的捕获的图像A、B、C和D分组在一起。在一个示例中,可以通过使用不相交集数据结构将与相应轨道对象中心相关联的捕获的图像组合在一起,以合并具有平滑变换的捕获的图像。可以通过找到两个捕获的图像中的第一和第二图像到相关联的轨道对象中心之间的距离来确定平滑变换。如果两个捕获的图像之间的距离差不大于更接近轨道中心的捕获的图像的到轨道中心距离的约一半到约四分之三,则两个捕获的图像可以被认为具有平滑变换。在这方面,可以将多组捕获的图像与轨道对象中心相关联。
可以通过保持满足某些阈值判据的捕获的图像的组来确定轨道模式聚类。在这方面,可以忽略包含小于阈值数量(诸如8个或更多或更少)的捕获的图像的捕获的图像的组。可以分析包含至少阈值数量的捕获的图像的捕获的图像的组,以确定每组图像内的捕获的图像所涵盖的视角是否包含大于阈值的视角。满足上述阈值判据中的至少一个或两个的所有图像组可以被视为轨道模式聚类。
可以在计算设备的显示器上观看所确定的聚类内的一个或多个捕获的图像。在这方面,用户可以在不同的聚类之间或在单个聚类内进行导航。例如,可以在显示器上提供表示当前未被查看的聚类的点击目标,以使用户能够在聚类之间切换。可以通过使用鼠标点击目标或在触摸屏上轻拍来激活点击目标。此外,可以向用户提供表示当前查看的聚类内的相邻图像的拖动目标,以使用户能够在当前查看的聚类内导航。可以通过使用鼠标点在目标上拖动或在触摸屏上轻拍来激活拖动目标。
可以基于当前选择的聚类来确定点击目标。例如,用户可以选择要查看的初始聚类。可以在计算设备上显示初始聚类内的捕获的图像。如图11所示,可以将初始聚类之外的当前显示的捕获的图像的一个或多个相邻捕获的图像指派为一个或多个点击目标。在这方面,如果一个或多个相邻捕获的图像是从比当前显示的捕获的图像1140更接近场景的位置捕获的,则可以将该相邻图像指派为点击目标1130。如果一个或多个相邻捕获的图像是从更接近场景的位置捕获的,则可以使捕获的图像1120的一个或多个相邻捕获的图像内的最接近当前显示的捕获的图像成为点击目标1130。因此,当用户选择点击目标1130时,计算设备120的显示器122从当前显示的捕获的图像1120切换到指派的与该点击目标相关联的最近的捕获的图像。每次用户在聚类和/或显示的捕获的图像之间切换时,可以确定新的点击目标。
为了使用拖动目标在全景模式聚类内提供导航,可以对当前聚类内最接近当前显示的捕获的图像的每个捕获的图像计算拖动目标成本。在这方面,拖动目标成本可以包括各种成本项。这些成本项可以与当前显示的捕获的图像和与当前显示的捕获的图像最接近的捕获的图像之间的像素的平移和旋转“流”的流场相关。也可以使用不基于流的其它成本项,例如重叠成本。在一个示例中,目标图像应尽可能与参考图像重叠。因此,重叠成本可以包括两个成本值:(1)参考图像的多少与目标图像重叠,以及(2)目标图像的多少与参考图像重叠。随着重叠的增加,重叠成本可能会降低。因此,该成本值可以是反值。对于每个捕获的图像,可以将这些成本复合以为每个捕获的图像创建拖动目标成本。
在一个示例中,如图9所示,对每个拖动矢量方向,具有最低拖动目标成本的图像可以成为沿着该拖动矢量方向的拖动目标。因此,当用户910沿着拖动矢量方向930摇计算设备120的显示器122时,当前显示的捕获的图像920可以以最低拖动目标成本切换到拖动目标。
为了在轨道和平移模式聚类内导航,找到当前显示的捕获的图像的左侧和左侧的相邻捕获的图像。例如,可以确定当前显示的聚类的中心点。返回到图10,可以通过计算从每个图像到中心点的视角来找到当前显示的捕获的图像A的视角X1和一个或多个相邻捕获的图像B和C。可以丢弃具有大大偏离当前显示图像A的视角X1例如约30度的视角的图像。可以将相邻图像B和C的视角X2和X3与当前显示图像A的视角X1进行比较,以确定图像是否位于当前显示的图像的左侧或右侧。
可以使得轨道和平移模式聚类内的相邻图像相对于当前显示的图像成为左或右拖动目标。在这方面,可以使得最接近目标拖动距离的相邻图像成为左或右拖动目标。目标拖动距离可以在约0和30度之间,或更多或更少。可以分别使得最接近目标拖动距离的相邻图像成为左和右拖动目标,该目标拖动距离被计算为在左或在右的相应的每个相邻图像和当前显示的图像之间的视角差。因此,当用户向左或向右摇显示器时,可以分别在计算设备上显示左或右拖动目标。
图12的流程图1200是可以由诸如客户端计算设备120、130或140的一个或多个计算设备执行的上述某些方面的示例流程图。应当理解,本文讨论的步骤是仅仅是示例;步骤可以以不同的顺序发生,可以添加步骤,并且可以省略步骤。在该示例中,在框1202处,可以访问捕获的图像集。一个或多个计算设备然后可以检测所捕获的图像集内的图像是否满足预定模式,如框1204所示。基于检测到的模式,图像可以被分组到一个或多个聚类,如框1206所示。如框1208所示,正接收显示一个或多个聚类的第一聚类的请求。如框1210所示,可以选择第一捕获的图像以显示。然后如框1212所示,可以提供所选择的第一捕获的图像以显示。
虽然已经参考特定实施例描述了本技术,但是应当理解,这些实施例仅仅是本技术的原理和应用的说明。因此,应当理解,可以对说明性实施例进行许多修改,并且在不脱离由所附权利要求限定的本技术的精神和范围的情况下,可以设计其它布置。
Claims (20)
1.一种用于组织和导航图像聚类的方法,包括:
由一个或多个处理设备访问捕获的图像集;
由所述一个或多个处理设备检测所述捕获的图像集内的图像是否满足预定模式;以及
由所述一个或多个处理设备根据所检测到的预定模式将所述捕获的图像集中的所述图像分组到一个或多个聚类;
由所述一个或多个处理设备接收显示捕获的图像的所述一个或多个聚类中的第一聚类的请求;
由所述一个或多个处理设备响应于所述请求而选择来自所述第一聚类的第一捕获的图像以显示;以及
提供来自所述第一聚类的所述第一捕获的图像以显示。
2.根据权利要求1所述的方法,其中,所述预定模式是全景模式、轨道模式和平移模式中的一个。
3.根据权利要求1所述的方法,进一步包括:
由所述一个或多个处理设备从所述第一聚类内的图像确定在所述第一捕获的图像的预定接近度内的相邻捕获图像集;
由所述一个或多个处理设备从所述相邻捕获图像集中指派所述第一捕获的图像的一个或多个相邻图像;以及
由所述一个或多个处理设备响应于点击或拖动事件而提供所述一个或多个相邻图像。
4.根据权利要求1所述的方法,其中,当所述预定模式是全景模式时,并且其中,检测所述捕获的图像集内的所述图像是否满足所述预定模式包括:
由所述一个或多个处理设备识别所述捕获的图像集中的每个可能的全景圆,其中,每个可能的全景中心与所述捕获的图像集的子集相关联并具有所述捕获的图像的子集的视角;以及
去除所述可能的全景圆中其中满足以下的任何全景圆:(i)所述捕获的图像的子集的数量少于预定数量,以及(ii)所述视角小于预定角度。
5.根据权利要求4所述的方法,其中,识别每个可能的全景圆包括:
围绕所述捕获的图像中的一个图像的坐标设置初始全景圆;
通过对来自所述初始全景圆内的捕获的图像的坐标求平均,修正初始全景圆心坐标;
重复所述修正,直到已经发生阈值数量的修正或全景圆心坐标收敛到单个点;以及
围绕所修正的全景圆心坐标设置最终全景圆。
6.根据权利要求1所述的方法,其中,当所述预定模式是轨道模式时,并且其中,检测所述捕获的图像集内的所述图像是否满足所述预定模式包括:
由所述一个或多个处理设备对所述捕获的图像集中的每个图像识别从所述图像被捕获的位置发出的并且在当所述捕获的图像被拍摄时相机中心指向的方向上的射线;
由所述一个或多个处理设备计算每个射线之间的交点;
由所述一个或多个处理设备基于所述交点的密度确定轨道中心。
7.根据权利要求6所述的方法,其中,所述方法进一步包括:
对每个识别的轨道中心:
过滤出不包括所述轨道中心的图像;以及
将剩余图像划分成其中所述剩余图像在所述轨道中心周围具有平滑平移的组;以及
去除不包括至少预定数量的图像并且不满足阈值覆盖角度的组。
8.根据权利要求1所述的方法,其中,当所述预定模式是平移模式时,并且其中,检测所述捕获的图像集内的图像是否满足所述预定模式包括:
由所述一个或多个处理设备对所述捕获的图像集中的每个图像识别邻近的初始候选图像集;
由所述一个或多个处理设备对每个图像保留所述初始候选图像集中最接近所述图像定位的、并且在所述图像的视角的角度阈值内的候选图像。
9.根据权利要求3所述的方法,其中,针对全景模式从所述相邻捕获图像集中指派所述第一捕获的图像的一个或多个相邻图像包括:确定具有最低拖动目标成本的所述一个或多个相邻图像,其中,所述拖动目标成本通过以下计算:
确定拖动矢量方向;
保留在所述拖动矢量方向的方向上的所述一个或多个相邻图像的组;
由所述一个或多个处理设备识别所述第一捕获的图像与在所述一个或多个相邻图像的组中的所述一个或多个相邻图像中的每一个之间的重叠量;以及
选择具有最高重叠量的相邻图像。
10.根据权利要求3所述的方法,其中,针对轨道和平移模式从所述相邻捕获图像集中指派所述第一捕获的图像的一个或多个相邻图像包括:确定具有最接近预定目标距离的目标距离的所述一个或多个相邻图像,并且其中,所述相邻图像集中的每个捕获的图像的目标距离通过以下确定:
由所述一个或多个处理设备识别从所述图像被捕获的位置发出并且在相机指向的方向上的射线;
由所述一个或多个处理设备确定在所述第一捕获角度与所述相邻图像集中的每个捕获的图像之间的角度差;
由所述一个或多个处理设备基于所述角度差将所述相邻图像集中的每个捕获的图像分组到第一捕获的图像的左侧和右侧;以及
由所述一个或多个处理设备确定目标距离。
11.一种用于组织和导航图像聚类的***,包括:
一个或多个计算设备;以及
存储器,所述存储器存储指令,所述指令能由所述一个或多个计算设备执行;
其中,所述指令包括:
由一个或多个计算设备访问捕获的图像集;
由所述一个或多个计算设备检测所述捕获的图像集内的图像是否满足预定模式;以及
由所述一个或多个计算设备根据所检测到的预定模式将所述捕获的图像集中的所述图像分组到一个或多个聚类;
由所述一个或多个计算设备接收显示捕获的图像的所述一个或多个聚类中的第一聚类的请求;
由所述一个或多个计算设备响应于所述请求而选择来自所述第一聚类的第一捕获的图像以显示;以及
提供来自所述第一聚类的所述第一捕获的图像以显示。
12.根据权利要求11所述的***,其中,所述预定模式是全景模式、轨道模式和平移模式中的一个。
13.根据权利要求11所述的***,进一步包括:
由所述一个或多个处理设备从所述第一聚类内的图像确定在所述第一捕获的图像的预定接近度内的相邻捕获图像集;
由所述一个或多个处理设备从所述相邻捕获图像集中指派所述第一捕获的图像的一个或多个相邻图像;以及
由所述一个或多个处理设备响应于点击或拖动事件而提供所述一个或多个相邻图像。
14.根据权利要求1所述的***,其中,当所述预定模式是全景模式时,并且其中,检测所述捕获的图像集内的所述图像是否满足所述预定模式包括:
由所述一个或多个处理设备识别所述捕获的图像集中的每个可能的全景圆,其中,每个可能的全景中心与所述捕获的图像集的子集相关联并具有所述捕获的图像的子集的视角;以及
去除所述可能的全景圆中其中满足以下的任何全景圆:(i)所述捕获的图像的子集的数量少于预定数量,以及(ii)所述视角小于预定角度。
15.根据权利要求14所述的***,其中,识别每个可能的全景圆包括:
围绕所述捕获的图像中的一个图像的坐标设置初始全景圆;
通过对来自所述初始全景圆内的捕获的图像的坐标求平均,修正初始全景圆心坐标;
重复所述修正,直到已经发生阈值数量的修正或全景圆心坐标收敛到单个点;以及
围绕所修正的全景圆心坐标设置最终全景圆。
16.根据权利要求11所述的***,其中,当所述预定模式是轨道模式时,并且其中,检测所述捕获的图像集内的所述图像是否满足所述预定模式包括:
由所述一个或多个处理设备对所述捕获的图像集中的每个图像识别从所述图像被捕获的位置发出的并且在当所述捕获的图像被拍摄时相机中心指向的方向上的射线;
由所述一个或多个处理设备计算每个射线之间的交点;
由所述一个或多个处理设备基于所述交点的密度确定轨道中心。
17.根据权利要求16所述的***,其中,所述***进一步包括:
对每个识别的轨道中心:
过滤出不包括所述轨道中心的图像;以及
将剩余图像划分成其中所述剩余图像在所述轨道中心周围具有平滑平移的组;以及
去除不包括至少预定数量的图像并且不满足阈值覆盖角度的组。
18.根据权利要求11所述的***,其中,当所述预定模式是平移模式时,并且其中,检测所述捕获的图像集内的图像是否满足所述预定模式包括:
由所述一个或多个处理设备对所述捕获的图像集中的每个图像识别邻近的初始候选图像集;
由所述一个或多个处理设备对每个图像保留所述初始候选图像集中最接近所述图像定位的、并且在所述图像的视角的角度阈值内的候选图像。
19.一种用于组织和导航图像聚类的***,包括:
一个或多个计算设备;以及
存储器,所述存储器存储指令,所述指令能由所述一个或多个计算设备执行;
其中,所述指令包括:
由一个或多个计算设备访问捕获的图像集;
由所述一个或多个计算设备检测所述捕获的图像集内的图像是否满足预定模式;
由所述一个或多个计算设备根据所检测到的预定模式将所述捕获的图像集中的所述图像分组到一个或多个聚类;
由所述一个或多个计算设备接收显示捕获的图像的所述一个或多个聚类中的第一聚类的请求;
由所述一个或多个计算设备响应于所述请求而选择来自所述第一聚类的第一捕获的图像以显示;
提供来自所述第一聚类的所述第一捕获的图像以显示;
由所述一个或多个计算设备从所述第一聚类内的图像确定在所述第一捕获的图像的预定接近度内的相邻捕获图像集;
由所述一个或多个计算设备从所述相邻捕获图像集指派所述第一捕获的图像的一个或多个相邻图像;以及
由所述一个或多个计算设备响应于点击或拖动事件而提供所述一个或多个相邻图像。
20.根据权利要求19所述的***,其中,所述预定模式是全景模式、轨道模式和平移模式中的一个。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2015/075241 WO2016154808A1 (en) | 2015-03-27 | 2015-03-27 | Cluster based photo navigation |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107251540A true CN107251540A (zh) | 2017-10-13 |
CN107251540B CN107251540B (zh) | 2020-04-10 |
Family
ID=56974190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580076700.1A Active CN107251540B (zh) | 2015-03-27 | 2015-03-27 | 一种用于组织和导航图像聚类的方法和*** |
Country Status (8)
Country | Link |
---|---|
US (2) | US9740936B2 (zh) |
EP (1) | EP3275171A4 (zh) |
JP (1) | JP6505242B2 (zh) |
KR (1) | KR102056417B1 (zh) |
CN (1) | CN107251540B (zh) |
DE (1) | DE112015006075T5 (zh) |
GB (1) | GB2551667A (zh) |
WO (1) | WO2016154808A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3275171A4 (en) * | 2015-03-27 | 2018-11-21 | Google LLC | Cluster based photo navigation |
US10698558B2 (en) * | 2015-07-15 | 2020-06-30 | Fyusion, Inc. | Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity |
US20200151453A1 (en) * | 2018-11-08 | 2020-05-14 | International Business Machines Corporation | Reducing overlap among a collection of photographs |
CN110083732B (zh) * | 2019-03-12 | 2021-08-31 | 浙江大华技术股份有限公司 | 图片检索方法、装置及计算机存储介质 |
CN110414569B (zh) * | 2019-07-03 | 2022-04-08 | 北京小米智能科技有限公司 | 聚类实现方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1773493A (zh) * | 2004-11-10 | 2006-05-17 | 三星Techwin株式会社 | 搜索存储在数字存储装置中图像的方法 |
EP1990772A3 (en) * | 2007-05-09 | 2009-07-22 | Honeywell International Inc. | Object detection using cooperative sensors and video triangulation |
CN102347016A (zh) * | 2010-07-28 | 2012-02-08 | 佳能株式会社 | 用于显示图像的显示控制设备和显示控制方法 |
CN102474636A (zh) * | 2009-07-29 | 2012-05-23 | 伊斯曼柯达公司 | 调节立体图像对中的透视性和差异 |
CN104123339A (zh) * | 2014-06-24 | 2014-10-29 | 小米科技有限责任公司 | 图像管理方法及装置 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0991410A (ja) * | 1995-09-26 | 1997-04-04 | Canon Inc | パノラマ画像合成システム |
US6078701A (en) * | 1997-08-01 | 2000-06-20 | Sarnoff Corporation | Method and apparatus for performing local to global multiframe alignment to construct mosaic images |
WO2005099423A2 (en) * | 2004-04-16 | 2005-10-27 | Aman James A | Automatic event videoing, tracking and content generation system |
US6788333B1 (en) * | 2000-07-07 | 2004-09-07 | Microsoft Corporation | Panoramic video |
GB2373887A (en) * | 2001-03-28 | 2002-10-02 | Hewlett Packard Co | Context dependent operation, including power management, of a mobile computer |
US7594177B2 (en) * | 2004-12-08 | 2009-09-22 | Microsoft Corporation | System and method for video browsing using a cluster index |
US7580952B2 (en) * | 2005-02-28 | 2009-08-25 | Microsoft Corporation | Automatic digital image grouping using criteria based on image metadata and spatial information |
US7737995B2 (en) | 2005-02-28 | 2010-06-15 | Microsoft Corporation | Graphical user interface system and process for navigating a set of images |
US7904455B2 (en) | 2005-11-03 | 2011-03-08 | Fuji Xerox Co., Ltd. | Cascading cluster collages: visualization of image search results on small displays |
WO2007127814A2 (en) * | 2006-04-25 | 2007-11-08 | Google, Inc. | Identifying geo-located objects |
US20080118160A1 (en) | 2006-11-22 | 2008-05-22 | Nokia Corporation | System and method for browsing an image database |
GB0625455D0 (en) * | 2006-12-20 | 2007-01-31 | Mitsubishi Electric Inf Tech | Graph-based multiple panorama extraction from unordered image sets |
JP5034661B2 (ja) * | 2007-05-07 | 2012-09-26 | ソニー株式会社 | 画像管理装置、画像表示装置、撮像装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるプログラム |
US8335384B2 (en) * | 2007-09-27 | 2012-12-18 | JVC Kenwood Corporation | Apparatus for and method of processing image information to group image data pieces based on shooting intervals |
US8797348B2 (en) * | 2008-11-25 | 2014-08-05 | Sony Corporation | Image display apparatus, image display method, and information storage medium |
US20100231687A1 (en) * | 2009-03-16 | 2010-09-16 | Chase Real Estate Services Corporation | System and method for capturing, combining and displaying 360-degree "panoramic" or "spherical" digital pictures, images and/or videos, along with traditional directional digital images and videos of a site, including a site audit, or a location, building complex, room, object or event |
US20100250581A1 (en) * | 2009-03-31 | 2010-09-30 | Google Inc. | System and method of displaying images based on environmental conditions |
IL207116A (en) * | 2009-08-10 | 2014-12-31 | Stats Llc | Location tracking method and method |
KR20110052124A (ko) * | 2009-11-12 | 2011-05-18 | 삼성전자주식회사 | 파노라마 이미지 생성 및 조회 방법과 이를 이용한 휴대 단말기 |
US8571331B2 (en) * | 2009-11-30 | 2013-10-29 | Xerox Corporation | Content based image selection for automatic photo album generation |
US20120154548A1 (en) * | 2010-12-17 | 2012-06-21 | Microsoft Corporation | Left/right image generation for 360-degree stereoscopic video |
US8456467B1 (en) * | 2011-11-11 | 2013-06-04 | Google Inc. | Embeddable three-dimensional (3D) image viewer |
US20150029092A1 (en) * | 2013-07-23 | 2015-01-29 | Leap Motion, Inc. | Systems and methods of interpreting complex gestures |
US9819863B2 (en) * | 2014-06-20 | 2017-11-14 | Qualcomm Incorporated | Wide field of view array camera for hemispheric and spherical imaging |
EP3275171A4 (en) * | 2015-03-27 | 2018-11-21 | Google LLC | Cluster based photo navigation |
-
2015
- 2015-03-27 EP EP15886795.2A patent/EP3275171A4/en not_active Withdrawn
- 2015-03-27 GB GB1713806.6A patent/GB2551667A/en not_active Withdrawn
- 2015-03-27 US US14/779,500 patent/US9740936B2/en not_active Expired - Fee Related
- 2015-03-27 CN CN201580076700.1A patent/CN107251540B/zh active Active
- 2015-03-27 WO PCT/CN2015/075241 patent/WO2016154808A1/en active Application Filing
- 2015-03-27 KR KR1020177023248A patent/KR102056417B1/ko active IP Right Grant
- 2015-03-27 JP JP2017544300A patent/JP6505242B2/ja active Active
- 2015-03-27 DE DE112015006075.8T patent/DE112015006075T5/de active Pending
-
2017
- 2017-07-17 US US15/651,573 patent/US10769441B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1773493A (zh) * | 2004-11-10 | 2006-05-17 | 三星Techwin株式会社 | 搜索存储在数字存储装置中图像的方法 |
EP1990772A3 (en) * | 2007-05-09 | 2009-07-22 | Honeywell International Inc. | Object detection using cooperative sensors and video triangulation |
CN102474636A (zh) * | 2009-07-29 | 2012-05-23 | 伊斯曼柯达公司 | 调节立体图像对中的透视性和差异 |
CN102347016A (zh) * | 2010-07-28 | 2012-02-08 | 佳能株式会社 | 用于显示图像的显示控制设备和显示控制方法 |
CN104123339A (zh) * | 2014-06-24 | 2014-10-29 | 小米科技有限责任公司 | 图像管理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
GB201713806D0 (en) | 2017-10-11 |
GB2551667A (en) | 2017-12-27 |
EP3275171A4 (en) | 2018-11-21 |
US20160283826A1 (en) | 2016-09-29 |
DE112015006075T5 (de) | 2017-11-30 |
JP2018517312A (ja) | 2018-06-28 |
JP6505242B2 (ja) | 2019-04-24 |
KR102056417B1 (ko) | 2020-01-22 |
US9740936B2 (en) | 2017-08-22 |
EP3275171A1 (en) | 2018-01-31 |
US10769441B2 (en) | 2020-09-08 |
WO2016154808A1 (en) | 2016-10-06 |
KR20170132134A (ko) | 2017-12-01 |
US20180005036A1 (en) | 2018-01-04 |
CN107251540B (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11386616B2 (en) | Automated spatial indexing of images based on floorplan features | |
CN105830062B (zh) | 用于编码对象阵型的***、方法及设备 | |
CA2761187C (en) | Systems and methods for the autonomous production of videos from multi-sensored data | |
CN107251540A (zh) | 基于聚类的照片导航 | |
CN105898107B (zh) | 一种目标物体抓拍方法及*** | |
CN107341442A (zh) | 运动控制方法、装置、计算机设备和服务机器人 | |
JP6353175B1 (ja) | 視覚特徴を使用した画像の自動結合 | |
CN109035334A (zh) | 位姿的确定方法和装置、存储介质及电子装置 | |
US11734338B2 (en) | Image search in walkthrough videos | |
US11969651B2 (en) | Merging local maps from mapping devices | |
CN107430436A (zh) | 全景手势的自动检测 | |
CN113362441A (zh) | 三维重建方法、装置、计算机设备和存储介质 | |
US11961256B2 (en) | Method for indoor localization using deep learning | |
Ziegler | Real-time markerless tracking of objects on mobile devices | |
WO2024001849A1 (zh) | 视觉定位的位姿确定方法、装置以及电子设备 | |
WO2023152973A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2015102960A (ja) | 迷子判定装置、迷子判定方法およびコンピュータプログラム | |
CN114283454A (zh) | 位置关系映射模型的训练方法及相关装置 | |
AU2022213376A1 (en) | Systems and methods for image capture | |
CN114268771A (zh) | 视频查看方法、移动终端及计算机可读存储介质 | |
CN115115668A (zh) | 一种目标跟踪方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: Google limited liability company Address before: American California Applicant before: Google Inc. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |