TWI629150B - 使用行動機器人之物件觀察之電腦實施方法及系統 - Google Patents

使用行動機器人之物件觀察之電腦實施方法及系統 Download PDF

Info

Publication number
TWI629150B
TWI629150B TW105129390A TW105129390A TWI629150B TW I629150 B TWI629150 B TW I629150B TW 105129390 A TW105129390 A TW 105129390A TW 105129390 A TW105129390 A TW 105129390A TW I629150 B TWI629150 B TW I629150B
Authority
TW
Taiwan
Prior art keywords
objects
movement
time
criteria
determining
Prior art date
Application number
TW105129390A
Other languages
English (en)
Other versions
TW201722652A (zh
Inventor
彼得 艾爾分 安德森-斯普雷彻
Original Assignee
X開發有限責任公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by X開發有限責任公司 filed Critical X開發有限責任公司
Publication of TW201722652A publication Critical patent/TW201722652A/zh
Application granted granted Critical
Publication of TWI629150B publication Critical patent/TWI629150B/zh

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10366Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications
    • G06K7/10376Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being adapted for being moveable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06315Needs-based resource requirements planning or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Toxicology (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Accounting & Taxation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Finance (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Optics & Photonics (AREA)
  • Bioinformatics & Cheminformatics (AREA)

Abstract

本發明提供用於基於來自行動機器人之物件觀察產生一時空物件清單且基於該時空物件清單針對一或多個未來時間段判定用於該等行動機器人之監控參數之方法、裝置、系統及電腦可讀媒體。一些實施方案係關於使用該時空物件清單來判定當滿足一或多個特定準則時在該環境之一或多個區域中發生之物件之一移動量,及使用該判定來判定可用於將命令提供至該等行動機器人之一或多者之監控參數,該等命令在亦滿足該一或多個特定準則之未來時間段影響該等行動機器人之移動之一或多個態樣。

Description

使用行動機器人之物件觀察之電腦實施方法及系統
機器人可經程式化以執行各種任務,諸如(例如)自主或半自主導航、操縱物件(例如,重新定位一物件、更改一物件及/或拾起一物件且將其移動至一不同位置)、運送物件(不需要操縱該等物件)、監控環境條件、充當「輪上的視訊會議」等。
再者,已提出利用一機器人以偵測機器人之環境中之各種物件之位置之各種技術。舉例而言,一機器人可利用一或多個攝影機、雷射掃描器、深度感測器及/或其他感測器以偵測其環境中之物件之位置。然而,一或多個該等技術可遭受一或多個缺點。舉例而言,許多技術可能未利用來自一環境中之複數個行動機器人之物件觀察以產生實現環境中之物件之位置及/或定向之追蹤之一時空物件清單。另外及/或替代地,許多技術可能未採用與分析一時空物件清單以在一或多個未來時間段產生用於機器人之監控參數相關之一或多個特定技術及/或可能未採用與基於監控參數影響機器 人之未來移動相關之一或多個特定技術。可呈現前述技術及/或其他技術之額外及/或替代缺點。
本發明大體上係關於基於來自行動機器人之物件觀察產生一時空物件清單且基於該時空物件清單針對一或多個未來時間段判定用於行動機器人之監控參數。本文中揭示之技術之實施方案可能可用於各種環境中,諸如其中一清單之物件可由環境之一或多個人類移入環境中、移出環境及/或在環境內移動之混合人類-自動化環境。
本技術之一些實施方案係關於使用來自一環境中之多個行動機器人之物件觀察以產生環境中之物件之一時空物件清單。該等物件觀察各包含針對一對應物件之至少一物件識別符及指示該對應物件之一姿勢之一經量測物件姿勢。
基於該等物件觀察產生之該時空物件清單界定針對該環境中之複數個物件之各者之姿勢及針對該等姿勢之對應量測時間。因此,模型可針對該等物件之各者界定該物件之一初始姿勢(例如,基於具有識別該物件之一物件識別符之一初始物件觀察之一經量測物件姿勢)及視情況針對該物件之一或多個後續姿勢(例如,基於識別該物件且自該初始物件觀察之經量測姿勢值變動達至少一臨限量之後續物件觀察之經量測姿勢值)。如本文中使用,一物件之「姿勢」可僅指該物件之一位置(例如,一多維座標),或可指該物件之該位置及該物件之一定向兩者。在一些實施方案中,針對該時空物件清單中之一物件界定之該等「姿勢」之一或多個可指示該物件不再存在於該環境中(即,指示該環境外部之一位置)及/或該物件之位置未知(即,指示一未知位置)。
在一些實施方案中,用於產生該時空模型之複數個該等觀察係來自已經從事於一任務之行動機器人及/或閒置機器人(即,潛在移動但未從事任務)。在一些實施方案中,基於新接收之物件觀察連續或週期性更新該時空模型(各更新構成該模型之「產生」)以反映該環境中之該清單之改變(例如,該環境內之物件之該移動、新物件至該環境中之引入及/或物件自該環境之移除)。
本技術之一些實施方案係關於使用該時空物件清單以判定當滿足一或多個特定準則時在該環境之一或多個區域中發生之物件之一移動量(例如,移入該等區域中、移出該等區域及/或在該等區域內移動達至少一臨限量),及使用該判定來判定可用於將命令提供至該等行動機器人之一或多者之監控參數,該等命令在亦滿足該一或多個特定準則之未來時間段影響該等行動機器人之移動之一或多個態樣。
作為一個實例,若基於該時空物件清單判定當滿足特定準則時該環境之一區域中之物件之移動相對頻繁,則可在亦滿足該等準則之一未來時間段期間將相對大量行動機器人明確引導至該區域及/或可在該未來時間段期間引導一或多個行動機器人以更可能選擇遇到該區域之路徑。此可導致在該未來時間段期間該等行動機器人在該區域中之一更大量的物件觀察,使該時空物件清單能更準確反映該清單之實際當前狀態。另一方面,若判定當滿足特定其他準則時該區域中之物件之移動相對不頻繁,則可在亦滿足該等其他準則之一未來時間段期間將相對小量行動機器人(或甚至無行動機器人)明確引導至該區域及/或可引導一或多個行動機器人以在該未來時間段期間較不可能選擇遇到該區域之路徑。此可導致在該未來時間段期間該等行動機器人在該區域中之一較少量之物件觀察,藉此整體減少行動 機器人資源之利用及/或使該等行動機器人資源能被引導至其他任務(且藉此被更有效利用)。
在一些實施方案中,可提供一種方法,其包含藉由一或多個電腦之一系統自一環境中之複數個行動機器人接收物件觀察。複數個該等物件觀察各包含針對一對應物件之一物件識別符及針對該物件識別符之指示該對應物件之一物件姿勢之一經量測物件姿勢。可基於來自該等行動機器人之一對應者之一或多個感測器之感測器資料判定該物件識別符及/或該經量測物件姿勢。該方法進一步包含藉由該系統基於該等物件識別符、該經量測物件姿勢及該等物件觀察之量測時間產生一時空物件清單。該時空物件清單針對由該等物件觀察之該等物件識別符指示之複數個物件之各者界定針對該物件之一或多個姿勢及針對該等姿勢之對應量測時間。該方法進一步包含藉由該系統且基於該時空物件清單判定當滿足一或多個準則時發生之該等物件之一移動量。該等物件之該等移動包含以下之至少一者:該等物件移入該環境之至少一個區域中及該等物件移出該環境之該區域。該方法進一步包含:藉由該系統且基於當滿足該準則時發生之該移動量,針對亦滿足該準則之一或多個未來時間段判定用於該等行動機器人之一或多個監控參數;及藉由該系統將基於該等監控參數之命令提供至該等行動機器人之一或多者。該等命令在該等未來時間段影響該等行動機器人之移動之一或多個態樣,且因此影響在該等未來時間段接收之針對該環境之該區域之一物件觀察量。
本文中揭示之技術之此方法及其他實施方案可各視情況包含以下特徵之一或多者。
在一些實施方案中,該一或多個準則包含一特定時間段且該方法進一 步包含藉由該系統基於判定在該特定時間段期間發生之該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。在一些該等實施方案中,該特定時間段係以下之一者:一周之一或多個特定日子、一年之一或多個特定日子或一周之特定日子或一年之日子之一或多者期間之一或多個時間段。在一些實施方案中,判定當滿足該一或多個準則時發生之該等物件之該等移動包含藉由該系統判定該物件移入該區域中之一移動在該特定時間段期間發生。在一些該等實施方案中,判定該物件移入該區域中之一移動在該特定時間段期間發生包含:判定針對該物件之該等姿勢之一第一姿勢在該區域之外部且具有時間上在該時間段之前之該等對應量測時間之一第一對應量測時間;及判定針對該物件之該等姿勢之一第二姿勢在該區域內且具有時間上在該時間段內之該等對應量測時間之一第二對應量測時間。在一些該等實施方案中,判定該物件移入該區域中之一移動在該特定時間段期間發生包含:判定未針對該時空物件清單中之該物件界定時間上在該時間段之前之姿勢;及判定針對該物件之該等姿勢之一姿勢在該區域內且具有時間上在該時間段內之該等對應量測時間之一對應量測時間。在一些實施方案中,判定當滿足該一或多個準則時發生之該等物件之該等移動包含藉由該系統判定該物件移出該區域之一移動在該特定時間段期間發生。在一些該等實施方案中,判定該物件移出該區域之一移動在該特定時間段期間發生包含:判定針對該物件之該等姿勢之一第一姿勢在該區域內部且具有時間上在該時間段之前之該等對應量測時間之一第一對應量測時間;及判定針對該物件之該等姿勢之一第二姿勢在該區域外部且具有時間上在該時間段內之該等對應量測時間之一第二對應量測時間。
在一些實施方案中,該一或多個準則包含一或多個人類之一群組在該 區域中之存在且該方法進一步包含藉由該系統接收指示一或多個人類之該群組存在於該區域中之複數個時間段之人類存在資料。在一些該等實施方案中,該方法進一步包含基於判定在該群組存在於該區域中之該等時間段之一者期間發生之該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
在一些實施方案中,該一或多個準則包含一或多個特定量之一或多個人類存在於該區域中且該方法進一步包含藉由該系統接收指示一或多個特定量之該一或多個人類存在於該區域中之複數個時間段之人類量資料。在一些該等實施方案中,該方法進一步包含基於判定在該一或多個特定量存在於該區域中之該等時間段之一者期間發生之該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
在一些實施方案中,該一或多個準則包含該環境之清單準則且該方法進一步包含基於判定當該清單準則存在於該環境中時發生該等物件移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。在一些該等實施方案中,該環境之該清單準則係限於該環境之該區域之清單準則。
在一些實施方案中,該區域係該環境之一子集。
在一些實施方案中,基於該等監控參數在該等未來時間段影響該等行動機器人之移動之一或多個態樣之該等命令包含在該等未來時間段期間將該等行動機器人引導至該區域之命令。
在一些實施方案中,基於該等監控參數在該等未來時間段影響該等行動機器人之移動之一或多個態樣之該等命令包含增加該等行動機器人在該等未來時間段期間將選擇遇到該區域之一路徑之可能性之命令。
其他實施方案可包含一種儲存指令之非暫時性電腦可讀儲存媒體,該 等指令可由一或多個處理器執行以執行諸如上文中描述之一或多個方法之一方法。又一實施方案可包含一種系統,其包含記憶體及一或多個處理器,該一或多個處理器可操作以執行儲存於記憶體中之指令以實施單獨或共同執行諸如上文中描述之一或多個方法之一方法之一或多個模組或引擎。
應瞭解,預期前述概念及本文中更詳細描述之額外概念之全部組合作為本文中揭示之標的物之部分。舉例而言,預期出現在本發明之末尾之所主張標的物之全部組合作為本文中揭示之標的物之部分。
101‧‧‧準則
105A-105M‧‧‧物件
130A-130N‧‧‧行動機器人
131A‧‧‧3D雷射掃描器
131B‧‧‧立體攝影機
131N‧‧‧3D雷射掃描器
132N‧‧‧顯示螢幕
133A‧‧‧基底
133B‧‧‧基底
133N‧‧‧基底
134B1‧‧‧機器人臂
134B2‧‧‧機器人臂
135B1‧‧‧末端效應器
135B2‧‧‧末端效應器
140A-140N‧‧‧物件觀察
140A1‧‧‧物件觀察
142A1‧‧‧物件識別符
144A1‧‧‧經量測物件姿勢
145‧‧‧命令
146A1‧‧‧量測時間
148A1‧‧‧經量測源姿勢
150‧‧‧時空物件清單產生系統
152‧‧‧物件姿勢產生引擎
154‧‧‧清單產生引擎
160‧‧‧機器人命令產生系統
162‧‧‧移動量引擎
164‧‧‧監控參數引擎
166‧‧‧命令引擎
170‧‧‧時空物件清單
175‧‧‧預期物件移動資料庫
177‧‧‧環境中人類資料資料庫
500‧‧‧方法
502‧‧‧方塊
504‧‧‧方塊
506‧‧‧方塊
508‧‧‧方塊
510‧‧‧方塊
600‧‧‧機器人
602‧‧‧控制器
604a-604n‧‧‧致動器
608a-608m‧‧‧感測器
610‧‧‧匯流排
615‧‧‧網路介面子系統
710‧‧‧電腦系統
712‧‧‧匯流排子系統
714‧‧‧處理器
716‧‧‧網路介面子系統
720‧‧‧使用者介面輸出器件
722‧‧‧使用者介面輸入器件
724‧‧‧儲存子系統
725‧‧‧記憶體子系統
726‧‧‧檔案儲存子系統
730‧‧‧主隨機存取記憶體(RAM)
732‧‧‧唯獨記憶體(ROM)
圖1繪示其中可基於來自行動機器人之物件觀察產生一時空物件清單及/或可基於該時空物件清單針對一或多個未來時間段判定用於行動機器人之監控參數之一例示性環境。
圖2繪示使用一行動機器人之一物件觀察以產生一時空物件清單之一部分之一實例。
圖3繪示基於一時空物件清單判定用於行動機器人之監控參數且將基於監控參數之命令提供至行動機器人之一實例。
圖4A繪示在一第一時間處之一建築物之一部分之一平面圖。
圖4B繪示在晚於圖4A之第一時間之一第二時間處之建築物之部分之平面圖。
圖4C繪示在晚於圖4B之第二時間之一第三時間處之建築物之部分之平面圖。
圖5描繪繪示基於來自行動機器人之物件觀察產生一時空物件清單且基於該時空物件清單針對一或多個未來時間段判定用於該等行動機器人之監控參數之一例示性方法之一流程圖。
圖6示意性描繪一機器人之一例示性架構。
圖7示意性描繪一電腦系統之一例示性架構。
圖1繪示其中可基於來自行動機器人130A至130N之物件觀察140A至140N產生一時空物件清單170及/或其中可基於時空物件清單170針對一或多個未來時間段判定用於行動機器人130A至130N之監控參數之一例示性環境。在圖1之例示性環境中繪示三個機器人130A、130B及130N。亦可存在額外機器人,如由定位於機器人130B與機器人130N之間之圖1之省略號指示。在圖1之環境中亦提供一時空物件清單產生系統150、一機器人命令產生系統160、一時空物件清單170、一預期物件移動資料庫175及物件觀察140A、140B及140N。環境之各種組件可經由諸如一區域網路(LAN)及/或一廣域網路(WAN)(諸如網際網路)之一或多個網路彼此通信。在其他實施方案中,可利用一或多個組件之間之一直接連接。
物件觀察140A、140B及140N可由對應機器人130A、130B及130N提供至系統150以根據本文中描述之技術產生一時空物件清單170。再者,機器人命令產生系統160可使用時空物件清單170以判定當滿足一或多個特定準則時在一環境之一或多個區域中發生之物件之一移動量且基於該量判定可用於將命令提供至行動機器人之一或多者之監控參數,該等命令在亦滿足一或多個特定準則之未來時間段影響行動機器人之移動之一或多個態樣。
各機器人130A至130N可定位於一環境中,諸如一建築物(例如,一倉庫、一製造廠、一辦公大樓)、附近建築物之一集合之一或多個建築物、一多樓層辦公室或其他建築物之一或多個樓層等。可在其他實施方案中提供 額外及/或替代機器人,諸如在一或多個方面與圖1中繪示之機器人不同之額外機器人。舉例而言,自主或半自主堆高機式機器人可提供為唯一機器人及/或與其他機器人一起提供。
各機器人130A、130B及130N包含一對應基底133A、133B及133N,基底133A、133B及133N具有提供於其之相對側上用於一對應機器人130A、130B及130N之運動之輪。各基底133A、133B及133N可包含(例如)用於驅動對應輪以達成對應機器人130A、130B及130N之移動之一所要方向、速度及/或加速度之一或多個馬達。
各機器人130A、130B及130N亦包含至少一個姿勢器件,該至少一個姿勢器件包含一或多個對應姿勢感測器。如本文中使用,一姿勢感測器係可感測與形狀、色彩、射頻及/或在感測器之視線(或其他感測範圍)中之一物件之其他特徵相關之資料之一感測器,其中可(視情況與其他資料組合)使用經感測資料以判定物件之一位置及/或定向。作為一姿勢器件之一個實例,機器人130A及130N包含對應3D雷射掃描器131A及131N,3D雷射掃描器131A及131N各包含發射光之一或多個雷射及收集與經發射光之反射相關之資料以實現各種物件之位置及/或定向之判定之一或多個感測器。雷射掃描器131A及131N可係(例如)飛行時間3D雷射掃描器或基於三角量測之3D雷射掃描器且可包含一位置靈敏偵測器(PSD)或其他光學位置感測器。
作為一姿勢器件之另一實例,機器人130B包含一立體攝影機131B,立體攝影機131B包含各在一不同有利點處之兩個感測器(例如,電荷耦合器件(CCD))。藉由比較由兩個感測器在不同有利點處感測之資料,可判定各種物件之位置及/或定向。作為一姿勢器件之又一實例,一機器人可包含 一機器視覺攝影機,該機器視覺攝影機包含擷取尤其與物件上之基準標籤相關之資料之一感測器。可利用與一物件上之一基準標籤相關之資料以偵測基準標籤且基於基準標籤判定物件之位置及/或定向。作為一姿勢器件之又一實例,一機器人可包含讀取一物件之一射頻識別(RFID)標籤(被動或主動)之RFID讀取器,且機器人可在讀取RFID標籤之時使用其自身之姿勢以判定物件之位置。雖然在本文中描述姿勢器件及相關聯之感測器之特定實例,但可利用額外及/或替代姿勢器件及相關聯之感測器。
各機器人130A、130B及130N亦包含一或多個控制器,該一或多個控制器(例如)將控制命令提供至致動器及/或其之其他操作組件;產生本文中描述之物件觀察之全部或態樣及/或接收由機器人命令產生系統160提供之一或多個命令145且產生基於命令145之一或多個控制命令。舉例而言,機器人130A之一或多個控制器可將控制命令提供至驅動機器人130A之輪以將機器人130A自主導航至環境中之各種位置之伺服馬達,其中該等控制命令由機器人130A鑑於自系統160接收之命令145產生。又,舉例而言,機器人130A之一或多個控制器可經由機器人130A之一網路介面與時空物件清單產生系統150及/或機器人命令產生系統160建立一網路連接,且將物件觀察140A之全部或態樣提供至系統150及/或自機器人命令產生系統160接收命令145。在本文中提供各種機器人之結構及功能性之一些實例之額外描述。
機器人130A可係在一環境四處移動且經由3D雷射掃描器131A及/或其他感測器收集資料但不執行任何額外非監控/觀察任務之一監控/觀察機器人。機器人130B包含機器人臂134B1及134B2,機器人臂134B1及134B2具有各採取具有兩個相對「手指」或「趾」之一夾件之形式之對應末端效 應器135B1及135B2。可自主、半自主及/或基於由一使用者經由一使用者之一運算器件提供之控制命令控制機器人臂134B1、134B2及末端效應器135B1、135B2。舉例而言,可自主控制機器人臂134B1以接近一物件定位末端效應器135B1且可自主控制末端效應器135B1以抓緊物件。機器人130N係包含一顯示螢幕132N且除了其他功能性之外亦可提供行動視訊會議之一遙現機器人。舉例而言,機器人130N可用於使在一遠端運算器件處之一使用者能夠(例如,經由機器人130N之一額外攝影機)自機器人130N接收一「現場取景」及/或在顯示螢幕132N上顯示使用者之某個標誌。使用者之標誌可係(例如)使用者之一影像、來自耦合至使用者之運算器件之一攝影機之一現場視訊饋送等。雖然在圖1中繪示機器人之一異類群組,但在其他實施方案中,在一環境中之機器人可係同類。
機器人130A至130N將對應物件觀察140A至140N提供至時空物件清單產生系統150且時空物件清單產生系統150基於所提供之物件觀察產生時空物件清單170。產生時空物件清單170可包含更新清單170以反映由物件觀察指示之環境中之改變,諸如環境中之物件之移動、新物件至環境之引入或物件自環境之移除。時空物件清單產生系統150可連續、週期性地、基於一或多個新物件觀察之接收及/或基於其他準則更新清單170。
機器人130A至130N可在各種情勢下提供物件觀察140A至140N。舉例而言,機器人130A至130N可在其等已經從事於另一任務(例如,機器人130B可隨著其導航至一位置以執行一任務而提供複數個物件觀察140B)時及/或在其等未從事於另一非監控/觀察任務(例如,取代閒置,一機器人可在環境四處移動以提供物件觀察)時提供物件觀察140A至140N。如鑑於本文中之描述所理解,機器人130A、130B、130N將通常在一段時間內提供 複數個物件觀察。舉例而言,機器人130A之物件觀察140A包含複數個物件觀察,其中各物件觀察針對一不同時刻。
各物件觀察140A至140N可各尤其包含:一物件之至少一個物件識別符、針對物件之一經量測物件姿勢及針對經量測物件姿勢之一量測時間。一經量測物件之物件識別符可係(例如)基於物件上之一基準標籤、物件之一射頻識別(RFID)標籤(被動或主動)及/或物件之特徵點且可由一對應機器人130A至130N基於各種技術判定。舉例而言,當物件識別符係基於物件上之一基準標籤(例如,一快速回應(QR)碼或其他條碼、一字母數字標籤)時,機器人130A可基於自由機器人130A擷取之物件之一影像中之基準標籤提取物件識別符判定一經量測物件之物件識別符。又,舉例而言,當物件識別符係基於物件之一RFID標籤時,機器人130A可包含讀取RFID標籤及用作物件識別符之經讀取RFID標籤之一ID信號之一RFID讀取器。又,舉例而言,當物件識別符係基於物件之特徵點時,機器人130A可利用雷射掃描器131A、一攝影機及/或其他感測器以產生特徵點且基於該等特徵點判定識別符。
在一些實施方案中,針對物件之經量測物件姿勢可由一對應機器人130A至130N基於由一對應姿勢器件131A至131N之一或多個感測器感測之資料判定。針對物件之經量測物件姿勢可提供為一單個姿勢(諸如SE(3)組態空間中之一單個平均姿勢)或可提供為具有一協方差量度之一姿勢(諸如具有圍繞平均值之6維切空間內之一相關聯之高斯(Gaussian)協方差量度之SE(3)組態空間中之一平均姿勢)。
量測時間指示感測經量測物件姿勢所基於之感測器資料之一時間。量測時間可基於感測到感測器資料之時間或可基於另一事件,諸如判定經量 測物件姿勢之時間(當其不同於感測器資料時)。在一些實施方案中,一或多個(例如,全部)物件觀察140A至140N可省略量測時間且可由時空物件清單產生系統150基於對應物件觀察140A至140N之接收之一時間推斷量測時間。
在一些實施方案中,一或多個物件觀察140A至140N亦可包含針對用於在量測時間產生對應經量測物件姿勢之一或多個感測器之一經量測源姿勢。換言之,一物件觀察之經量測源姿勢指示當針對經量測物件姿勢進行量測時對應機器人及/或機器人之對應感測器之姿勢。經量測源姿勢可提供為一單個姿勢(諸如SE(3)組態空間中之一單個平均姿勢)或可提供為具有一協方差量度之一姿勢(諸如具有在圍繞平均值之6維切空間內之一相關聯之高斯(Gaussian)協方差量度之SE(3)組態空間中之一平均姿勢)。
如本文中描述,在一些實施方案中,時空物件清單產生系統150可基於一對應經量測物件姿勢及一對應經量測源姿勢兩者判定用於時空物件清單170之一物件姿勢。在一些實施方案中,系統150可基於一對應經量測物件姿勢且不參考一對應經量測源姿勢判定用於時空物件清單170之一物件姿勢。在一些該等實施方案中,可將經量測源姿勢提供至系統150作為經量測物件姿勢。
在一些實施方案中,針對物件之經量測源姿勢可由一對應機器人130A至130N基於由其之一或多個感測器感測之資料判定。機器人130A至130N可利用各種定位技術(諸如粒子濾波器、地標偵測及/或GPS)以判定一經量測源姿勢。在一些實施方案中,可利用一機器人外部之一或多個感測器以判定針對機器人之經量測源姿勢。舉例而言,可利用來自觀察機器人之一固定攝影機之一量測以判定針對機器人之經量測源姿勢。可基於(例如)機 器人之一基準標記及/或RFID標籤使量測與機器人相關且量測可加時間戳記以使量測與一物件觀察之一對應量測時間相關。作為另一實例,可利用來自觀察一給定機器人之另一機器人之一量測以判定針對給定機器人之經量測源姿勢。可基於(例如)機器人之一基準標記及/或RFID標籤使量測與機器人相關且量測可加時間戳記以使量測與一物件觀察之一對應量測時間相關。在一些實施方案中,當一給定機器人自身不提供一經量測源姿勢(例如,給定機器人無一適當感測器或包含一適當感測器但無法定位)時,可利用來自觀察給定機器人之另一機器人之一量測以判定針對給定機器人之經量測源姿勢。應注意,來自用於判定針對一給定機器人之經量測源姿勢之另一機器人之量測可係來自該另一機器人之一經量測物件姿勢,其中經量測物件姿勢之物件係給定機器人。來自機器人外部之一或多個感測器之一量測可用作用於機器人之一經量測源姿勢之單獨源及/或與來自(機器人或機器人外部之)其他感測器之量測組合以判定機器人之經量測源姿勢。
時空物件清單產生系統150可包含由一或多個網路(未描繪)連接之一或多個運算系統且可使用物件觀察140A至140N以產生界定物件、物件姿勢及針對可由機器人130A至130N接達之環境中之多個物件之對應量測時間之時空物件清單170。在圖7中示意性描繪此一運算系統之一實例。各種模組或引擎可實施為時空物件清單產生系統150之部分作為軟體、硬體或兩者之任何組合。舉例而言,在圖1中,系統150包含一物件姿勢產生引擎152及一清單產生引擎154。雖然關於針對機器人130A至130N之物件觀察140A至140N在下文中論述實例,但在一些實施方案中,時空物件清單產生系統150亦可使用針對未安裝於機器人上之固定感測器之物件觀察以判定針對環境中之一或多個物件之至少一些物件姿勢及對應量測時間。
物件姿勢產生引擎152經組態以針對各物件觀察140A至140N判定針對由觀察針對由觀察指示之量測時間所指示之物件之一姿勢。由物件姿勢產生引擎152判定之物件姿勢係關於一參考座標系(諸如一所謂的「世界座標系」)。
在一些實施方案中,可關於參考座標系提供一或多個物件觀察140A至140N之經量測物件姿勢。舉例而言,由機器人130A提供之一經量測物件姿勢可係由於機器人130A鑑於一對應經量測源姿勢修改經量測物件姿勢所致之在參考座標系中之經量測物件姿勢。作為另一實例,在一些實施方案中,機器人130B之經量測物件姿勢可係已經在參考座標系中之機器人130B之一經量測源姿勢。舉例而言,機器人130B可基於一物件之一RFID標籤及/或物件之一基準標籤判定物件之一物件識別符且機器人130B可提供其自身之源姿勢作為此時針對物件之經量測物件姿勢。
在一些實施方案中,一或多個物件觀察140A至140N之經量測物件姿勢可係關於用於判定經量測物件姿勢之一感測器且該等物件觀察亦可具備關於參考座標系之一經量測源姿勢。在該等實施方案中,物件姿勢產生引擎152可基於鑑於經量測源姿勢修改經量測物件姿勢判定參考座標系中之一物件姿勢。換言之,物件姿勢產生引擎152可使用經量測源姿勢以將經量測物件姿勢轉換至參考座標系中。
清單產生引擎154將由物件姿勢產生引擎152判定之姿勢值,連同姿勢值之對應物件識別符及姿勢值之對應量測時間儲存於時空物件清單170中。因此,經產生清單170可針對複數個物件之各者界定複數個物件姿勢及針對物件姿勢之相關聯之量測時間。顯然,各經判定及經儲存物件姿勢係來自物件觀察140A至140N之一不同物件觀察且物件觀察140A至140N係來自 複數個對應機器人130A至130N。
在一些實施方案中,當一新接收物件觀察包含未自由清單產生引擎154最近儲存之針對一物件之一最近物件姿勢變動至少一臨限量之針對該物件之一經量測物件姿勢時,引擎154可不基於新接收物件觀察儲存一額外物件姿勢。在一些該等實施方案中,引擎154可代替性地使新接收物件觀察之一量測時間與最近物件姿勢相關聯。在一些實施方案中,引擎154可組合(例如,平均化)最近物件姿勢及基於新接收物件觀察判定之一額外物件姿勢且使用經組合物件姿勢替換最近物件姿勢。
在一些實施方案中,清單產生引擎154可將針對時空物件清單170中之物件之一或多個物件姿勢界定為物件不再存在於環境中(即,指示環境外部之一位置)及/或物件之位置未知(即,指示一未知位置)之一指示。在一些實施方案中,清單產生引擎154基於(例如)未接收識別一物件之一物件觀察達至少一臨限時間量而判定該物件不再存在於環境中。在一些實施方案中,清單產生引擎154基於識別在預期物件移動資料庫175中存在針對一物件之一輸入項(視情況組合未接收識別物件之一物件觀察達至少一臨限時間量)而判定該物件不再存在於環境中。預期物件移動資料庫175可包含針對一或多個物件之各者之指示預期物件移出環境之資料。指示預期物件移出環境之資料可係基於(例如)針對物件之一經接收順序、移動物件之一請求及/或與移動物件相關之一或多個機器人之記錄動作。
在一些實施方案中,清單產生引擎154基於(例如)接收針對在一物件之一最後已知姿勢處或附近之其他物件之一或多個物件觀察但未接收針對該物件之一物件觀察而判定該物件之位置未知。在一些該等實施方案中,清單產生引擎154進一步基於在預期物件移動資料庫175中不存在針對一物 件之一輸入項而判定該物件之位置未知(否則,若存在一輸入項,則物件之位置可已知為「在環境外部」)。在一些實施方案中,清單產生引擎154基於(例如)引導一或多個行動機器人130A至130N以引導其之一姿勢器件具體朝向一物件之最後已知姿勢而判定該物件之位置未知。若一或多個經引導行動機器人在最後已知姿勢處或附近未偵測物件,則清單產生引擎154可判定物件之位置未知。在一些該等實施方案中,引擎154可基於(例如)未接收識別物件之一物件觀察達至少一臨限時間量而將一或多個行動機器人130A至130N引導至物件。在一些實施方案中,臨限時間量及/或引擎154是否將一或多個行動機器人引導至物件可係基於(例如)物件之一重要性等級。
可以各種方式將時空物件清單170之值及關係儲存於清單170中。舉例而言,時空物件清單170可係一索引,該索引具有作為各指向各包含至少以下者之元組之索引值之物件識別符:針對一或多個對應時間之一物件姿勢值及一或多個對應時間。又,舉例而言,時空物件清單170可具有一圖形拓樸,該圖形拓樸具有作為節點之物件識別符且節點各藉由一或多個邊緣連接至一中心節點。各邊緣可係基於一或多個物件觀察且可包含諸如針對一或多個對應時間之一物件姿勢值及一或多個對應時間之屬性。舉例而言,一給定節點可具有複數個邊緣,其中各邊緣係基於一對應物件觀察。作為又一實例,時空物件清單170可具有一圖形拓樸,該圖形拓樸具有作為節點之物件識別符及亦作為節點之物件姿勢。物件識別符節點可各藉由一或多個邊緣連接至一或多個物件姿勢節點,其中各邊緣係基於針對指示對應物件姿勢之對應物件識別符之一物件觀察。舉例而言,一給定邊緣可在一給定物件識別符節點與一給定物件姿勢節點之間且可基於一對應物件觀察。 給定邊緣可包含諸如一對應量測時間之屬性。
在一些實施方案中,時空物件清單170可用於改良預期物件移動資料庫175及/或一或多個清單管理系統之(若干)其他資料庫中之資料品質。舉例而言,針對清單170中之物件界定之姿勢可用於驗證由清單管理系統預期之該等物件之姿勢。舉例而言,清單170可用於:驗證應在一環境中之一物件實際上在該環境中;驗證物件在環境中之預期姿勢如所預期般及/或驗證應離開環境之一物件實際上離開該環境。如下文描述,機器人命令產生系統160可採用各種技術來將行動機器人130A至130N分佈遍及一環境,其可改良清單170之準確度及/或時效性(及/或改良行動機器人130A至130N之利用效率)。此可使清單170更有效驗證由清單管理系統預期之姿勢及/或更有效用於其他目的。
機器人命令產生系統160可包含由一或多個網路(未描繪)連接之一或多個運算系統且使用時空物件清單170來在一或多個未來時間段判定針對環境之一或多個區域之用於行動機器人130A至130N之監控參數。此外,系統160可將命令145提供至一或多個行動機器人130A至130N以在未來時間段鑑於監控參數影響環境之一或多個區域處之物件觀察量。各種模組或引擎可實施為機器人命令產生系統160之部分作為軟體、硬體或兩者之任何組合。舉例而言,在圖1中,系統160包含一移動量引擎162、一監控參數引擎164及一命令引擎166。
移動量引擎162判定當滿足一或多個準則時在環境之至少一個區域中發生之時空物件清單170之物件之一移動量。準則可包含(例如)以下之一或多者:一或多個特定時間段、一或多個人類之一特定群組在區域中之存在、一或多個特定量之人類在區域中之存在及/或清單準則。
在一些實施方案中,移動量引擎162可判定一未加權移動量(即,各移動相同地計數)。在一些其他實施方案中,移動量引擎162可在判定量時基於各種準則給一或多個移動加權。舉例而言,引擎162可基於與一當前時間之時間接近性給一或多個移動加權(例如,更接近之移動可被更重地加權)。又,舉例而言,引擎162可基於與移動相關聯之物件識別符之一重要性等級給一或多個移動加權。舉例而言,與高值物件相關聯之一些物件識別符可具有高於較低值物件之一重要性等級及/或與需要在某些環境條件中(例如,在某些溫度內)之物件相關聯之一些物件識別符可具有高於不需要在某些條件中之該等項目之一重要性等級。又,舉例而言,引擎162可基於移動是否為「預期移動」或「未知移動」(例如,如上文描述)而給一或多個移動加權。舉例而言,「未知」移動可被更重地加權以增加對「未知移動」(例如,基於指示一物件之位置未知之物件姿勢判定之該等移動)之關注。
在一些實施方案中,移動量引擎162可限制其基於各種準則判定一量之該等移動。舉例而言,可將由移動量引擎162使用以判定一區域中之一移動量之物件之移動限於作為「未知移動」之移動。又,舉例而言,可將由移動量引擎162使用以判定一區域中之一移動量之物件之移動限於與具有至少一臨限重要性等級之物件相關聯之移動。作為又一實例,可將由移動量引擎162使用以判定一區域中之一移動量之物件之移動限於作為「未知移動」且與具有至少一臨限重要性等級之物件相關聯之移動。
在其中準則包含一特定時間段之實施方案中,特定時間段可係(例如)一周之一或多個特定日子、一年之一或多個特定日子或一周之一或多個特定日子或一年之特定日子期間之一或多個時間段。在其中準則包含一特定時間段之實施方案中,可將用於判定一區域中之一移動量之物件之移動至 少限於在特定時間段期間發生之該等移動。此等移動可由移動量引擎162基於(例如)判定指示該等移動之姿勢值具有在清單170中界定之指示在時間段期間在區域中之移動之量測時間而判定。
舉例而言,移動量引擎162可基於以下而判定一個物件移入區域中在特定時間段期間發生:判定針對清單170中之物件之一第一姿勢在區域之外部且具有時間上在該時間段之前之一第一對應量測時間;且判定針對清單170中之物件之一第二姿勢在區域內且具有時間上在該時間段內之一第二對應量測時間。又,舉例而言,移動量引擎162可基於以下而判定一個物件移入區域中在特定時間段期間發生:判定未針對清單170中之物件界定時間上在該時間段之前之姿勢;且判定針對清單170中之物件之一姿勢在區域內且具有時間上在該時間段內之一對應量測時間。作為又一實例,移動量引擎162可基於以下而判定一個物件移出區域在特定時間段期間發生:針對清單170中之物件之一第一姿勢在區域內部且具有時間上在該時間段之前之一第一對應量測時間;且判定針對清單170中之物件之一第二姿勢在區域外部且具有時間上在該時間段內之一第二對應量測時間。
在其中準則包含一或多個人類之一群組在區域中之存在之一些實施方案中,該群組可(例如)係一或多個特定人類及/或人類之「類別」。舉例而言,該群組可包含以下之一或多者:一特定員工、複數個特定員工、一或多個特定承包商、一或多個普通承包商及/或一或多個普通客人。
在其中準則包含一或多個人類之一群組在區域中之存在之一些實施方案中,可將用於判定一區域中之一移動量之物件之移動至少限於當存在一或多個人類之該群組時發生之該等移動。移動量引擎162可基於(例如)接收指示一或多個人類之群組存在於區域中之複數個時間段之人類存在資 料而判定此等移動,且基於清單170判定指示該等移動且具有在存在一或多個人類之群組時之一個時間段期間之量測時間之姿勢值。在一些實施方案中,人類存在資料可係基於由一或多個電子存取控制系統提供之識別符,諸如由存取控制系統回應於人類「用徽章進入/外出」及/或使用生物測定特徵進入區域而提供之識別符。在一些實施方案中,可由行動機器人130A至130N、固定攝影機系統及/或環境之其他感測器提供人類存在資料。舉例而言,人類存在資料可由行動機器人130A至130N基於自由人類佩戴之徽章中之「RFID標籤」感測之識別符判定及/或基於影像分析判定。
在其中準則包含一或多個人類之一群組在區域中之存在之一些實施方案中,本文中描述之技術可促進在其中存在與一相對大量物件移動相關聯之人類之一或多個區域中行動機器人對清單之額外監控。舉例而言,相對於當很少移動物件之一第二群組存在於該區域中時,當頻繁移動物件之一第一群組存在於一區域中時可增加機器人130A至130N之清單監控。舉例而言,第一群組可係工作為檢索物件以將物件運送至另一區域及/或運送出環境之工人,且第二群組可係工作為修理機械設備(且很少移動物件)之工人。在一些該等及/或其他實施方案中,可將由移動量引擎162使用以判定一區域中之一移動量之物件之移動限於離開區域且係「未知移動」之移動,諸如基於指示一物件之位置未知之物件姿勢判定之物件之移動。此可實現判定當滿足一或多個準則時發生之一非預期移動量,且當量相對高時可進一步實現針對滿足準則之未來時間段增加一或多個行動機器人對清單之監控。
在其中準則包含一或多個特定量之一或多個人類存在於區域中之一些實施方案中,特定量可係(例如)諸如「5」之一單個量或諸如「5至10」 或「2至4及6至10」之量之一或多個範圍。在一些實施方案中,可將用於判定一區域中之一移動量之物件之移動至少限於當特定量存在於區域中時發生之該等移動。移動量引擎162可基於(例如)以下而判定此等移動:接收指示特定量之一或多個人類存在於區域中之複數個時間段之人類存在資料(例如,自「用徽章進入」接收、自「RFID標籤」接收、由影像分析判定);且基於清單170判定指示該等移動之姿勢值具有在特定量存在於區域中之一個時間段期間之量測時間。
在其中準則包含環境之清單準則之實施方案中,清單準則可係(例如)至少一臨限量之一或多個特定類型之清單及/或普通清單之存在、少於一臨限量之一或多個特定類型之清單及/或普通清單之存在及/或一或多個特定類型之清單及/或普通清單之量之至少一臨限改變。在一些實施方案中,環境之清單準則係限於針對其判定物件之移動量之環境之區域。
在一些實施方案中,可將用於判定一區域中之一移動量之物件之移動至少限於當存在特定清單準則時發生之該等移動。移動量引擎162可基於(例如)以下而判定此等移動:基於時空物件清單170判定特定清單準則存在於區域中之時間段;且判定指示該等移動之物件姿勢具有在清單170中界定之量測時間,該等量測時間在特定清單準則存在於區域中之一個時間段期間。
雖然在上文中提供僅依賴一單個準則之若干實例,但應理解,移動量引擎162可判定當滿足複數個準則時在一區域中發生之一移動量。舉例而言,引擎162可判定在存在至少5個人類且存在至少100個量之「類型A」之物件的上個月之任何工作日在一區域中發生之一移動量。又,雖然上文提供描述僅基於一組一或多個準則針對一或多個區域判定一單個量之若干實 例,但應理解,移動量引擎162可針對多個例項之各者判定一對應量,其中各例項係針對一不同區域及/或一不同組準則。舉例而言,可針對一環境之一第一區域針對一第一組準則判定一第一量且可針對環境之一第二區域針對一第二組準則判定一第二量。又,舉例而言,可針對環境之第一區域針對一第二組準則判定一第三量。
針對由引擎162判定之量之各者,監控參數引擎164在亦滿足對應準則之一或多個未來時間段判定針對(若干)對應區域之一或多個監控參數。如本文中描述,監控參數引擎164可儲存具有(若干)相關聯區域以及相關聯準則之經判定監控參數以供命令引擎166利用。監控參數通常界定應部署至區域之行動機器人130A至130N之數目及/或一或多個行動機器人130A至130N應遇到該區域之一頻率。舉例而言,假定針對環境之一第一區域且針對一第一組之一或多個準則,由引擎162判定之一移動量係10。進一步假定針對環境之一第二區域且針對第一組準則,由引擎162判定之一移動量係250。監控參數引擎164將針對第二區域針對第一組準則判定監控參數,相較於監控參數引擎164針對第一區域針對第一組準則判定之數目及/或頻率,該等監控參數界定應部署更大數目個行動機器人及/或應以一更大頻率部署。
在一些實施方案中,基於當滿足特定準則時在一區域中發生之移動量判定監控參數包含基於由引擎162判定之原始量判定監控參數。舉例而言,若原始量小於50,則可判定第一監控參數;若原始量係自50至100,則可判定第二監控參數等。在一些實施方案中,基於當滿足特定準則時在一區域中發生之移動量判定監控參數包含基於由引擎162判定之量之一正規化或基於量之某個其他轉換判定量。舉例而言,在一些實施方案中,由引擎 162判定之一原始量可關於一或多個值(諸如由移動之原始量表示之天數、小時數及/或周數)正規化。舉例而言,若量係基於在最後一天在一區域中發生之一移動量,則可將量正規化為每小時之一平均移動量(例如,原始量除以24)。作為另一實例,若量係基於在最後一小時在一區域中發生之一移動量,則可將量正規化為每分鐘之一平均移動量(例如,原始量除以60)。作為又一實例,若量係在過去的52周之星期二發生之一移動量,則可將量正規化為每天之一平均移動量(例如,原始量除以52)。
作為一個特定實例,可將由引擎162判定之全部量正規化為每分鐘之一平均移動量。若每分鐘之平均移動量小於1,則監控參數引擎164可判定第一監控參數;若每分鐘之平均移動量係自1至5,則判定第二監控參數;若每分鐘之平均移動量係自6至10,則判定第三監控參數等。相較於第二監控參數,第三監控參數可界定一區域中之一更大量之行動機器人及/或該區域中之一更大頻率之機器人移動,且相較於第一監控參數,第二監控參數可界定一更大量及/或更大頻率。
如本文中描述,監控參數引擎164可判定監控參數之多個例項,其中各例項與環境之一或多個對應區域及一或多個對應準則相關聯。針對監控參數之一或多個例項之各者,命令引擎166將命令145提供至行動機器人130A至130N,該等命令145係基於該等行動參數且將在滿足對應於該等監控參數之準則之未來時間段影響行動機器人130A至130N之移動之一或多個態樣。由於行動機器人130A至130N之移動之一或多個態樣在未來時間段之影響,經提供命令145將在該等未來時間段期間影響在對應於該等監控參數之一或多個區域處之物件觀察量。
在一些實施方案中,命令145可明確引導一定量之行動機器人130A至 130N行進至已針對其判定監控參數之一或多個區域,其中量係基於監控參數。舉例而言,在監控參數界定應部署至少5個行動機器人之情況中,命令可將5個行動機器人130A至130N引導至一或多個區域及/或將儘可能多之(高達5個)可用行動機器人130A至130N引導至一或多個區域。
在一些實施方案中,命令145可在未來時間段期間影響行動機器人130A至130N將選擇遇到該區域之一路徑之可能性。舉例而言,命令145可在時間段期間增加或減少一或多個行動機器人130A至130N「轉向」偏離至一位置之一「最短」或另外「最佳」路徑以訪問該區域之可能性(例如,可增加及/或減少一或多個行動機器人130A至130N將轉向之距離)。舉例而言,其中監控參數界定應以一相對高頻率將機器人部署至該區域之情況中,命令145可引導行動機器人130A至130N轉向偏離一最佳路徑高達100碼,前提是如此做將導致機器人130A至130N穿過該區域。另一方面,其中監控參數界定應以一相對低頻率將機器人部署至該區域之情況中,命令145可引導行動機器人130A至130N轉向偏離一最佳路徑高達15碼,前提是如此做將導致機器人130A至130N穿過該區域。
在一些實施方案中,命令引擎166監控對已由監控參數引擎164針對其判定監控參數之任何準則之滿足,且回應於已針對其判定監控參數之一例項之準則之滿足而將對應命令145發送至行動機器人130A至130N。舉例而言,其中準則由一特定時間段(例如,星期二自15:00至17:00)組成之情況中,命令區域166可監測該特定時間段(例如,一星期二在15:00至17:00內之任何時間)之發生。回應於該發生,命令引擎可發送基於對應監控參數客製化之命令145。在一些其他實施方案中,命令引擎166可在該發生之前將命令145連同對應於該等命令之準則一起發送至行動機器人130A至130N。 在該等實施方案中,機器人130A至130N可自身監控準則之滿足且回應於準則之滿足而根據命令145操作。
在一些案例中,可在一給定時間段期間滿足用於監控參數之多個例項之準則。舉例而言,假定監控參數之一第一例項可具有「星期二自15:00至17:00」之相關聯準則且監控參數之一第二例項具有「存在人類之群組A」之相關聯準則。進一步假定現在係星期二的15:00且環境中存在人類之群組A。在一些實施方案中,命令引擎166可產生基於監控參數之第一例項及監控參數之第二例項兩者之命令145。在一些其他實施方案中,命令引擎166可產生僅基於監控參數之一個例項之命令145。舉例而言,命令引擎166可僅基於監控參數之最近判定之例項產生命令。又,舉例而言,命令引擎166可基於與最具體界定之準則相關聯之監控參數之例項產生命令。舉例而言,可優於與「星期二」之準則相關聯之第二監控參數利用與「星期二自13:00至15:00且存在清單X」之準則相關聯之第一監控參數。
雖然在圖1中分開描繪機器人130A至130N、系統150及系統160,但此非旨在為限制性。在各種實施方案中,可在機器人命令產生系統160中實施時空物件清單產生系統150之一或多個態樣或反之亦然。再者,在各種實施方案中,可在一或多個機器人130A至130N中實施系統150及/或160之一或多個態樣。舉例而言,可在各行動機器人130A至130N中實施命令引擎166之一例項。在其中機器人130A至130N、系統150及/或系統160係單獨組件之實施方案中,其等可經由一或多個有線或無線網路或使用其他無線技術(諸如無線電、藍芽、紅外線等)通信。
圖2繪示使用一行動機器人之一物件觀察來產生一時空物件清單之一部分之一實例。在圖2中,繪示物件觀察140A(圖1)之一物件觀察140A1且 其包含一物件識別符142A1、一經量測物件姿勢144A1、一量測時間146A1及一經量測源姿勢148A1。
物件姿勢產生引擎152使用經量測物件姿勢144A1及經量測源姿勢148A1兩者以判定一物件姿勢。舉例而言,經量測源姿勢148A1可係關於一參考座標系且經量測物件姿勢144A1可係關於其之量測用於判定經量測物件姿勢144A1之一感測器,且物件姿勢產生引擎152可使用經量測源姿勢148A1以將經量測物件姿勢144A1轉換至參考座標系中。將物件姿勢提供至清單產生引擎154。
清單產生引擎154產生時空物件清單170之一輸入項,該輸入項包含物件識別符142A1、經判定物件姿勢及量測時間146A1。
雖然關於一單個物件觀察140A1描述圖2,但應理解,圖2之技術可用於產生利用額外物件觀察140A至140N之時空物件清單170之額外部分。可隨著接收物件觀察140A至140N而處理其等以使時空物件清單170保持最新。
圖3繪示基於一時空物件清單判定用於行動機器人之監控參數且將基於監控參數之命令提供至行動機器人之一實例。在圖3中,將準則101提供至移動量引擎162。如本文中描述,準則可包含(例如)以下之一或多者:一或多個特定時間段、一或多個人類之一特定群組在區域中之存在、一或多個特定量之人類在區域中之存在及/或清單準則。
移動量引擎162基於時空物件清單170及/或環境中人類資料資料庫177判定當滿足準則101時在環境之一區域中發生之清單170中界定之物件之一移動量。環境中人類資料資料庫177可包含針對複數個時間段之各者指示在該等時間段期間在一環境中存在之一或多個人類及/或在該等時間段 期間在該環境中存在之人類之一量之人類存在資料。移動量引擎162可利用資料庫177以判定清單170中指示之移動是否滿足「一或多個人類之一特定群組在區域中之存在及/或一或多個特定量之人類在區域中之存在」準則。移動量引擎162可依賴清單170以判定清單170中指示之移動是否滿足「時間段及/或清單」準則。
移動量引擎162將經判定移動量及針對經判定移動量之區域及準則提供至監控參數引擎164。監控參數引擎164基於經接收移動量,針對亦滿足準則之一或多個未來時間段判定用於行動機器人之一或多個監控參數。舉例而言,若移動量相對大,則引擎164可判定指示針對亦滿足準則之一或多個未來時間段應將相對大量行動機器人部署至區域及/或針對亦滿足準則之一或多個未來時間段行動機器人應相對頻繁遇到該區域之監控參數。
監控參數引擎164將經判定監控參數及區域及參數提供至命令引擎166。在圖3之實施方案中,命令引擎166針對由引擎164提供之準則之「當前滿足」監控清單170及/或資料庫177。回應於判定當前滿足,命令引擎166將命令發送至基於監控參數客製化之行動機器人130A至130N。在一些實施方案中,命令引擎166在當前滿足之前將命令發送至行動機器人130A至130N。舉例而言,命令引擎166可提供預期一當前滿足之命令(例如,將滿足一時間段準則之前5分鐘)。在一些實施方案中,命令可明確引導一定量之行動機器人130A至130N行進至已針對其判定監控參數之一或多個區域,其中量係基於監控參數。在一些實施方案中,命令可影響行動機器人130A至130N將選擇遇到該區域之一路徑之可能性。
作為一個特定實例,其中準則由一特定時間段及環境中存在之人類之量組成(例如,星期二自15:00至17:00且存在至少10個人類)之情況中,命 令引擎166可監控該特定時間段(例如,星期二在15:00至17:00內之任何時間)之發生且可存取資料庫177以監控在環境中存在10個人類之發生。回應於該發生,命令引擎166將命令發送至基於監控參數客製化之行動機器人130A至130N。
參考圖4A至圖4C,提供移動穿過一環境且判定及提供與環境中之物件105A至105M相關之物件觀察之機器人130A、130B、130C及130N之實例。圖4A繪示在一第一時間處之一建築物之一部分之一平面圖。在該第一時間處,繪示物件105A至105M在其等之各自位置且亦繪示機器人130A、130B、130C及130N在其等之各自位置。物件105A至105H可係(例如)箱、托板及/或其他物件。物件105K至105M可係(例如)鼓、桶及/或其他物件。在圖4A之第一時間處,一或多個機器人130A、130B、130C及130N之各者可提供針對一或多個物件105A至105M之對應物件觀察。舉例而言,物件105A可在機器人130A之一或多個感測器之視野中且機器人130A可提供具有物件105A之一物件識別符及針對物件105A之一經量測物件姿勢之一物件觀察。
圖4B繪示在晚於圖4A之第一時間之一第二時間處之建築物之部分之平面圖。物件105A至105M在圖4B中具有與其等在圖4A中之姿勢相同之姿勢。然而,機器人130A、130B、130C及130N由於執行一任務(一觀察/監控任務或非觀察/監控任務)已全部移動。在圖4B之第二時間處,一或多個機器人130A、130B、130C及130N之各者可提供包含具有針對一或多個物件105A至105M之一經量測物件姿勢之物件觀察之對應物件觀察。應注意,可能亦已在圖4A之第一時間與圖4B之第二時間之間提供多個觀察。
圖4C繪示在晚於圖4B之第二時間之一第三時間處之建築物之部分之 平面圖。物件105K至105M在圖4C中具有與其等在圖4A及圖4B中之姿勢相同之姿勢。然而,物件105A至105C及物件105E至105M由於一或多個人類之移動、一或多個人類控制機器之移動及/或一或多個機器人(可包含一或多個機器人130A、130B、130C及130N)之移動而全部具有不同姿勢。歸因於物件105D移出環境,物件105D不再存在於圖4C中。再者,機器人130A、130B、130C及130N由於執行一任務(一觀察/監控任務或非觀察/監控任務)而全部已移動。在圖4C之第三時間處,一或多個機器人130A、130B、130C及130N之各者可提供包含具有針對一或多個物件105A至105M之一經量測物件姿勢之物件觀察之對應物件觀察。應注意,可能亦已在圖4B之第二時間與圖4C之第三時間之間提供多個物件觀察。
可更新時空物件清單170以根據本文中描述之技術反映圖4C中之改變。再者,命令產生系統160可鑑於在圖4B與圖4C之間發生之物件105D之移動(且鑑於物件之其他時間上不同之移動)而判定監控參數,且在一未來時間段利用此等監控參數以將控制命令提供至機器人130A、130B及130N,其中控制命令係基於監控參數且在未來時間段影響機器人130A、130B及130N之移動之一或多個態樣。
圖5描繪繪示基於來自行動機器人之目標觀察產生一時空物件清單且基於該時空物件清單針對一或多個未來時間段判定用於行動機器人之監控參數之一例示性方法之一流程圖。為了方便起見,參考執行操作之一系統描述流程圖之操作。此系統可包含各種電腦系統之各種組件,諸如圖1之時空物件清單產生系統150及/或機器人命令產生系統160。再者,雖然以一特定順序展示方法500之操作,但此不旨在為限制性。可記錄、省略或添加一或多個操作。
在方塊502中,系統自一環境中之複數個行動機器人接收針對環境中之物件之物件觀察。各物件觀察至少包含一物件之一識別符及針對物件之一經量測物件姿勢。
在方塊504中,系統基於在方塊502中接收之物件觀察產生一時空物件清單。經產生時空模型界定針對環境之複數個物件之各者之物件姿勢及對應量測時間。
在方塊506中,系統基於時空物件清單判定當滿足一或多個準則時發生之物件之一移動量。準則可包含(例如)以下之一或多者:一或多個特定時間段、一或多個人類之一特定群組在區域中之存在、一或多個特定量之人類在區域中之存在及/或清單準則。
在方塊508中,系統基於當滿足一或多個準則時發生之物件之移動量,針對亦滿足準則之一或多個未來時間段判定用於行動機器人之監控參數。
在方塊510中,系統將基於監控參數且在未來時間段影響行動機器人之移動之命令提供至一或多個行動機器人。
圖6示意性描繪一機器人之一例示性架構。機器人600可採取各種形式,包含(但不限於)一遙現機器人、一人形形式、一動物形式、一輪式器件、一潛水載具、一無人飛行載具(「UAV」)等。在各種實施方案中,機器人600可包含一控制器602。控制器602可採取各種形式,諸如一或多個處理器、一或多個場可程式化閘陣列(「FPGA」)、一或多個特定應用積體電路(「ASIC」)、一或多個所謂的「即時控制器」等。
在各種實施方案中,控制器602可(例如)經由一或多個匯流排610而與一或多個致動器604a至604n及/或一或多個感測器608a至608m可操作耦合。感測器608a至608m可採取各種形式,包含(但不限於)3D感測器、攝影 機、深度感測器、光感測器、壓力感測器、壓力波感測器(例如,麥克風)、近接感測器、加速度計、陀螺儀、溫度計、氣壓計等。雖然將感測器608a至608m描繪為與機器人600整合,但此不旨在為限制性。在一些實施方案中,一或多個感測器608a至608m可定位於機器人600外部(例如)作為獨立單元。
控制器602可將控制命令提供至致動器604a至604n以完成一或多個任務。該等控制命令包含引導致動器604a至604n以驅動輪及/或其他組件以使機器人600能夠自主、半自主及/或回應於由一運算器件回應於在該運算器件處之使用者介面輸入而提供之控制命令橫越一或多個路徑。控制器602可進一步提供控制命令以產生本文中描述之物件觀察之全部或態樣及/或接收由機器人命令產生系統160提供之一或多個命令145且產生基於命令145之一或多個控制命令。舉例而言,控制器602可將控制命令提供至一或多個致動器604a至604n以自主將機器人600導航至一環境中之各種位置,其中該等控制命令由機器人600鑑於命令145產生。又,舉例而言,控制器602可經由網路介面子系統615而與時空物件清單產生系統150及/或機器人命令產生系統160建立一網路連接。網路介面子系統615提供至外部網路之一介面且耦合至一或多個其他電腦系統中之一或多個對應介面器件(諸如從事於與機器人之一會話之一運算器件)。在一些實施方案中,除了其他組件之外,機器人600亦可併入一電腦系統(諸如下文中描述之電腦系統710)之一或多個態樣。
圖7係一例示性電腦系統710之一方塊圖。電腦系統710通常包含經由匯流排子系統712而與若干周邊器件通信之至少一個處理器714。此等周邊器件可包含一儲存子系統724(包含(例如)一記憶體子系統725及一檔案儲 存子系統726)、使用者介面輸出器件720、使用者介面輸入器件722及一網路介面子系統716。輸入器件及輸出器件容許與電腦系統710之使用者互動。網路介面子系統716提供至一外部網路之一介面且耦合至其他電腦系統中之對應介面器件。
使用者介面輸入器件722可包含一鍵盤、指標器件(諸如一滑鼠、軌跡球、觸控墊或圖形輸入板)、一掃描器、併入顯示器中之一觸控螢幕、音訊輸入器件(諸如語音識別系統、麥克風及/或其他類型之輸入器件)。一般言之,術語「輸入器件」之使用旨在包含將資訊輸入至電腦系統710中或一通信網路上之全部可能類型之器件及方式。
使用者介面輸出器件720可包含一顯示子系統、一印表機、一傳真機或非視覺顯示器(諸如音訊輸出器件)。顯示子系統可包含一陰極射線管(CRT)、一平板器件(諸如一液晶顯示器(LCD))、一投影器件或用於產生一可見影像之某個其他機構。顯示子系統亦可諸如經由音訊輸入器件而提供非視覺顯示器。一般言之,術語「輸出器件」之使用旨在包含將資訊自電腦系統710輸出至使用者或另一機器或電腦系統之全部可能類型之器件及方式。
儲存子系統724儲存提供本文中描述之一些或全部模組之功能性之程式化及資料建構。舉例而言,儲存子系統724可包含執行方法500之經選擇態樣及/或實施控制器602、引擎152、引擎154、引擎162、引擎164及/或引擎166之一或多個態樣之邏輯。用於儲存子系統724中之記憶體725可包含若干記憶體,包含用於在程式執行期間儲存指令及資料之一主隨機存取記憶體(RAM)730及其中儲存固定指令之一唯獨記憶體(ROM)732。一檔案儲存子系統726可提供程式及資料檔案之永久儲存且可包含一硬碟機、 CD-ROM碟機、一光碟機或可抽換式媒體匣。實施某些實施方案之功能性之模組可由檔案儲存子系統726儲存於儲存子系統724中或可由(若干)處理器714存取之其他機器中。
匯流排子系統712提供用於使電腦系統710之各種組件及子系統視需要彼此通信之一機構。雖然將匯流排子系統712示意性展示為一單個匯流排,但匯流排子系統之替代實施方案可使用多個匯流排。
電腦系統710可係不同類型,包含一工作站、伺服器、運算叢集、刀鋒伺服器、伺服器場、智慧型電話、智慧型手錶、智慧型眼鏡、機上盒、平板電腦、膝上型電腦或任何其他資料處理系統或運算器件。歸因於電腦及網路之不斷改變的性質,圖7中描繪之電腦系統710之描述旨在僅作為用於繪示一些實施方案之目的之一特定實例。具有多於或少於圖7中描繪之電腦系統之組件之電腦系統710之許多其他組態係可行的。

Claims (20)

  1. 一種使用行動機器人之物件觀察之電腦實施方法,其包括:藉由一或多個電腦之一系統自一環境中之複數個行動機器人接收物件觀察,其中複數個該等物件觀察各包含:針對一對應物件之一物件識別符,其中基於來自該等行動機器人之一對應者之一或多個感測器之感測器資料判定該物件識別符,及針對該物件識別符之一經量測物件姿勢,其指示該對應物件之一物件姿勢;藉由該系統基於該等物件識別符、該經量測物件姿勢及該等物件觀察之量測時間產生一時空物件清單;其中該時空物件清單針對由該等物件觀察之該等物件識別符指示之複數個物件之各者界定針對該物件之一或多個姿勢及針對該等姿勢之對應量測時間;藉由該系統且基於該時空物件清單判定當滿足一或多個準則時發生之該等物件之一移動量,其中該等物件之移動包含以下之至少一者:該等物件移入該環境之至少一個區域中及該等物件移出該環境之該區域;藉由該系統且基於當滿足該準則時發生之該移動量,針對亦滿足該準則之一或多個未來時間段判定用於該等行動機器人之一或多個監控參數;及藉由該系統將基於該等監控參數之命令提供至該等行動機器人之一或多者,其中該等命令在該等未來時間段影響該等行動機器人之移動之一或多個態樣,且因此影響在該等未來時間段接收之針對該環境之該區域之一物件觀察量。
  2. 如請求項1之電腦實施方法,其中該一或多個準則包含一特定時間段且進一步包括:藉由該系統基於判定在該特定時間段期間發生之該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
  3. 如請求項2之電腦實施方法,其中該特定時間段係以下之一者:一周之一或多個特定日子、一年之一或多個特定日子或一周之特定日子或一年之日子之一或多者期間之一或多個時間段。
  4. 如請求項2之電腦實施方法,其中判定當滿足該一或多個準則時發生之該等物件之該等移動包括:藉由該系統基於以下而判定該物件移入該區域中之一移動在該特定時間段期間發生:判定針對該物件之該等姿勢之一第一姿勢在該區域之外部且具有時間上在該時間段之前之該等對應量測時間之一第一對應量測時間;及判定針對該物件之該等姿勢之一第二姿勢在該區域內且具有時間上在該時間段內之該等對應量測時間之一第二對應量測時間。
  5. 如請求項2之電腦實施方法,其中判定當滿足該一或多個準則時發生之該等物件之該等移動包括:藉由該系統基於以下而判定該物件移入該區域中之一移動在該特定 時間段期間發生:判定未針對該時空物件清單中之該物件界定時間上在該時間段之前之姿勢;及判定針對該物件之該等姿勢之一姿勢在該區域內且具有時間上在該時間段內之該等對應量測時間之一對應量測時間。
  6. 如請求項2之電腦實施方法,其中判定當滿足該一或多個準則時發生之該等物件之該等移動包括:藉由該系統基於以下而判定該物件移出該區域之一移動在該特定時間段期間發生:判定針對該物件之該等姿勢之一第一姿勢在該區域內部且具有時間上在該時間段之前之該等對應量測時間之一第一對應量測時間;及判定針對該物件之該等姿勢之一第二姿勢在該區域外部且具有時間上在該時間段內之該等對應量測時間之一第二對應量測時間。
  7. 如請求項1之電腦實施方法,其中該一或多個準則包含一或多個人類之一群組在該區域中之存在且進一步包括:藉由該系統接收指示一或多個人類之該群組存在於該區域中之複數個時間段之人類存在資料;及基於判定在該群組存在於該區域中之該等時間段之一者期間發生之該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
  8. 如請求項1之電腦實施方法,其中該一或多個準則包含一或多個特定量之一或多個人類存在於該區域中,且進一步包括:藉由該系統接收指示該一或多個特定量之該一或多個人類存在於該區域中之複數個時間段之人類量資料;及基於判定在該一或多個特定量存在於該區域中之該等時間段之一者期間發生之該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
  9. 如請求項1之電腦實施方法,其中該一或多個準則包含該環境之清單準則且進一步包括:基於判定當該清單準則存在於該環境中時發生該等物件移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
  10. 如請求項9之電腦實施方法,其中該環境之該清單準則係限於該環境之該區域之清單準則。
  11. 如請求項1之電腦實施方法,其中該區域係該環境之一子集。
  12. 如請求項1之電腦實施方法,其中基於該等監控參數在該等未來時間段影響該等行動機器人之移動之一或多個態樣之該等命令包含:在該等未來時間段期間將該等行動機器人引導至該區域之命令。
  13. 如請求項1之電腦實施方法,其中基於該等監控參數在該等未來時間 段影響該等行動機器人之移動之一或多個態樣之該等命令包含:增加該等行動機器人在該等未來時間段期間將選擇遇到該區域之一路徑之可能性之命令。
  14. 一種使用行動機器人之物件觀察之系統,其包括:一或多個運算系統;一環境中之複數個機器人,其等在一段時間內將物件觀察提供至該一或多個運算系統,其中該等物件觀察各包含:針對一對應物件之一物件識別符,其中該物件識別符係基於來自該等行動機器人之一對應者之一或多個感測器之感測器資料判定,及針對該物件識別符之一經量測物件姿勢,其指示該對應物件之一物件姿勢;其中該一或多個運算系統包括當由該一或多個運算系統執行時導致該一或多個運算系統完成以下之指令:基於該等物件識別符、該經量測物件姿勢及該等物件觀察之量測時間產生一時空物件清單;其中該時空物件清單針對由該等物件觀察之該等物件識別符指示之複數個物件之各者界定針對該物件之一或多個姿勢及針對該等姿勢之對應量測時間;且其中複數個該等姿勢指示一未知;基於該時空物件清單判定當滿足一或多個準則時發生之該等物件之一移動量,其中該等物件之移動包含以下之至少一者:該等物件移入該環境之至少一個區域中及該等物件移出該環境之該區域; 基於當滿足該準則時發生之該移動量,針對亦滿足該準則之一或多個未來時間段判定用於該等行動機器人之一或多個監控參數;及將基於該等監控參數之命令提供至該等行動機器人之一或多者,其中該等命令在該等未來時間段影響該等行動機器人之移動之一或多個態樣,且因此影響在該等未來時間段接收之針對該環境之該區域之一物件觀察量。
  15. 如請求項14之系統,其中該一或多個準則包含一特定時間段,且其中該等指令進一步包括當由該一或多個運算系統執行時導致該一或多個運算系統完成以下之指令:基於判定在該特定時間段期間發生之該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
  16. 如請求項15之系統,其中該特定時間段係以下之一者:一周之一或多個特定日子、一年之一或多個特定日子或一周之特定日子或一年之日子之一或多者期間之一或多個時間段。
  17. 如請求項14之系統,其中該一或多個準則包含一或多個人類之一群組在該區域中之存在,且其中該等指令進一步包括當由該一或多個運算系統執行時導致該一或多個運算系統完成以下之指令:接收指示一或多個人類之該群組存在於該區域中之複數個時間段之人類存在資料;及基於判定在該群組存在於該區域中之該等時間段之一者期間發生之 該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
  18. 如請求項14之系統,其中該一或多個準則包含一或多個特定量之一或多個人類存在於該區域中,且其中該等指令進一步包括當由該一或多個運算系統執行時導致該一或多個運算系統完成以下之指令:接收指示該一或多個特定量之該一或多個人類存在於該區域中之複數個時間段之人類量資料;及基於判定在該一或多個特定量存在於該區域中之該等時間段之一者期間發生之該等物件之該等移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
  19. 如請求項14之系統,其中該一或多個準則包含該環境之清單準則,且其中該等指令進一步包括當由該一或多個運算系統執行時導致該一或多個運算系統完成以下之指令:基於判定當該清單準則存在於該環境中時發生之該等物件移動來判定當滿足該一或多個準則時發生之該等物件之該等移動。
  20. 一種使用行動機器人之物件觀察之電腦實施方法,其包括:藉由一或多個電腦之一系統自一環境中之複數個行動機器人接收物件觀察,其中複數個該等物件觀察各包含:針對一對應物件之一物件識別符,其中基於來自該等行動機器人之一對應者之一或多個感測器之感測器資料判定該物件識別符,及 針對該物件識別符之一經量測物件姿勢,其指示該對應物件之一物件姿勢;藉由該系統基於該等物件識別符、該經量測物件姿勢及該等物件觀察之量測時間產生一時空物件清單;其中該時空物件清單針對由該等物件觀察之該等物件識別符指示之複數個物件之各者界定針對該物件之一或多個姿勢及針對該等姿勢之對應量測時間;其中複數個該等姿勢各指示該對應物件之一位置針對該對應量測時間未知;藉由該系統且基於該時空物件清單判定當滿足一或多個準則時發生之該等物件之一未知移動量,其中基於指示該對應物件之該位置針對該對應量測時間未知之該等姿勢判定該等物件之未知移動;藉由該系統且基於當滿足該準則時發生之該等未知移動量,針對亦滿足該準則之一或多個未來時間段判定用於該等行動機器人之一或多個監控參數;及藉由該系統將基於該等監控參數之命令提供至該等行動機器人之一或多者,其中該等命令在該等未來時間段影響該等行動機器人之移動之一或多個態樣,且因此影響在該等未來時間段接收之針對該環境之區域之一物件觀察量。
TW105129390A 2015-09-10 2016-09-09 使用行動機器人之物件觀察之電腦實施方法及系統 TWI629150B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/850,909 2015-09-10
US14/850,909 US10195740B2 (en) 2015-09-10 2015-09-10 Using object observations of mobile robots to generate a spatio-temporal object inventory, and using the inventory to determine monitoring parameters for the mobile robots

Publications (2)

Publication Number Publication Date
TW201722652A TW201722652A (zh) 2017-07-01
TWI629150B true TWI629150B (zh) 2018-07-11

Family

ID=56990972

Family Applications (1)

Application Number Title Priority Date Filing Date
TW105129390A TWI629150B (zh) 2015-09-10 2016-09-09 使用行動機器人之物件觀察之電腦實施方法及系統

Country Status (7)

Country Link
US (3) US10195740B2 (zh)
EP (1) EP3335090B1 (zh)
JP (1) JP2018530089A (zh)
KR (1) KR20180067523A (zh)
CN (2) CN113687652A (zh)
TW (1) TWI629150B (zh)
WO (1) WO2017044851A1 (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10195740B2 (en) 2015-09-10 2019-02-05 X Development Llc Using object observations of mobile robots to generate a spatio-temporal object inventory, and using the inventory to determine monitoring parameters for the mobile robots
SG11201805378XA (en) * 2016-01-04 2018-07-30 Zhejiang Libiao Robots Co Ltd Method and device for returning robots from site
MX2018013500A (es) * 2016-05-04 2019-07-08 Walmart Apollo Llc Sistemas distribuidos de robot autónomo y métodos.
US11036946B2 (en) * 2016-05-07 2021-06-15 Canyon Navigation, LLC Navigation using self-describing fiducials
US10417469B2 (en) * 2016-05-07 2019-09-17 Morgan E. Davidson Navigation using self-describing fiducials
EP3407232B1 (en) * 2017-05-23 2021-07-28 Ordnance Survey Limited Spatiotemporal authentication
JP6336235B1 (ja) * 2017-09-11 2018-06-06 三菱電機株式会社 物品搬送ロボット
US11089265B2 (en) 2018-04-17 2021-08-10 Microsoft Technology Licensing, Llc Telepresence devices operation methods
WO2019211932A1 (ja) * 2018-05-01 2019-11-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び自律行動ロボット制御システム
US10733445B1 (en) * 2018-06-22 2020-08-04 X Development Llc Enhanced object state discrimination for robots
US10957066B2 (en) * 2019-03-19 2021-03-23 General Electric Company Systems and methods for locating humans using dynamic field robotic-sensor network of human robot team
US11270464B2 (en) 2019-07-18 2022-03-08 Microsoft Technology Licensing, Llc Dynamic detection and correction of light field camera array miscalibration
US11553123B2 (en) 2019-07-18 2023-01-10 Microsoft Technology Licensing, Llc Dynamic detection and correction of light field camera array miscalibration
US11082659B2 (en) 2019-07-18 2021-08-03 Microsoft Technology Licensing, Llc Light field camera modules and light field camera module arrays
US11064154B2 (en) * 2019-07-18 2021-07-13 Microsoft Technology Licensing, Llc Device pose detection and pose-related image capture and processing for light field based telepresence communications
US20200026289A1 (en) * 2019-09-28 2020-01-23 Ignacio J. Alvarez Distributed traffic safety consensus
CN112224733B (zh) * 2020-11-05 2022-08-12 北京极智嘉科技股份有限公司 仓储管理***及方法
JP2022148261A (ja) * 2021-03-24 2022-10-06 トヨタ自動車株式会社 物品回収システム、物品回収ロボット、物品回収方法、及び物品回収プログラム
US11807349B1 (en) * 2022-09-16 2023-11-07 Fmc Technologies, Inc. Submersible remote operated vehicle vision assistance and control
CN116690565B (zh) * 2023-06-20 2023-12-26 苏州快捷智能科技有限公司 一种协作机器人及控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200732108A (en) * 2006-02-24 2007-09-01 Benq Corp Control system controlling movements of a machine or robot
WO2008069498A1 (en) * 2006-12-08 2008-06-12 Electronics And Telecommunications Research Institute Surroundings mapping apparatus capable of applying quickly changed surroundings information in mobile robot and method thereof
US20110052043A1 (en) * 2009-08-25 2011-03-03 Samsung Electronics Co., Ltd. Method of mobile platform detecting and tracking dynamic objects and computer-readable medium thereof
TW201124106A (en) * 2009-11-04 2011-07-16 Koninkl Philips Electronics Nv Collision avoidance and detection using distance sensors

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2722760B2 (ja) * 1990-03-30 1998-03-09 神鋼電機株式会社 移動ロボットシステム
US6226622B1 (en) 1995-11-27 2001-05-01 Alan James Dabbiere Methods and devices utilizing a GPS tracking system
US6895301B2 (en) * 2002-07-15 2005-05-17 Distrobot Systems, Inc. Material handling system using autonomous mobile drive units and movable inventory trays
JPWO2004106009A1 (ja) * 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ
JP4792823B2 (ja) * 2005-06-09 2011-10-12 ソニー株式会社 ネットワーク・システム、移動体装置及びその制御方法、並びにコンピュータ・プログラム
US7693757B2 (en) 2006-09-21 2010-04-06 International Business Machines Corporation System and method for performing inventory using a mobile inventory robot
US7667602B2 (en) * 2007-01-19 2010-02-23 Wal-Mart Stores, Inc. Multi-directional RFID reader for controlling inventory and shelf stock
JP4886572B2 (ja) * 2007-03-29 2012-02-29 本田技研工業株式会社 ロボット
US20090037244A1 (en) 2007-07-31 2009-02-05 Greta Pemberton Inventory management system
US8140188B2 (en) * 2008-02-18 2012-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Robotic system and method for observing, learning, and supporting human activities
US9147174B2 (en) 2008-08-08 2015-09-29 Snap-On Incorporated Image-based inventory control system using advanced image recognition
CN100573388C (zh) * 2008-10-30 2009-12-23 中控科技集团有限公司 实时颜色自动采集的机器人控制方法及机器人
CN101854518A (zh) * 2009-03-30 2010-10-06 鸿富锦精密工业(深圳)有限公司 物体侦测***及方法
CN101957194A (zh) * 2009-07-16 2011-01-26 北京石油化工学院 基于嵌入式的移动机器人快速视觉定位及远程监控***及方法
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
US9205886B1 (en) * 2011-05-06 2015-12-08 Google Inc. Systems and methods for inventorying objects
CN103517789B (zh) * 2011-05-12 2015-11-25 株式会社Ihi 运动预测控制装置和方法
US20120316680A1 (en) * 2011-06-13 2012-12-13 Microsoft Corporation Tracking and following of moving objects by a mobile robot
CN102411368B (zh) * 2011-07-22 2013-10-09 北京大学 机器人的主动视觉人脸跟踪方法和跟踪***
EP2758905A4 (en) * 2011-09-22 2015-07-29 Aethon Inc MONITORING, DIAGNOSTIC AND MONITORING TOOL FOR AUTONOMOUS MOBILE ROBOTS
WO2013071150A1 (en) 2011-11-11 2013-05-16 Bar Code Specialties, Inc. (Dba Bcs Solutions) Robotic inventory systems
WO2013119942A1 (en) * 2012-02-08 2013-08-15 Adept Technology, Inc. Job management sytem for a fleet of autonomous mobile robots
US9233472B2 (en) * 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
US9375847B2 (en) * 2013-01-18 2016-06-28 Irobot Corporation Environmental management systems including mobile robots and methods using same
AU2013374347B2 (en) * 2013-01-18 2016-05-19 Irobot Corporation Environmental management systems including mobile robots and methods using same
US10401825B2 (en) 2013-01-31 2019-09-03 Hewlett Packard Enterprise Development Lp Area occupancy information extraction
JP6020326B2 (ja) * 2013-04-16 2016-11-02 富士ゼロックス株式会社 経路探索装置、自走式作業装置、プログラム及び記録媒体
US9664510B2 (en) 2013-06-22 2017-05-30 Intellivision Technologies Corp. Method of tracking moveable objects by combining data obtained from multiple sensor types
JP5802241B2 (ja) * 2013-07-04 2015-10-28 富士重工業株式会社 車両の運転支援制御装置
CN103687079A (zh) * 2013-08-09 2014-03-26 机械科学研究总院 一种地下管网无线监测定位***
CN103455822B (zh) * 2013-08-19 2016-10-19 江苏科技大学 复杂工业环境中的巡检机器人***及多人脸动态跟踪方法
US20150073580A1 (en) * 2013-09-08 2015-03-12 Paul Ortiz Method and system for dynamic and adaptive collection and use of data and metadata to improve efficiency and reduce leakage and theft
EP3058524B1 (en) * 2013-10-14 2020-08-19 Keonn Technologies S.L. Automated inventory taking moveable platform
US9916561B2 (en) 2013-11-05 2018-03-13 At&T Intellectual Property I, L.P. Methods, devices and computer readable storage devices for tracking inventory
KR101534947B1 (ko) * 2013-11-21 2015-07-07 현대자동차주식회사 초음파 센서를 이용한 장애물 맵 생성 장치 및 그 방법
US9415513B2 (en) * 2014-08-29 2016-08-16 General Electric Company Systems and methods for railyard robotics
WO2016061255A1 (en) * 2014-10-14 2016-04-21 Harvest Automation, Inc. Storage material handling system
CN104570771A (zh) * 2015-01-06 2015-04-29 哈尔滨理工大学 基于场景-拓扑的自主定位方法的巡检机器人
US9914218B2 (en) * 2015-01-30 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and apparatuses for responding to a detected event by a robot
CN205247204U (zh) * 2015-07-02 2016-05-18 朱宇晨 一种自组织机器人***
US10195740B2 (en) 2015-09-10 2019-02-05 X Development Llc Using object observations of mobile robots to generate a spatio-temporal object inventory, and using the inventory to determine monitoring parameters for the mobile robots
CN105760894A (zh) * 2016-03-16 2016-07-13 哈尔滨伟方智能科技开发有限责任公司 一种基于机器视觉及机器学习的机器人导航方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200732108A (en) * 2006-02-24 2007-09-01 Benq Corp Control system controlling movements of a machine or robot
WO2008069498A1 (en) * 2006-12-08 2008-06-12 Electronics And Telecommunications Research Institute Surroundings mapping apparatus capable of applying quickly changed surroundings information in mobile robot and method thereof
US20110052043A1 (en) * 2009-08-25 2011-03-03 Samsung Electronics Co., Ltd. Method of mobile platform detecting and tracking dynamic objects and computer-readable medium thereof
TW201124106A (en) * 2009-11-04 2011-07-16 Koninkl Philips Electronics Nv Collision avoidance and detection using distance sensors

Also Published As

Publication number Publication date
US20170072563A1 (en) 2017-03-16
US20190143515A1 (en) 2019-05-16
US11123865B2 (en) 2021-09-21
US10195740B2 (en) 2019-02-05
US11660749B2 (en) 2023-05-30
EP3335090B1 (en) 2021-03-17
CN108369419A (zh) 2018-08-03
KR20180067523A (ko) 2018-06-20
CN113687652A (zh) 2021-11-23
EP3335090A1 (en) 2018-06-20
CN108369419B (zh) 2021-08-03
JP2018530089A (ja) 2018-10-11
US20220001535A1 (en) 2022-01-06
WO2017044851A1 (en) 2017-03-16
TW201722652A (zh) 2017-07-01

Similar Documents

Publication Publication Date Title
TWI629150B (zh) 使用行動機器人之物件觀察之電腦實施方法及系統
US10127677B1 (en) Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment
US10209063B2 (en) Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose
US9616568B1 (en) Generating a grasp affordance for an object based on a thermal image of the object that is captured following human manipulation of the object
US9280757B2 (en) Automated inventory management
US20190179329A1 (en) Autonomous Cart for Manufacturing and Warehouse Applications
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
US11878425B1 (en) Robot task optimization based on historical task and location correlated durations
Premebida et al. Intelligent robotic perception systems
CN108367433B (zh) 选择性部署机器人以执行建图
WO2018149341A1 (zh) 物品巡检方法及相关设备
EP4180895B1 (en) Autonomous mobile robots for coverage path planning
Rosa et al. Towards a ROS-based autonomous cloud robotics platform for data center monitoring
Konstantinidis et al. AROWA: An autonomous robot framework for Warehouse 4.0 health and safety inspection operations
Gunal Data collection inside industrial facilities with autonomous drones
Ercan et al. Swarm robot flocking: an empirical study
Wu et al. Developing a dynamic obstacle avoidance system for autonomous mobile robots using Bayesian optimization and object tracking: Implementation and testing
Jeya et al. Indoor Environment Surveillance via an Autonomous Mobile Robotic Device
Singh et al. Efficient deep learning-based semantic mapping approach using monocular vision for resource-limited mobile robots
Chikhalikar et al. Preferential Multi-Target Search in Indoor Environments using Semantic SLAM
Rusu et al. Table Cleaning in Dynamic Environments
CN114689060A (zh) 一种机器人、对机器人进行定位的方法
Morsly et al. Active cameras resources management assisted by wide field of view fixed cameras for the surveillance of multiple moving targets