UA123573C2 - Способи агрономічного та сільськогосподарського моніторингу із застосуванням безпілотних літальних систем - Google Patents

Способи агрономічного та сільськогосподарського моніторингу із застосуванням безпілотних літальних систем Download PDF

Info

Publication number
UA123573C2
UA123573C2 UAA201702686A UAA201702686A UA123573C2 UA 123573 C2 UA123573 C2 UA 123573C2 UA A201702686 A UAA201702686 A UA A201702686A UA A201702686 A UAA201702686 A UA A201702686A UA 123573 C2 UA123573 C2 UA 123573C2
Authority
UA
Ukraine
Prior art keywords
images
uav
additional different
different images
map
Prior art date
Application number
UAA201702686A
Other languages
English (en)
Inventor
Даг Саудер
Даг Саудэр
Джастін Л. Коч
Джастин Л. Коч
Трой Л. Платтнер
Філ Баурер
Фил Баурер
Original Assignee
Зе Клаймет Корпорейшн
Зе Клаймет Корпорэйшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Зе Клаймет Корпорейшн, Зе Клаймет Корпорэйшн filed Critical Зе Клаймет Корпорейшн
Publication of UA123573C2 publication Critical patent/UA123573C2/uk

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/40UAVs specially adapted for particular uses or applications for agriculture or forestry operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Guiding Agricultural Machines (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)

Abstract

Спосіб агрономічного та сільськогосподарського моніторингу включає визначення області для отримання зображень, визначення траєкторії польоту над визначеною областю, скеровування безпілотного літального апарата (БЛА) уздовж траєкторії польоту, отримання зображень області із застосуванням системи знімальних камер, прикріпленої до БЛА, та обробку отриманих зображень.

Description

: НІ
Н і : Препцій ховдення ване мижкууваче :
Не нм: Ї плундамтяту А : : пек Пломам' ять Її щі :
ОТО о: От ! :
ІН Н : ск
ОБО ! «ЗЕ
Н яна Є за іх? ух Гуттннннннннннннннннннннн педиикиа
У Кр З нині М ПИ о В НН 2 й Н Базу течі 5 х х Р пелмогеми ра о пИисМизикнИя о дУслем хх ро ще ях кї У х ї ик и а у т хі її . . от» передане пики ху ; їі МИДУЛМ рої осЕнеонем екраном у : ред пит і я БО
Крлннняі клини шо Н п ах ВИ
Дід 7 по в Ко Н і Тпкннкнаяттяяттттттту ждих 1333 Тоцйнчнак пнтерфеує вим луєячя 1 : ї ! хе КЕ 1 ї ї Н т ї ї о Хюмаонеседовще МКОК Бі М фран М нс нт Н і Н Еоними й | УДО у пн ення І зя
Н Н то Мцерікуннх дееику Н я б бмдьниковки ни Цллілмо вук | реа Н : 33
І; ї Н ПИ ї ие ку НУ Н фени і ї її анмяхуданох їз А Н сх Кутя ше ладу і Н о дбраєка данех! 4 го у НИ щ модуль і НО; ин 7 ї ану Ж І ПН вен : чини інет дллялллллхячятня 4. ї роБУен ем иКу т у ДН ЗЛІТ ТІ ДДТ фллтттттнтттттттттттттттттт
Н вт х я телят : їі : Н ї ї дачний ТЕ у-а і їі фо перервою Й КОРМ бездатовнй Роовбитюих и
Шрі Вени зутяючнй пливли: ЛАН ЕД сн ЧИН зианіхрта Н ра РОК псркацахну З ія лжухшкоМюхМ ВІ у Ї по па х Н їх ї ро опеумдажяну Н сти мими
УК охххннннняяя, г: Н км У зр хі супи еицаціх їй 1-54 Н Холл її : щогл. - МЕ нщ Н пекпжендяці 1 : . Н кача її Й Н
ТЕ опе і і ЖІ бломиконий Пов МОСС йх ота прийма рі Похкляднкя :
Крот і - ПУ ї КЯ Ї ТАЙ КО пижкляция У
ІН ТОР уї 1 На і М Ша БИ п Н 0003 КОУБАКЕ мидхяно БОЇ о ГиХ т ї Ї іо вафтрамо пута і -
Й Н Чатяяяяяятянятяннннянн я М Н ме си і іл: рних зайеюнченна дих Н
РА пр идаюати 1 ня МО і ит дк Я 4, их пий . Я
Язднкі Мпа р ІБ Везделнний обишті ш ЕНН я знухлядеваких нн НА ОНИ пд и най кі ЕН п На но ко рорлллтиттрої : ОТ ожжрейнкаху МОЖ ї х і - Н тк, зромжацелі | Н
Ко: овемхцеют ГО. нам иму НН - ін У; Кі Н Ко сссннннлнтятянннннннннннниї
ЗЕ КО ЕН прейжах Н Вч чі хі ер в п
ХО. дняятятттяятяяятяяті помп ооивих З ВЕН Й Н 51 ї ГУ ї :
ВНП у ення хі о і ей ут БЕ х І Ки т, З Кабель дахнк тота пЗКщІВ мам То Схема каююи 17» Н я НН Рош ОК хв і і Н ї ни М НК їі Н нн винне х і: хі ях Б ї і нн и п ПП М В п п п
Ні Н х ваза таці ЕН ШЕ ДЕЯ МЕ ЧИН Я Н
МІ ! ї Ин Му ІН т; Хо ро; пахоняемний ким киво Н
Н і ЕН 155 ЧИ й Н форт тт по А У релевантні Н
ТЕ оодадхння 1 и д ОБ Її каездожуТИЙ ! ! миро ббяЖжене 1 оої4у 1 ббльниковий | Га ОБЕРИ палала в Ким ден А НИ Її даклдацйн 010. : Рі х Ук нов: лину | ї молул Н К іо певідавач; РІ брограанюабехиюевини 1.
В Н Н й НШКе ! яд ВД ІН
ИПИИИЦИШИЦЦ, Бетті ро прмМиМмач рі дяхобишоку ів складання ТІ (ОТ Мплпвеєятн о 1 іездпатавий Ті рі Н га пери пурахеких рі
ВО офі ; і тих Тоспхдупискердаєтькех 01 і Ї кепедавачулумйая ро обемечентвеекх о їі і оггдртітіттннині нн нимок ум Рі данех ЕН
Н І пу : ТОНПУламяів рости
Н ме НЕ сс НУ ОД ї Н
Я гео: : НИ с -.Кх Н
Р допити АК ІЗ і а
Заявляння пріоритету
МП! Ця заявка заявляє пріоритет згідно з 35 И.5.С. 5 119(е) за попередньою заявкою 62/040859, поданою 22 серпня 2014 року, та попередньою заявкою 62/046438, поданою 5 вересня 2014 року, які включені в цей документ у повному обсязі шляхом посилань.
Галузь техніки 2 Цей винахід загалом відноситься до агрономічного та сільськогосподарського моніторингу, та більш конкретно, до способів агрономічного та сільськогосподарського моніторингу із застосуванням безпілотних літальних систем, або дронів.
Рівень техніки
ЇЗ|Ї Безпілотні літальні апарати (БЛА), які іноді називають дронами, являють собою дистанційно пілотовані або самопілотовані літальні апарати, які можуть нести датчики, обладнання зв'язку, камери або інший корисний вантаж. БЛА використовували для військової розвідки та збору розвідувальних даних, а також для захоплення зображень земної поверхні для цивільного застосування. Хоча БЛА також були застосовані для сільськогосподарського моніторингу, такі системи не були такими, що задовольняють в повному обсязі. Для сільськогосподарського застосування потрібен вдосконалений БЛА.
І Цей розділ "Рівень техніки" направлений на надання читачеві різних аспектів даної області техніки, які можуть стосуватися різних аспектів цього розкриття, які описані та/або заявлені нижче. Цей опис повинен бути корисним в забезпеченні читача базовою інформацією для сприяння кращому розумінню різних аспектів цього розкриття. Відповідно, слід розуміти, що ці твердження мають бути прочитані з цієї точки зору, а не як визнання попереднього рівня техніки.
Стислий опис сутності винаходу
ІБЇ Одним аспектом винаходу є спосіб агрономічного та сільськогосподарського моніторингу.
Спосіб включає визначення області для отримання зображень, визначення траєкторії польоту над визначеною областю, скеровування безпілотного літального апарату (БЛА) уздовж траєкторії польоту, отримання зображень області із застосуванням системи знімальних камер, прикріпленої до БЛА, та обробку отриманих зображень.
ЇЇ Іншим аспектом винаходу є система для агрономічного та сільськогосподарського
Зо моніторингу. Ця система містить обчислювальний пристрій, виконаний з можливістю визначення області для отримання зображень та визначення траєкторії польоту над визначеною областю.
Система додатково містить безпілотний літальний апарат, який комунікаційно зв'язаний з обчислювальним пристроєм та має систему знімальних камер, при цьому безпілотний літальний апарат виконаний з можливістю переміщення уздовж траєкторії польоту, отримування зображення області із застосуванням системи знімальних камер та обробки отриманих зображень.
Ї/! Існують різні уточнення ознак, зазначених у відношенні зазначених вище аспектів винаходу. Додаткові ознаки також можуть бути включені до зазначених вище аспектів винаходу.
Ці уточнення та додаткові ознаки можуть існувати окремо або в будь-якій комбінації. Наприклад, різні ознаки, розглянуті нижче відносно будь-яких проілюстрованих варіантів реалізації винаходу, можуть бути включені в будь-які з вищеописаних аспектів винаходу, окремо або в будь-якій комбінації.
Стислий опис графічних матеріалів
ІВІЇ На Фіг. 1 зображена структурна схема системи для застосування в агрономічному та сільськогосподарському моніторингу.
ІЗЇ На Фіг. 2 зображена блок-схема послідовності способу керування безпілотним літальним апаратом для агрономічного та сільськогосподарського моніторингу, який може бути застосований з системою, зображеною на фіг. 1. 191 На Фіг. З зображена блок-схема послідовності етапу планування польоту за способом, зображеним на Фіг. 2.
ПІ На Фіг. 4 зображена блок-схема послідовності етапу виконання польоту за способом, зображеним на фіг. 2. 21 На Фіг. 5 зображена блок-схема послідовності етапу передачі/обробки даних після польоту за способом, зображеним на Фіг. 2. 131 На Фіг. 6, Фіг. 7, Фіг. 8, Фіг. 9, Фіг. 10, Фіг. 11 зображені приклади мап, які можуть бути створені системою, зображеною на фіг. 1. 1141 Відповідні номери позицій вказують на відповідні частини по всіх видах графічних матеріалів.
Докладний опис 60 15) Що стосується Фіг. 1, приклад безпілотної літальної системи згідно з даним винаходом позначений загалом позицією 100. Безпілотна літальна система 100 містить множину компонентів, в тому числі безпілотний літальний апарат (БЛА) 110, хмарне середовище 120, графічний інтерфейс користувача 130 (ГІК)У (наприклад, реалізований із застосуванням планшетного обчислювального пристрою), базову станцію 140, персональний комп'ютер 150 та пристрій введення даних користувача (ПВДК) 160. Компоненти системи 100 будуть описані більш докладно нижче. 116) В цьому варіанті реалізації винаходу компоненти системи 100 комунікаційно з'єднані один з одним за допомогою одного або більше середовищ зв'язку (наприклад, прямого кабельного з'єднання, хмарних обчислювальних мереж, інтернету, локальних мереж (ГАМ), бездротових локальних мереж (М/Г АМ) (наприклад стандарту 802.11ас) або глобальних мереж (ММАМ)). Відповідно, компоненти системи 100 можуть містити бездротовий передавач та приймач (наприклад 118, 135, 143, 151, 165) та/або модуль стільникової передачі (наприклад 113, 131, 142, 162) для забезпечення бездротового зв'язку між компонентами. Додатково один або більше компонентів (110, 120, 120, 140, 150 та 160) можуть містити глобальну систему визначення місцезнаходження (СР) (наприклад 111, 133, 145, 153 та 161) для визначення положення пов'язаних компонентів, нормалізації РО-даних між компонентами та забезпечення можливості тріангуляційних обчислювань для визначення положення.
І17| В цьому варіанті реалізації винаходу безпілотний літальний апарат 110 представляє собою дистанційно пілотований або автопілотований літальний апарат, який має можливість зависати (наприклад, вертоліт) або має фіксоване крило. Приклад БЛА з можливістю зависання типу "квадрокоптер" описаний в публікації заявки на патент США Мо 2013/0176423, яка в повному обсязі включена в цей документ за допомогою посилання. В системах та способах, описаних в цьому документі, БЛА 110 сприяє в здійсненні сільськогосподарських та фермерських операцій шляхом складання мап та моніторингу стану та розвитку сільськогосподарських культур. 18) В цьому варіанті реалізації винаходу безпілотний літальний апарат (БЛА) 110 містить відповідну глобальну систему визначення місцезнаходження (СР5) 111, яка визначає місцезнаходження БЛА 110, використовуючи, наприклад, СР5-супутники на орбіті Землі. Дані про місцезнаходження та час можуть бути надані користувачеві (наприклад, людині-оператору)
Зо або комп'ютеру, який автоматично керує транспортним засобом. Датчик висоти (наприклад, ехолокатор) може бути частиною ОРобБ-системи 111 для визначення висоти БЛА 110 під час польоту. БЛА 110 також містить один або більше блоків інерційних датчиків (БІД) 112, які вимірюють та передають швидкість, орієнтацію та гравітаційні сили БЛА 110, застосовуючи комбінацію вмонтованих акселерометрів, гіроскопів та/або магнітометрів. Сумісно з СРЗ 111 та
БІД 112 автопілот 115 на БЛА 110 керує зльотом, навігацією в польоті та приземленням. Для зв'язку під час операцій зворотного польоту БЛА 110 має систему зв'язку 116 на основі дрону, яка містить радіопередавач та приймач (наприклад, 900 МГц або 1,2 ГГу) для зв'язку з пунктом вильоту, таким як базова станція 140, в польоті. 119) В типовому варіанті реалізації винаходу БЛА 110 також містить систему знімальних камер 117, встановлених на його нижній поверхні для отримання зображень під час польоту.
Система знімальних камер 117 може звисати з БЛА 110 під дією гравітації із застосуванням групи карданових підвісів, які забезпечують можливість повороту навколо множини осей.
Карданові підвіси можуть містити амортизатори, які уповільнюють реакції на зміни орієнтації
БЛА 110 під час польоту. В альтернативному варіанті система знімальних камер 117 може бути змонтована безпосередньо на БЛА 110 та керована рухом приводних механізмів. Система знімальних камер 117 може містити фотокамеру для отримання фотознімків, відеокамеру, тепловізійну камеру та/або камеру, яка працює в ближньому інфрачервоному діапазоні (БІЧ) для захоплення зображень, за допомогою яких розраховується стандартизований індекс відмінностей рослинного покриву (МОМІ). В альтернативному варіанті система 117 знімальних камер може містити будь-який пристрій отримання зображень, який дозволяє системі 100 функціонувати як описано в цьому документі.
І20Ї Системою знімальних камер 117 та позиціонуванням системи знімальних камер 117 керує бортовий центральний процесор (ЦП) та запам'ятовувальний пристрій 114. Центральний процесор (ЦП) може містити мікропроцесор. ЦП та запам'ятовувальний пристрій 114 полегшують арифметичні та логічні операції та операції введення/виведення бортового ЦП. ЦП та запам'ятовувальний пристрій 114 можуть також сприяти та/або керувати іншими аспектами
БЛА 110, описаного в цьому документі. Наприклад, в деяких варіантах реалізації винаходу ЦП та запам'ятовувальний пристрій 114 приймає інформацію від БІД 112 під час виконання операцій в польоті для сприяння орієнтації системи знімальних камер 117 та/або для 60 визначення того, чи є умови (наприклад, освітленість, швидкість, кут тощо) задовільними для захоплення корисних чітких зображень. БЛА 110 може також містити один або більше датчиків (наприклад, датчик падаючого світла), з'єднаних з ЦП та запам'ятовувальним пристроєм 114 для моніторингу зовнішніх умов. (21) В типовому варіанті реалізації винаходу базова станція 140 містить систему зв'язку на основі дрону 141, яка містить радіопередавач та приймач (наприклад, 900 МГц або 1,2 ГГц) для забезпечення зв'язку з БЛА 110, коли він знаходиться в польоті. Базова станція 140 також містить СР5З-систему 145 та ЦП і запам'ятовувальний пристрій 144, подібні до тих, які описані стосовно БЛА 110. (22) В цьому варіанті реалізації винаходу персональний комп'ютер (ПК) 150 представляє собою обчислювальний пристрій, такий як портативний комп'ютер або настільний комп'ютер. ПК 150 містить ЦП та запам'ятовувальний пристрій 153, а також містить програмне забезпечення для обробки та складання мап територіальних сільськогосподарських даних (наприклад, Рагт
УМогк5 БоймжшагеФ або 557 биттії Ргоїеззіопакв), встановлене на ньому. В одному варіанті реалізації винаходу ПК 150 може слугувати в якості інтерфейсу користувача для системи 100. (23| Система 100 також містить графічний інтерфейс користувача 130 (ГІК), який слугує портативним інтерфейсом користувача. ГІК 130 може бути реалізований із застосуванням планшета або іншого портативного обчислювального пристрою, який дозволяє користувачеві або оператору керувати системою 100. Зокрема ГІК 130 може дозволяти користувачеві призначати траєкторії польоту БЛА 110 та/або ідентифікувати перешкоди в повітрі, які можуть в іншому випадку перешкоджати траєкторії польоту БЛА 110. В цьому варіанті реалізації винаходу
ГІК 130 містить прикладну програму ("додаток") або програмне забезпечення для перегляду 136, яке дозволяє користувачеві отримувати дистанційно доступ до територіальних мап, які містять дані стосовно врожаю, врожайності та/або вмісту азоту, створених з зображень, знятих
БЛА 110. Наприклад, ГІК 130 може містити програмне забезпечення, подібне до того, яке описане в публікації міжнародної заявки на патент Мо М/О 2014/026183, яка повністю включена в цей документ за допомогою посилання. Відповідно, ГІК 130 містить ЦП та запам'ятовувальний пристрій 132 та перебуває у зв'язку з іншими компонентами системи 100. (24 Система 100 також містить пристрій інтерфейсу користувача 160 (ПВДК) (наприклад, джойстик або клавіатуру), який дозволяє користувачеві або оператору керувати системою 100.
Зо Зокрема ПВДК 160 може дозволяти користувачеві призначати траєкторії польоту БЛА 110 та/або ідентифікувати перешкоди в повітрі, які можуть в іншому випадку перешкоджати траєкторії польоту БЛА 110. В цьому варіанті реалізації винаходу ПВДК 160 містить дисплей 164, який дозволяє користувачеві дистанційно переглядати зображення з системи знімальних камер 117. Відповідно, ПВДК 160 містить ЦП та запам'ятовувальний пристрій 163 та перебуває у зв'язку з іншими компонентами системи 100. В одному варіанті реалізації винаходу ПВДК 160 може дозволяти користувачеві або оператору керувати БЛА 110 при перегляданні зображень з системи знімальних камер 117 на дисплеї 134 з сенсорним екраном на ГІК 130. (25) В цьому варіанті реалізації винаходу хмарне середовище 120 представляє собою концентратор для зберігання даних, обробки зображення та обчислювання для безпілотної літальної системи 100. Більш конкретно, хмарне середовище 120 представляє собою групу взаємозв'язаних комп'ютерів та серверів, з'єднаних через мережу зв'язку для забезпечення можливості розподіленої обробки даних. Наприклад, хмарне середовище 120 може являти собою віддалений центр зберігання даних. Стільниковий модуль 113, змонтований на БЛА 110, дозволяє завантажувати фотографії в хмарне середовище 120, поки БЛА 110 перебуває в польоті. Хмарне середовище 120 може приймати та зберігати інформацію про поточну та прогнозовану погоду, включаючи температуру повітря та кількість опадів. Хмарне середовище 120 може також обмінюватися інформацією з одним або більше сервісами аналізу та рекомендацій, які надають дані аналізу та/або рекомендації на основі даних зображень, отриманих за допомогою БЛА 110. (26) В одному варіанті реалізації винаходу БЛА 110 передає зображення, зняті за допомогою системи знімальних камер 117 під час польоту, в інші компоненти (наприклад 130, 140, 150, 160) для зберігання та/"або обробки. Зображення та метадані, завантажені з БЛА 110 в хмарне середовище 120, можуть бути ортотрансформовані та зшиті разом для створення єдиного суцільного зображення. Приклади ортотрансформації перспективної аерофотозйомки в єдиний вид описані, наприклад, в патенті США Мо 8512266, який включений в цей документ в повному обсязі за допомогою посилання. (27| Що стосується Фіг. 2, приклад способу керування безпілотною літальною системою, такою як система 100, позначений загалом позицією 200. В цьому варіанті реалізації винаходу спосіб 200 включає три етапи: етап планування польоту 201, етап виконання польоту 202 та 60 етап передачі/обробки даних після польоту 203. Три етапи способу 200 будуть описані більш докладно нижче. (28) Що стосується Фіг. 3, приклад етапу планування польоту за способом 200 позначений загалом позицією 300. Етап планування польоту 300 за способом 200 включає послідовність дій, виконуваних користувачем та системою 100. На Фіг. З дії, які здійснює користувач, наведені в формі кола, а дії, які здійснює система 100, наведені в формі квадрата.
І29| В типовому способі 200 після активації системи 100 користувач спочатку вказує область польоту 301 для складання мап. В одному варіанті реалізації винаходу користувач окреслює область польоту, яку має покрити БЛА 110, на ГІК 130 або ПВДК 160, використовуючи картографічні дані з соодіє Марз5Фф або іншого програмного забезпечення для СР5Б.
ІЗОЇ В одному варіанті реалізації винаходу система 100 аналізує введені користувачем дані щодо області польоту 301, обчислює можливу(-ї) траєкторію(-ї) польоту для генерування суцільного зображення області польоту та надає користувачеві можливі траєкторії польоту 302
БЛА. Система 100 може також ідентифікувати потенційні перешкоди (наприклад, опори телефонної лінії та/або лінії електропередачі) на траєкторії польоту на основі попередніх польотів талабо введених користувачем даних, та може коригувати траєкторію польоту відповідним чином. В іншому варіанті реалізації винаходу система 100 надає користувачеві множину можливих траєкторій польоту БЛА на різних висотах та з різними швидкостями залежно від бажаної роздільної здатності зображення та тривалості польоту. Як приклад та в цілях ілюстрації система 100 може надавати користувачеві дві необов'язкові траєкторії польоту
БЛА на ГІК 130 або ПВДК 160, представлені в таблиці 1 нижче:
Таблиця 1 хх(((хвилини)
ЗТ) В типовому способі 200 після надання користувачеві можливих траєкторій польоту він вибирає бажану траєкторію польоту 303. В одному варіанті реалізації винаходу користувач може створювати запит для системи 100 на надання додаткових опцій траєкторії польоту шляхом введення спеціальних параметрів для траєкторії польоту (тобто висота, роздільна здатність фотографій, тривалість тощо).
ІЗ2| В типовому способі 200 після вибору користувачем бажаної траєкторії польоту система 100 надає користувачеві право вибору можливих типів зображення, які мають бути отримані
Зо системою знімальних камер 117. В одному варіанті реалізації винаходу користувач має опцію вибору 305 з фотознімків, тепловізійних зображень, зображень в ближньому інфрачервоному діапазоні (БІЧ) та відео, які представляють собою зображення в видимому, тепловому та/або
БіІЧ-діапазоні. Наприклад, ГІК 130 або ПВДК 160 можуть надавати користувачеві перелік, який дозволяє користувачеві вибирати бажаний тип зображення 304 (наприклад, шляхом відображення поля для встановлення прапорця або іншого механізму вибору). Залежно від типів зображень, вибраних користувачем, в деяких варіантах реалізації винаходу ГІК 130 або
ПВДК 160 визначає оптимальну висоту та/або оцінює час польоту.
ЇЗ3) В типовому способі 200 система 100 надає користувачеві деталі польоту та події 306 на
ГІК 130 або ПВДК 160. В одному варіанті реалізації винаходу система 100 може надавати користувачеві маршрут, висоту та/або тривалість польоту БЛА, а також очікувану роздільну здатність зображення, яка має бути в вибраному типі зображень. В іншому варіанті реалізації винаходу перед генеруванням траєкторій польоту система 100 визначає, чи були попередньо ідентифіковані перешкоди для польоту (наприклад, опори телефонної лінії або лінії електропередачі) на встановленій області польоту. В ще одному варіанті реалізації винаходу користувач ідентифікує перешкоди для польоту 307 на ГІК 130 або ПВДК 160, застосовуючи супутникові зображення з соодіеє ЕапйФф або іншого провайдера зображень. Зокрема в одному варіанті реалізації винаходу ГІК 130 або ПВДК 160 дозволяє користувачеві накреслити межу навколо будь-яких перешкод для польоту та ввести приблизну висоту перешкоди з метою запобігання входженню БЛА в простір з перешкодами. Використовуючи введені користувачем дані, система 100 повторно обчислює траєкторію польоту, щоб оминути перешкоди.
ІЗ4| Що стосується Фіг. 4, приклад етапу виконання польоту за способом 200 позначений загалом позицією 400. Етап виконання польоту 400 за способом 200 включає послідовність дій, виконуваних користувачем та системою 100. На Фіг. 4 дії, які здійснює користувач, наведені в формі кола, а дії, які здійснює система 100, наведені в формі квадрата.
ЇЗ5Ї В типовому способі 200 етап виконання польоту 400 наступає після етапу планування польоту 201. В одному варіанті реалізації винаходу користувач направляє систему 100 на початок етапу виконання польоту 400, використовуючи ГІК 130 або ПВДК 160. В іншому варіанті реалізації винаходу етап виконання польоту 400 автоматично починається після ідентифікації перешкод, при наявності їх на траєкторії польоту БЛА.
ІЗ6Ї В типовому способі 200 етап виконання польоту 400 починається з того, що система 100 порівнює тривалість польоту з тривалістю роботи батареї 401 БЛА 110. Якщо рівень заряду батареї є недостатнім, система 100 вказує користувачеві (наприклад, на ГІК 130 або ПВДК 160), що необхідна підзарядка. На додаток до перевірки живлення система 100 також виконує робоче випробування компонентів системи, зокрема БЛА 110. В одному варіанті реалізації винаходу система 100 виконує робоче випробування 402, для того щоб пересвідчитися, що необхідні камери на системі знімальних камер 117 встановлені та є роботоздатними, що погодні умови безпечні для польоту БЛА, що навколишній простір чистий та безпечний для злету БЛА 110, та що сР5З-координати БЛА 110 є правильними.
ІЗ7| В типовому способі 200 після того, як система 100 пересвідчиться, що БЛА 110 здатний та готовий для роботи, система 100 пропонує користувачеві, через ГІК 130 або ПВДК 160, розпочати політ 403. В одному варіанті реалізації винаходу користувач натискає на кнопку "розпочати політ" або "старт" на ГІК 130 або ПВДК 160. Після ініціалізації польоту система 100 розпочинає політ БЛА та безперервно контролює системи БЛА 404. В одному варіанті реалізації винаходу БЛА 110 виконує один або більше випробувальних маневрів. Наприклад, БЛА 110 може здійснювати зліт вертикально з базової станції 140 та виконувати прості маневри (наприклад, рух назад та вперед, з боку в бік, догори та донизу тощо) для перевірки роботоздатності та здатності до маневрування. У разі відмови БЛА або системи в будь-який момент польоту, система 100 та користувач мають можливість завершити політ достроково 405.
В такому випадку вибрана траєкторія польоту переривається та БЛА 110 повертається на базову станцію 140 та/або намагається приземлитися без пошкодження БЛА 110.
ІЗ8) В типовому способі 200 під час польоту БЛА 110 система знімальних камер 117 робить фотографії або знімає відео вибраної області польоту та зберігає зображення в бортових ЦП та запам'ятовувальному пристрої 114. В одному варіанті реалізації винаходу бортовий ЦП та
Зо запам'ятовувальний пристрій 114 ортотрансформує зображення в єдиний вид та ідентифікує області з зображенням низької якості.
ІЗ9Ї| В деяких варіантах реалізації винаходу БЛА 110 отримує початкову групу зображень, а потім повертається до однієї або більше цільових областей для отримання додаткових зображень при більш високій роздільній здатності після перегляду мап з початкових зображень 406. Наприклад, система знімальних камер 117 може отримувати МОМІ-зображення вибраної області польоту, ідентифікувати області з низькими рівнями азоту (або іншими проблемами) за допомогою МОМІ-мапи та демонструвати ці області користувачеві за допомоги ГІК 130, щоб надати користувачеві можливість надавати БЛА 110 інструкції для отримання додаткових фотографій з високою роздільною здатністю ("розвідувальних"), зроблених на низькій висоті (наприклад, від 10 до 50 футів (від З до 15,2 метри ) над поверхнею землі). В одному варіанті реалізації винаходу зображення висадженої популяції (наприклад, кукурудзи, сої тощо) отримують за допомогою системи знімальних камер 117 з висоти пташиного польоту перед тим, як висаджена популяція досягне зрілої довжини (тобто в момент, коли окремі рослини неможливо розрізнити з сусідніми рослинами).
І40О| В іншому варіанті реалізації винаходу БЛА 110 автоматично летить маршрутом "повертатися та розвідувати" 407 після першого прольоту над вибраною областю польоту, щоб зробити додаткові фотографії з високою роздільною здатністю цільових областей (наприклад, областей з низьким рівнем азоту), зображених на МОМІ-зображеннях. В ще одному варіанті реалізації винаходу додаткові фотографії з високою роздільною здатністю цільових областей роблять, щоб виключити затінення посівів. В таких варіантах реалізації винаходу, щоб зменшити час обробки, обробка та аналіз зображення можуть бути виконані на борту БЛА 110. 1) В типовому способі 200, після виконання траєкторії польоту БЛА, БЛА приземляється (наприклад, на базовій станції 140) для завершення польоту 408.
І42| В типовому способі 200 після завершення етапу виконання польоту 400 починається етап передачі/обробки даних після польоту 203. В альтернативному варіанті передача/обробка даних може проходити, поки БЛА 110 ще знаходиться в повітрі, отже етап передачі/обробки даних 203 перекривається етапом виконання польоту 400. Таким чином, передача та обробка зображень, отриманих за допомогою БЛА 110, може проходити в режимі реального часу, по мірі захоплення даних, або дещо пізніше (наприклад, в межах 10 хвилин після захоплення даних). В бо одному варіанті реалізації винаходу зображення низької якості безперервно передаються на ГІК
130 або ПВДК 160 під час польоту для інформування користувача про стан польоту.
І43)Ї Передача даних та зображень, захоплених БЛА 110, може здійснюватись за допомоги безпровідного та/або стільникового зв'язку між компонентами системи 100. Передача, як правило, спрямована в компонент, в якому буде виконуватися обробка даних.
Ї44 Обробка даних та зображень може включати ортотрансформацію та зшивання аерознімків в єдину суцільну мапу області. Слід зазначити, що обробка даних та зображень може бути виконана із застосуванням будь-якого компонента системи 100. Наприклад, обробка може бути виконана на борту БЛА 110, та оброблені зображення потім можуть бути передані до базової станції 140, ГІК 130 та/або ПВДК 160.
І45) В одному варіанті реалізації винаходу отримані зображення накладаються (наприклад, з прозорістю 5095) на плитки соодіє МарфФ або аерогеографічні зображення та демонструються користувачеві. В альтернативному варіанті аерознімки можуть бути оброблені та продемонстровані разом з плитками Соодіє МарФ або аерогеографічним зображенням таким чином, що вони демонструються в зафіксованій орієнтації пліч-о-пліч, отже переміщення та/або зміна масштабу одного зображення призводить до переміщення та/або зміни масштабу іншого зображення на таку ж величину. Центральні точки зображень, які перебувають в орієнтації пліч- о-пліч, можуть бути позначені іконкою (наприклад, хрестом), подібно до методів, описаних в публікації міжнародної заявки на патент Мо М/О 2014/026183. В іншому варіанті реалізації винаходу послідовність аерознімків, зроблених в різні моменти часу впродовж періоду вегетації (наприклад, щодня, щотижня, щомісяця тощо), обробляється з отриманням анімації, що складається із послідовності зображень. В деяких варіантах реалізації винаходу анімація відтворюється автоматично шляхом демонстрації зображень для заданих періодів часу; в інших варіантах реалізації винаходу наступне зображення послідовності демонструється у відповідь на введені користувачем дані на графічному інтерфейсі (наприклад, при виборі за допомогою іконки у вигляді стрілки або перетягуванні іконки у вигляді повзунка по шкалі). Анімація може бути накладена на плитки сСоодіе Март або аерогеографічні зображення. Зображення можуть представляти собою, наприклад, МОМІ-зображення, мапи, складені за аерофотознімками, та/або мапи проростання.
І46Ї Обробка зображень може також включати фільтрування зображень з використанням
Зо програмного забезпечення для відфільтровування бруду та тіней, які можуть вплинути на якість зображення. Фільтрування створює контраст кольору між пологом рослин та брудом, які може бути важко розрізнити в нефільтрованому зображенні. Наприклад, в одному варіанті реалізації винаходу обробка зображень видаляє на аерофотознімку все, що знаходиться нижче порогового значення відбивної здатності або насиченості кольору.
І47| В одному прикладі очікувана щільність зелені визначається на основі висадженої популяції та/або стадії розвитку рослин в області, зображення якої отримують. Висаджена популяція може бути визначена з мапи саджання, та стадія розвитку може бути визначена, наприклад, з використанням діаграми для конкретного гібриду, яка відносить кількість градусо- днів росту до очікуваної стадії розвитку. Після визначення очікуваної щільності зелені, все на зображенні, що вище очікуваної щільності зелені, може бути позначено зеленим, а все на зображенні, що нижче очікуваної щільності зелені, може бути позначено червоним.
ЇЇ8| Система 100 може також використовувати дані зображень для генерування мап проростання, в яких обчислюється кількість рослин на область, а області без рослин або бажаної зелені на зображеннях позначаються як "порожні місця". Порожні місця представляють собою області, де рослини чи зелень або не виросли, або первісно не були посаджені. В одному варіанті реалізації винаходу система 100 співставляє дані про порожні місця з даними про первісне саджання (наприклад, з мапі саджання) для видалення будь-яких порожніх місць, які утворилися через відсутність первісного саджання, залишаючи тільки достовірні порожні місця, які вказують на області, де насіння було посаджене, але не проросло. Ця обробка може бути
БО застосована до даних МОМІ-зображення або інших даних зображення, отриманих за допомогою системи знімальних камер 117.
І49| В деяких варіантах реалізації винаходу рішення щодо просторового застосування можуть прийматися автоматично на основі зображень, отриманих за допомогою БЛА 110.
Наприклад, рівні МОМІ-мапи можуть бути пов'язані з після посадковим підживленням (наприклад, міжрядним внесенням добрив або обпилюванням посівів) для генерування мапи внесення добрив на основі МОМІ-мапи. Згенерована мапа внесення добрив може демонструватися користувачеві, щоб користувач мав змогу відхилити, модифікувати або прийняти мапу внесення добрив. В деяких варіантах реалізації винаходу згенерована мапа внесення добрив передається постачальнику послуг (наприклад, робітнику або сторонньому бо підряднику) з інструкціями застосовувати мапу внесення добрив .
І5ОЇ Дані, отримані за допомогою БЛА 110, також можуть бути використані для розробки загальних агрономічних рекомендацій. Наприклад, якщо МОМІ-мапа, згенерована з використанням системи 100, має рівень азоту, який нижче за поріг, система 100 може рекомендувати міжрядне внесення азоту для підняття рівня азоту. Поріг може бути визначений, наприклад, на основі стадії розвитку посіву. В іншому прикладі, якщо мапа життєздатності рослин вказує на те, що область здорових рослин нижче порога, система 100 може рекомендувати міжрядне внесення азоту. В ще одному прикладі, якщо мапа проростання має площу проростання нижче за поріг до критичного часу в розвитку, система 100 може рекомендувати повторне засадження поля.
ІБ1| Що стосується Фіг. 5, приклад етапу передачі/обробки даних 203 за способом 200 позначений загалом позицією 500. Етап передачі/обробки даних 500 за способом 200 включає послідовність дій, виконуваних користувачем та системою 100. На Фіг. 5 дії, які здійснює користувач, наведені в формі кола, а дії, які здійснює система 100, наведені в формі квадрата.
І52| Етап передачі/обробки даних 500 загалом включає наступні вісім етапів: етап отримання МОМІ-зображення(-ь) 501 з етапу виконання польоту; етап перетворювання МОМІ- зображення(-ь) 502 в мапу; етап відфільтровування об'єктів, які не належать до посівів 503; етап ідентифікування рядів посівів 504; етап 505 виділяння окремих рослин; етап ідентифікування ознак окремих рослин 506; етап оцінювання потенціалу врожайності 507; та етап генерування звіту 508.
І53) В типовому способі 200 етап передачі/обробки даних після польоту 500 починається з того, що система 100 отримує МОМІ-зображення з етапу виконання польоту5б01. Знову ж таки, передача/обробка даних може здійснюватися, поки БЛА 110 ще знаходиться в повітрі, отже етап передачі/обробки даних 500 перекривається етапом виконання польоту 400. Етап передачі/обробки даних 500 може проходити в режимі реального часу по мірі захоплення даних
БЛА 110, або дещо пізніше (наприклад, в межах 10 хвилин після захоплення даних).
І54| В цьому прикладі зображення, отримані на етапі виконання польоту, перетворюються системою 100 в мапу 502 (наприклад, бітову мапу, мапу проростання тощо). В одному варіанті реалізації винаходу очікувана щільність зелені встановлюється на основі висадженої популяції та/або стадії розвитку рослин в області, зображення якої отримують. Після визначення
Зо очікуваної щільності зелені на згенерованій мапі, пікселі на кожному зображенні, які вище очікуваної щільності зелені, позначаються білим кольором, а пікселі на зображенні, які нижче очікуваної щільності зелені, позначаються чорним кольором. Відповідно, мапа створюється з одиничними білими ділянками 601, які приблизно корелюють з місцем розташування та площею кожної рослини на зображеннях. Типова мапа 600 представлена на Фіг. 6. На Фіг. 6 окремі рослини в висадженій популяції (ідентифіковані за допомогою очікуваної щільності зелені) позначені як білі ділянки 601. Навколишні об'єкти 602 (наприклад, навколишній грунт, бур'яни тощо) є злегка затемненими. До наступної обробки мапа може містити окремі білі ділянки 601, які містять декілька рослин (наприклад, показані на мапі 600 праворуч) та/або білі ділянки 601, які представляють собою бур'яни або інші рослинні об'єкти, що не належать до посівів (наприклад, показані в нижній лівій частині мапи 600).
І55) Етап відфільтровування об'єктів, які не належать до рослинних об'єктів, 503в типовому способі включає ідентифікування "аномалій" в згенерованій мапі. "Аномалії", в контексті цього документу, відносяться до ділянок в згенерованій мапі, які первісно були ідентифіковані системою 100 як біла ділянка 601 (наприклад, на основі щільності зелені), але насправді не представляють бажану рослину з висадженої популяції. Наприклад, бур'ян може бути аномалією в згенерованій мапі. Етап 503 також включає відфільтровування цих аномалій з мапи 600. В цьому прикладі система 100 ідентифікує аномалії шляхом обчислення розміру (наприклад, площі, діаметру тощо) для кожної білої ділянка 601, а потім аномалії ідентифікуються як білі ділянки з розміром, який суттєво відрізняється від (наприклад, на 2 стандартних відхилення) типового (наприклад, середньостатистичного, медіанного, середньоарифметичного тощо) розміру білих ділянок 601 на мапі 600. Типова аномалія зображена загалом на Фіг. 7 як біла ділянка аномалії 701. Система 100 відфільтровує аномалії шляхом затемнення аномалій таким же кольором, що й навколишні об'єкти 602, або видалення аномалій з наступного розглядання в способі 500. На Фіг. 8 зображена типова мапа 600 з видаленою білою ділянкою аномалії 701. В іншому варіанті реалізації винаходу система 100 порівнює аномалії з даними про первісне саджання (наприклад, з мапою саджання) для видалення будь-яких аномалій, які утворюються в областях, де не було первісного саджання.
Відповідно, система 100 фільтрує аномалії шляхом затемнення їх відповідним чином або видалення їх з подальшого розгляду. Ця обробка може бути застосована до даних МОМІ- 60 зображення або інших даних зображення, отриманих за допомогою системи знімальних камер
І5б|Ї Етап ідентифікування рядів посівів 504 в типовому способі включає відмічання центроїда 801 для кожної з решти білих ділянок 601. На Фіг. 8 зображена типова мапа 600 з рядом 802 білих ділянок 601 з відміченими центроїдами 801. На фіг. 9 зображена інша типова мапа 600 з двома рядами 901 та 902 білих ділянок 601 з відміченими центроїдами 801. Система 100 ідентифікує ряди (наприклад, 802, 901, 902) шляхом обчислення, апроксимації та присвоєння найбільш підходящих ліній рядам на основі положень центроїдів 801. Зокрема система 100 використовує відстань між рядами 805, яка може мати або стандартне значення (наприклад 30 дюймів (76,2 см)), або введене користувачем значення, для ідентифікації приблизних положень паралельних рядів, які проходять через білі ділянки 601 та/або центроїди 801. В інших варіантах реалізації винаходу етап 504 може перекриватися або відбуватися одночасно з етапом 503 для сприяння системі 100 в ідентифікації аномалій.
І57| Етап виділяння окремих рослин 505 в типовому способі включає ідентифікування двох або більше білих ділянок 601, які перекриваються (тобто двох або більше рослин, які перекриваються). На Фіг. 10 зображений приклад пари білих ділянок 601, які перекриваються, в колі 1000. В типовому способі, щоб ідентифікувати пару білих ділянок 601, які перекриваються, система 100 спочатку порівнює (ії) інтервал у ряді (наприклад, 1001 та 1003) між сусідніми центроїдами; та (ії) значення інтервалу у ряді (наприклад, 1002 та 1004), визначене (а) номінальним значенням від користувача, (б) значенням інтервалу саджання з мапи саджання або (с) медіанним або середнім інтервалом між рослинами у ряді. У випадку пари білих ділянок 601, які перекриваються, таких як ті, що показані в колі 1000, на Фіг. 10, різниця 1005 між інтервалами 1003 та 1004 є помітно більшою за різницю 1006 між інтервалами 1001 та 1002. Як окремий етап або частина того ж етапу при ідентифікуванні пари білих ділянок 601, які перекриваються, система 100 може також обчислювати та порівнювати медіанну площу білих ділянок 601. Відповідно, система 100 має можливість ідентифікувати пару білих ділянок 601, які перекриваються, (наприклад, в колі 1000), застосовуючи описаний вище аналіз. Після ідентифікації пари білих ділянок 601, які перекриваються, як показано, наприклад, на Фіг. 11, система 100 виділяє окремі рослини шляхом повторного присвоювання двох центроїдів 801 для відмічання положення окремих білих ділянок 601 на рівній відстані від положення 1100 видаленого центроїда 801.
І58Ї В цьому прикладі система 100 також присвоює "значення достовірності" (наприклад, 9095) кожній білій ділянці 601, яке вказує статистичну імовірність або впевненість в тому, що кожна біла ділянка 601 корелює з положенням та/або площею окремої рослини на зображеннях.
В одному прикладі значення достовірності для окремої білої ділянки 601 є вищим, якщо (Її) положення її центроїда 801 приблизно дорівнює значенню інтервалу у ряді (наприклад, 1002 та 1004); та (ії) її площа приблизно дорівнює медіанній та/або середній площі білих ділянок 601 на мапі 600. Відповідно, система 100 може зберігати значення достовірності для кожної білої ділянки 601 на кожній мапі 600 для посилання для різних цілей, як описано нижче.
І59Ї Етап ідентифікування ознак окремих рослин 506 в типовому способі включає корекцію зображень, захоплених системою знімальних камер 117, а також аналіз окремих рослин (наприклад, тих, які були ідентифіковані в межах білих ділянок 601). В цьому прикладі система 100 коригує аерознімки, захоплені системою знімальних камер 117, шляхом оцінки точки даних зображення (наприклад, місцезнаходження, висоти та швидкості БЛА 110 при отриманні кожного зображення, роздільної здатності системи знімальних камер 117, кута та масштабу, використовуваних системою знімальних камер 117, тощо) та вимірів інтервалів в ряді та між рядами, ідентифікованих на етапах 504 та 505, описаних вище. Більш конкретно, система 100 присвоює шкалу кожному пікселю в кожному зображенні шляхом порівняння відомих вимірів інтервалів в ряді та між рядами (наприклад, в дюймах) з відомими вимірами інтервалів в ряді та між рядами на зображенні (наприклад, в пікселях).
ІБО)Ї В іншому прикладі корекція зображень, захоплених системою знімальних камер 117, може включати проходження БЛА 110 маршрутом 407 "повертатися та розвідувати" для отримання додаткових фотознімків цільових областей з високою роздільною здатністю.
ІЄ1| В цьому прикладі система 100 також аналізує окремі рослини (наприклад, ті, що були ідентифіковані в межах білих ділянок 601) шляхом дослідження одного або більше зображень кожної рослини, захоплених системою знімальних камер 117 з різних положень та висот.
Подібно до етапу 504, де кожна біла ділянка 601 відмічається центроїдом 801, система 100 визначає положення структур (наприклад, листя, стебла, початків тощо) кожної рослини та відмічає кожну структуру центроїдом. В одному прикладі система 100 визначає положення структур рослини, використовуючи відношення довжина:ширина для структур, які відповідають бо висадженій популяції. Крім того, положення хребтів листя можуть бути визначені шляхом обчислювання серединних точок між краями листя. В цьому прикладі система 100 також визначає положення оновленого, більш точного центроїда рослини, використовуючи центроїди зі структур окремої рослини. В іншому прикладі система 100 може використовувати точку перетину ліній, які проходять уздовж довжини або ширини та через центроїд множини структур рослини (наприклад, хребтів листя) для знаходження оновленого центроїда рослини. Проте, в інших варіантах реалізації винаходу система 100 може повернутися до попередніх етапів, наприклад, для вдосконалення ідентифікації білої ділянки 601 та/"або розміщення центроїда 801.
І62| В цьому прикладі система 100 використовує зображення та положення структур рослини для визначення даних стосовно характеристик рослин в висадженій популяції.
Характеристики рослин, які становлять особливий інтерес, наприклад, відповідним чином включають без обмеження довжину листя (наприклад, середню довжину хребта), ширину та площу (наприклад, всієї рослини) та кількість листя (яка може дорівнювати, наприклад, кількості ідентифікованих хребтів). Знову ж, система 100 може використовувати точки даних зображення для коригування нечітких або викривлених видів характеристик рослин. Відповідно, система 100 може зберігати інформацію стосовно характеристик рослин для кожної рослини для посилання для різних цілей, описаних нижче.
І63| Етап оцінювання потенціалу врожайності посівів 507 в типовому способі включає застосовування інформації, зібраної та обчисленої системою 100 для оцінювання потенціалу врожайності. Зібрана інформація містить, наприклад, кількість рослин у висадженій популяції, значення достовірності для кожної білої ділянки 601 та/або інформацію стосовно характеристик рослин. В цьому прикладі система 100 може не враховувати характеристики рослин, якщо значення достовірності для конкретної рослини є нижчим за перший поріг (наприклад, 9595).
Також в цьому прикладі система 100 може не включати цю конкретну рослину в підрахунок густоти висадженої популяції, якщо значення достовірності нижче другого, нижчого порогу (наприклад, 80965).
І64| В одному прикладі система 100 може використовувати наступне Рівняння 1 для оцінювання рослини або потенціалу врожайності висадженої популяції:
Рівняння 1: потенціал врожайності - Ах я Ву ж С7,
Зо де х - кількість листя у х площа листа 7 - максимальна довжина листа або середнє арифметичне двох найдовших листів
А - 0, якщо х « порогове значення; А » 0, якщо х » порогове значення
В - 0, якщо х « порогове значення; В » 0, якщо х » порогове значення
С - 0, якщо х « порогове значення; С » 0, якщо х » порогове значення
І65| В одному прикладі система 100 може обчислювати потенціал початків, застосовуючи булів підхід. Наприклад, якщо будь-які дві змінні (наприклад, кількість листя, площа листа, максимальна довжина листа) перевищують заданий поріг, пов'язаний з кожною змінною, то потенціал початків встановлюється рівним 1. В іншому випадку потенціал початків встановлюється рівним 0. Слід розуміти, що порогові значення, які використовуються для визначення врожайності або потенціалу початків, можуть бути вибрані, щоб вимагати високої достовірності (наприклад, 9995), що рослина має класифікований потенціал, або щоб вимагати тільки відносно низької достовірності (наприклад, 80905).
І66| В іншому прикладі характеристики рослини (кількість листя, площа листа, довжина листа тощо), які використовуються для обчислення врожайності/потенціалу початків, стосуються інших рослин в полі. Вони можуть, наприклад, стосуватися сусідніх або прилеглих рослин або стосуватися середньостатистичної/середньоарифметичної кількості для зображення та/або поля. Наприклад, система 100 може використовувати наступне Рівняння 2 для оцінювання рослини або потенціалу врожайності висадженої популяції на основі відносних характеристик рослини:
Рівняння 2: потенціал врожайності - А(х-Ї) - В(у-т) - С(2-п), де: х - кількість листя на одній рослині у х площа листя на одній рослині 7 ж максимальна довжина листа або середнє арифметичне двох найдовших листів на одній рослині
І « середня кількість листя на рослинах в одному зображенні або висадженій популяції т - середня площа листя на рослинах в одному зображенні або висадженій популяції 60 п - середня максимальна довжина листа двох найдовших листів на рослині в одному зображенні або висадженій популяції
А - 0, якщо х « порогове значення; А - 1, якщо х » порогове значення
В - 0, якщо х « порогове значення; В - 1, якщо х » порогове значення
С - 0, якщо х « порогове значення; С - 1, якщо х » порогове значення
В обох Рівняннях 1 та 2 порогове значення для визначення А, В та С може представляти собою (ї) номінальне значення від користувача; (ії) очікуване значення на основі попередньо висаджених популяцій; (ії) екстрапольоване значення від окремих рослин; або (ім) інтерпольоване значення від більших висаджених популяцій.
І67| Етап генерування звіту 508 в типовому способі включає створення мапи або звіту даних стосовно висадженої популяції. В цьому прикладі згенерована мапа порівнює мапу саджання з іншою мапою, отриманою згодом при розвитку висадженої популяції. Ця мапа може демонструвати, наприклад, сталість інтервалів саджання, пропуски в саджанні, здвоєно посаджені рослини тощо. Також в цьому прикладі згенерований звіт може містити потенційну або згенеровану врожайність (наприклад, кількість початків, насіння, стебел тощо) від висадженої популяції.
І68)| В деяких варіантах реалізації винаходу один або більше вимірів та просторових мап можуть бути згенеровані та продемонстровані користувачеві на основі інформації, зібраної з аерознімків.
ІБ9| В одному варіанті реалізації винаходу значення тиску бур'янів визначається для кожного місцезнаходження або ділянки на полі на основі відносної кількості бур'янів в культурі на кореню. Значення тиску бур'янів переважно пов'язано з кількістю зелених рослинних об'єктів, ідентифікованих між рядами посівів. Наприклад, значення тиску бур'янів може бути визначене для ділянки А на полі шляхом ділення площі "аномалій", ідентифікованих, як описано вище, в межах ділянки А, на загальну площу ділянки А. В деяких таких способах бур'яни відрізняють від інших аномалій або від матеріалу посівів на основі критерію форми або розміру бур'яну; наприклад, аномалії, які мають загальну площу або ширину, яка менша, ніж поріг, можуть бути проігноровані в цілях обчислення значення тиску бур'янів. Значення тиску бур'янів, визначене для місцезнаходжень по всьому полю, потім може бути відображене як значення поля або ділянки або представлене як просторова мапа тиску бур'янів.
Зо (Ї/О| В іншому варіанті реалізації винаходу ширина листя культурних рослин, ідентифікованих в полі (визначених як описано вище), повідомляється у вигляді середнього по полю або представляється користувачеві у вигляді просторової мапи середньої ширини листя по полю.
Г7/1| В іншому варіанті реалізації винаходу передбачувана дата сходження ідентифікованих культурних рослин визначається для кожної рослини або ділянки поля. Передбачувана дата сходження може бути передбачена на основі розміру кожної ідентифікованої культурної рослини; додатково, там, де не спостерігається культурних рослин в частині поля на певну дату, дата сходження для частини поля може вважатися такою, що йде після цієї дати. Просторова зміна передбачуваної дати сходження може бути представлена користувачеві як мапа або може бути застосована для вдосконалення оцінки вмісту вологи в рослинах або зрілості рослин пізніше в сезоні, наприклад, при визначенні рекомендованої дати збирання врожаю. Слід розуміти, що для оперативних рішень в масштабі поля має бути застосована остання дата сходження; наприклад, затримка на один день останньої дати сходження, визначеної для поля, може призвести до затримки в один день рекомендованої дати збирання врожаю.
І/2) В іншому варіанті реалізації винаходу передбачувана потужність культурних рослин, ідентифікованих в полі, повідомляється у вигляді середнього по полю або представляється користувачеві у вигляді просторової мапи потужності рослин по полю. Значення потужності рослин для кожної рослини або групи рослин переважно визначають шляхом обчислення зваженої суми або добутку характеристик рослин (наприклад, ширини листа та кількості листя).
Наприклад, значення потужності рослин для культурної рослини може бути обчислене шляхом множення середньої ширини листа на кількість листя або шляхом додавання середньої ширини листа до значення, яке дорівнює кількості листя, помноженій на 10. Статистична мінливість (наприклад, стандартне відхилення) значення потужності рослин відносно середньостатистичного значення потужності рослин для поля (або для ділянки, яка містить множину полів) також може бути виміряна та використана для генерування просторової мапи відхилення потужності рослин.
Ї/3| В іншому варіанті реалізації винаходу ідентифікація хвороб рослин визначається шляхом порівнювання відбивної здатності (наприклад, візуального спектра, інфрачервоного або
МОМІ-значення) частин однієї ідентифікованої культурної рослини з пороговим значенням або з бо середнім значенням відбивної здатності культурної рослини. Якщо одна або більше частин культурної рослини мають відбивну здатність, яка більше, ніж вибраний поріг відбивної здатності (та переважно має площу, яка більша, ніж поріг площі), користувач переважно попереджається про потенційну хворобу, та йому можуть бути представлені фотографічні зображення культурної рослини.
ІЇ/4| В іншому варіанті реалізації винаходу ідентифікація шкідників визначається шляхом порівнювання відбивної здатності (наприклад, візуального спектра, інфрачервоного або МОМІ- значення) частин однієї ідентифікованої культурної рослини з пороговим значенням або з середнім значенням відбивної здатності культурної рослини. Якщо одна або більше частин культурної рослини мають відбивну здатність, яка більше, ніж вибраний поріг відбивної здатності (та переважно має площу, яка більша, ніж поріг площі), користувач переважно попереджається про потенційну наявність шкідників, та йому можуть бути представлені фотографічні зображення культурної рослини.
ІЇ/5) Завдяки тому, що способи ідентифікації шкідників та хвороб, розглянуті вище, можуть бути покращені за рахунок зображень з високою роздільною здатністю, в деяких варіантах реалізації винаходу БЛА 110 повертається до областей, які мають низькі значення МОМІ (або тих, які вибрані користувачем, або тих, які мають значення МОМІ нижче порога), та отримує зображення з високою роздільною здатністю, наприклад, шляхом прольоту на менших висотах (наприклад, 20 футів (6,1 метра) або нижче) над ідентифікованою областю або зависання (тобто роблячи паузу в нерухомому положенні) над ідентифікованою областю та отримання зображення з більшою роздільною здатністю та/або більшим масштабом, ніж під час первісного польоту з захопленням МОМІА-зображення. При отриманні фотографій на низькій висоті (наприклад, 20 футів (6,1 метра) або нижче) БЛА 110 переважно визначає відстань до землі, щоб уникнути зіткнень внаслідок невідомих змін висоти. В деяких варіантах реалізації винаходу відстань до землі може бути визначена за допомогою ехолокаційного пристрою, встановленого на БЛА. В інших варіантах реалізації винаходу відстань до землі може бути визначена шляхом обробки зображення та визначення кількості пікселів між рядами посівів та обчислення відстані до землі на основі відомої відстані між рядами та відомими налаштуваннями для збору зображень, такими як поле зору камери та рівень масштабування.
І/6) В деяких варіантах реалізації винаходу потенціал врожайності та/або потенціал початків
Зо рослин (наприклад, рослин на стадії проростання), як було описано вище, може бути альтернативно визначений шляхом отримання зображень посівів під значним кутом (наприклад, між 30 та 60 градусами) відносно вертикалі для того, щоб спостерігати та порівнювати висоту окремих рослин. Рослини, коротші за сусідні рослини на порогове процентне значення, переважно ідентифікуються як пізно пророслі рослини, які мають нижчий потенціал врожайності.
І/7| В деяких варіантах реалізації винаходу орієнтація ідентифікованих культурних рослин може бути визначена шляхом визначення орієнтації рослини (наприклад, відносно півночі) по лінії, яка найкращим чином проходить через хребти одного або більше листів (наприклад, лінії, яка проходить через два протилежних листа, відділених 180 градусами навколо стебла).
Співставлення орієнтації рослини з показником врожайності може бути визначене на основі пізніше розробленої мапи врожайності для такого ж поля. Прогноз врожайності або потенціалу початків може бути згенерований частково на основі орієнтації кожної рослини; наприклад, потенціал врожайності може бути зменшений на 1 бушель на акр для кожних 5 градусів зменшення середньої орієнтації рослини відносно півночі (тобто в кутовому зміщенні листів відносно півночі) на акр. На додаток вимір діаметра стебла, отриманий з аерознімка (переважно під значним кутом від вертикалі, наприклад, 45 градусів) або за допомогою наземної камери збоку стебла, може бути поліпшений шляхом визначення орієнтації стебла на основі орієнтації рослини. Наприклад, зображення, отримане з повітря або з землі для виміру діаметра стебла, може бути отримане під бажаним кутом для виміру стебла, наприклад, під прямим кутом до орієнтації рослини. В інших варіантах реалізації винаходу вимір діаметра стебла може бути зменшений за допомогою коефіцієнта, який пов'язаний з різницею між кутом зображення відносно стебла та бажаним кутом виміру стебла. Вимір діаметра стебла може бути використаний для модифікування прогнозованої врожайності або потенціалу початків; наприклад, прогнозована врожайність може бути збільшена на 1 бушель на акр для кожних 0,5 см збільшення виміряного діаметра стебла.
ІЇ/8) В деяких варіантах реалізації способів, описаних в цьому документі, вимір, оснований на зображенні першої частини поля, може бути узагальнений до більшої частини поля для цілей генерування мапи виміру по полю. В деяких таких варіантах реалізації винаходу більша частина поля може містити область, яка оточує та/або знаходиться поруч з першою частиною поля. В бо інших варіантах реалізації винаходу більша частина поля може містити зону управління
(наприклад, суміжну або оточуючу ділянку поля, яка має спільні тип грунту, діапазон врожайності, тип посадженого гібрида або інші характеристики або застосовану фермерську практику).
Ї7/9| При введенні елементів цього винаходу або варіантів його реалізації слова в однині означають також і множину, що означає, що існує один або більше елементів, якщо з контексту не визначено інше. Вирази "містить", "включає" та "має" відображають включення та означають, що можуть бути додаткові елементи, відмінні від перелічених елементів. Використання термінів із зазначенням певної орієнтації (наприклад, "верхній", "нижній", "боковий" і т. д.) застосоване для зручності опису і не вимагає будь-якої конкретної орієнтації описаного елемента.
ІВОЇ Оскільки в описаних вище конструкціях і способах можуть бути зроблені різні зміни, не виходячи за обсяг винаходу, передбачається, що весь матеріал, що міститься в наведеному вище описі і показаний на доданих графічних матеріалах, має інтерпретуватися як ілюстративний, а не в обмежувальному сенсі.

Claims (22)

ФОРМУЛА ВИНАХОДУ
1. Спосіб агрономічного та сільськогосподарського моніторингу, який включає: моніторинг безпілотного літального апарата (БЛА) з використанням першого центрального процесора (ЦП) в базовій станції, у міру того, як БЛА здійснює політ уздовж траєкторії польоту над областю, причому БЛА виконує: захоплення, за допомогою другого ЦП, який міститься в БЛА, множини перших зображень цієї області, у міру того, як БЛА здійснює політ уздовж траєкторії польоту; аналізування, за допомогою другого ЦП, який міститься в БЛА, множини перших зображень цієї області для визначення того, чи одне або більше зображень, з множини зображень, відображає одну або кілька цільових областей, що мають рівень азоту, нижче певного порогу, у відповідь на визначення того, чи одне або кілька зображень з множини початкових зображень відображає одну або кілька цільових областей, що мають рівень азоту, нижче певного порогу, встановлюють ідентифікатор однієї або більше цільових областей для того, аби зробити одне або більше додаткових різних зображень високої розподільної здатності, у відповідь на прийом вказаного ідентифікатора, надісланого з другого ЦП, який міститься в БЛА: БЛА забезпечує захоплення одного або більше додаткових різних зображень однієї або більше цільових областей; передачу множини перших зображень та одного або більше додаткових різних зображень до приймача зображень.
2. Спосіб за п. 1, який додатково включає ідентифікацію одної або більше цільових областей, застосовуючи БЛА, для яких потрібне одне або більше різних зображень, при цьому, застосовуючи БЛА, ортотрансформують множину початкових зображень та ідентифікують області з зображеннями низької якості.
3. Спосіб за п. 1, який додатково включає: надсилання, за допомогою БЛА, до обчислювального пристрою зазначення областей, які мають певні характеристики, що включають одне або більше з: низького рівня азоту, низького рівня зрілості посівів або високого рівня затінення посівів; приймають від обчислювального пристрою інструкції для отримування одного або більше зображень однієї або більше цільових областей, для яких потрібні одне або більше додаткових різних зображень; приймають від обчислювального пристрою ідентифікатор однієї або більше цільових областей, для яких потрібні одне або більше додаткових різних зображень.
4. Спосіб за п. 1, який додатково включає: захоплення, за допомогою БЛА, одного або більше додаткових різних зображень при більшій роздільній здатності, ніж роздільна здатність, при якій була захоплена множина перших зображень.
5. Спосіб за п. 1, який додатково включає: захоплення, за допомогою БЛА, одного або більше різних зображень на низькій висоті.
6. Спосіб за п. 1, який додатково включає передачу множини перших зображень та одного або більше додаткових різних зображень до приймача зображень при захопленні зображень за допомогою БЛА, поки БЛА знаходиться в повітрі.
7. Спосіб за п. 1, який додатково включає визначення траєкторії польоту шляхом: приймання на базовій станції вхідних даних, які вказують тип зображення, яке треба отримати; приймання на базовій станції даних про перешкоди, які вказують перешкоди в межах області;
визначення, за допомогою базової станції, траєкторії польоту на основі щонайменше частково вказаних вхідних даних та даних про перешкоди.
8. Спосіб за п. 1, який додатково включає обробку, за допомогою БЛА, множини перших зображень та одного або більше додаткових різних зображень на борту, коли БЛА пролітає над областю.
9. Спосіб за п. 1, який додатково включає: обробку, за допомогою БЛА, множини перших зображень та одного або більше додаткових різних зображень шляхом ортотрансформації та зшивання множини перших зображень та одного або більше додаткових різних зображень в єдину суцільну мапу області.
10. Спосіб за п. 1, який додатково включає: обробку, застосовуючи базову станцію або комп'ютер хмарного середовища, множини перших зображень та одного або більше додаткових різних зображень шляхом виконання одного або більше з: ортотрансформації та зшивання множини перших зображень та одного або більше різних зображень в єдину суцільну мапу області; накладання множини перших зображень та одного або більше різних зображень на інші типи аерогеографічних зображень; відображення множини перших зображень та одного або більше додаткових різних зображень на графічному інтерфейсі користувача; генерування візуальної анімації та відображення візуальної анімації на графічному інтерфейсі користувача на основі множини перших зображень та одного або більше додаткових різних зображень; фільтрування множини перших зображень та одного або більше додаткових різних зображень шляхом застосування одного або більше фільтрів до множини перших зображень та одного або більше додаткових різних зображень; визначення мапи щільності зелені для області на основі множини перших зображень та одного або більше додаткових різних зображень, при цьому мапа щільності зелені має область очікуваної щільності зелені, позначену першим кольором, та інші області, позначені другим кольором; генерування на основі множини перших зображень та одного або більше додаткових різних зображень щонайменше одного з: мапи стандартизованого індексу відмінностей рослинного покриву або мапи внесення добрив для області; визначення мапи проростання для області на основі множини перших зображень та одного або більше додаткових різних зображень; генерування на основі множини перших зображень та одного або більше додаткових різних зображень щонайменше одного 3: мапи стандартизованого індексу відмінностей рослинного покриву або мапи внесення добрив; генерування на основі множини перших зображень та одного або більше додаткових різних зображень однієї або більше агрономічних рекомендацій для області; при цьому обробку множини перших зображень та одного або більше різних зображень виконують в одній або більше з: базової станції або хмарної системи.
11. Спосіб за п. 10, який додатково включає обробку мапи проростання для області шляхом: ідентифікування рядів областей зі щільністю зелені, яка нижче очікуваної, на мапі проростання; виділення областей зі щільністю зелені, яка вище очікуваної, в окремі області, кожна з яких відповідає одній рослині з множини рослин та відповідає даним посадки; ідентифікування структур щонайменше однієї рослини з множини рослин; обчислення передбачуваної врожайності щонайменше однієї рослини з множини рослин на основі ідентифікованих структур; генерування звіту, який містить передбачувану врожайність.
12. Система для агрономічного та сільськогосподарського моніторингу, що містить: базову станцію, яка містить перший центральний процесор (ЦП) та виконана з можливістю моніторингу одного або більше безпілотних літальних апаратів, коли один або більше безпілотних літальних апаратів здійснює політ уздовж траєкторії польоту над певною областю; безпілотний літальний апарат (БЛА), який містить другий ЦП та виконаний з можливістю: другим ЦП, розташованим на БЛА, здійснюють захоплення множини перших зображень цієї області, коли БЛА здійснює політ уздовж траєкторії польоту; другим ЦП, розташованим на БЛА, здійснюють аналізування множини перших зображень цієї області для визначення того, чи одне або більше зображень, з множини зображень, відображає одну або кілька цільових областей, що мають рівень азоту, нижче певного порогу, у відповідь на 60 визначення того, чи одне або кілька зображень з множини початкових зображень відображає одну або кілька цільових областей, що мають рівні азоту, нижче певного порогу, встановлюють ідентифікатор однієї або більше цільових областей для отримання одного або більше додаткових різних зображень високої розподільної здатності; другий ЦП, розташований на БЛА, у відповідь на прийом вказаного ідентифікатора, забезпечує захоплення за допомогою БЛА одного або більше додаткових різних зображень однієї або більше цільових областей; передачі множини перших зображень та одного або більше додаткових різних зображень до приймача зображень.
13. Система за п. 12, у якій БЛА додатково виконаний з можливістю самостійної ідентифікації однієї або більше цільових областей, для яких потрібне одне або більше різних зображень, при цьому БЛА ортотрансформує множину початкових зображень та ідентифікує області з зображеннями низької якості.
14. Система за п. 12, у якій БЛА додатково виконаний з можливістю: надсилання до обчислювального пристрою зазначення областей, які мають певні характеристики, що включають одне або більше з: низького рівня азоту, низького рівня зрілості посівів або високого рівня затінення посівів; приймання від обчислювального пристрою команд на отримування одного або більше зображень однієї або більше цільових областей, для яких потрібне одне або більше додаткових різних зображень; приймання від обчислювального пристрою ідентифікатора однієї або більше цільових областей, для яких потрібне одне або більше додаткових різних зображень.
15. Система за п. 12, у якій БЛА додатково виконаний з можливістю: захоплювання одного або більше додаткових різних зображень при більшій роздільній здатності, ніж роздільна здатність, при якій була захоплена множина перших зображень.
16. Система за п. 12, у якій БЛА додатково виконаний з можливістю: захоплення одного або більше різних зображень на низькій висоті.
17. Система за п. 12, у якій БЛА додатково виконаний з можливістю: передачі множини перших зображень та одного або більше додаткових різних зображень до приймача зображень при захопленні зображень за допомогою БЛА, поки БЛА знаходиться в повітрі.
18. Система за п. 12, у якій базова станція додатково виконана з можливістю: приймання введених користувачем даних, які вказують тип зображення, яке потрібно отримати; приймання даних про перешкоди, які вказують перешкоди в межах області; та визначення траєкторії польоту на основі щонайменше частково введених користувачем даних та даних про перешкоди.
19. Система за п. 12, у якій БЛА додатково виконаний з можливістю: обробки множини перших зображень та одного або більше додаткових різних зображень на борту, коли БЛА пролітає над областю.
20. Система за п, 12, у якій БЛА додатково виконаний з можливістю обробки множини перших зображень та одного або більше додаткових різних зображень шляхом ортотрансформації та зшивання множини перших зображень та одного або більше додаткових різних зображень в єдину суцільну мапу області.
21. Система за п. 12, в якій комп'ютер хмарного середовища оброблює множини перших зображень та одне або більше додаткових різних зображень шляхом виконання одного або більше з: ортотрансформації та зшивання множини перших зображень та одного або більше додаткових різних зображень в єдину суцільну мапу області; накладання множини перших зображень та одного або більше додаткових різних зображень на інші типи аерогеографічних зображень; відображення множини перших зображень та одного або більше додаткових різних зображень на графічному інтерфейсі користувача; генерування візуальної анімації та відображення візуальної анімації на графічному інтерфейсі користувача на основі множини перших зображень та одного або більше додаткових різних зображень; фільтрування множини перших зображень та одного або більше додаткових різних зображень шляхом застосування одного або більше фільтрів до множини перших зображень та одного або більше додаткових різних зображень; визначення мапи щільності зелені для області на основі множини перших зображень та одного або більше додаткових різних зображень, при цьому мапа щільності зелені має область очікуваної щільності зелені, зображену першим кольором, та інші області, зображені другим Гс10) кольором;
генерування на основі множини перших зображень та одного або більше додаткових різних зображень щонайменше одного 3: мапи стандартизованого індексу відмінностей рослинного покриву або мапи внесення добрив для області; визначення мапи проростання для області на основі множини перших зображень та одного або більше додаткових різних зображень; генерування на основі множини перших зображень та одного або більше додаткових різних зображень, щонайменше одного з: мапи стандартизованого індексу відмінностей рослинного покриву або мапи внесення добрив; генерування на основі множини перших зображень та одного або більше додаткових різних зображень однієї або більше агрономічних рекомендацій для області; при цьому обробку множини перших зображень та одного або більше інших зображень виконують в одній або більше з: базової станції або хмарної системи.
22. Система за п. 21, у якій базова станція додатково виконана з можливістю: ідентифікування рядів областей зі щільністю зелені, яка вище очікуваної, на мапі проростання; виділення областей зі щільністю зелені, яка вище очікуваної, в окремі області, кожна з яких відповідає одній рослині з множини рослин та відповідає даним посадки; ідентифікування структур щонайменше однієї рослини з множини рослин; обчислення передбачуваної врожайності щонайменше однієї рослини з множини рослин на основі ідентифікованих структур; генерування звіту, який містить передбачувану врожайність. Пристей скедення дахи квристивих : С орое мн Ной не пр ре НЕ доми і ран к їх бллвнихсеиМ ої дичних НН правили тоАВ м і й (0 моду 000 сннхююнехрянох | 1 0евованитьнйках і яна пен а ення й чяух Гвафінний ветерфоніх каристуванй Н ї іо Хеарнисстпедоонши НІ й Я рун ння дет Я Н і | поеоканкя даних, і й ві гтіпьювковий В КПлхам'ять Й ре з зх Н ї Н іопроойкз дим зі МІ Ммодемь нини нн ЛА ня і : ідвоі про пауду тя ни нт МВ дн : : І | фо зашеновювкя їй ОО М бездиотових | Ро0обисюняї АБ те ВА ЖЖ сяльнякаю у МО нн і: Шен ГБ пра 0010 шиті омедуне ОЇ о Рот ДЕ рваграмтвствамна ї | : По п Пн нн поро ь ч Шє кон Ярі тт сей фабевнюненик для 11 засо Прувамяти рр М зезаивмх с! У о з а Н У ті і спек дих НИ ОСТ от р іднтема яння ОК ши і Кі: ів о седан рі пит, ! демо лрему ЕВ передзине; одн Н х ї й НЕ що Н прожакнумті НІ НЕ доти РОТА прийма КМ хі ще гі нн нн 3157 ! система аою і х і ї но Мі НЯ ! і що рианя и пеууакаицо пул рт нт ! ї Кезова секція В і Н я х і Ї певкснаконий мемукисв Е 183 ЩЕ ж АЖаХ на : з Ї шламннковиц | Га Ї вимиютовия Ерннннтнннннннннннннннну В Й Канн склав дукню Ї - модуль ! Ку ! передавач РРО прхроюме хофяопечення Її і РИМИ СА ЛИПИПИИИИ А ро опВиймамо РІ дах брови за скахаяокх і ! ши Нпуваментх І : зездвотавий КІ Кен Ї мап іхоКІорікавмих ! : 15 руни Я чаледаювал ливих і і а і піджананустюогеріноми Н і Н Ту. сукеніїенннннні інт ї й ті «мих ІН Я і мине | Оцінка То пли АННА Н й Н с : х дяк ї Й Н ! І ши і ЩЕ що -на :
Фі.1 вою и Планування ! польоту Ци нн і ії Виконання : польоту 203- і Передача/обро Ібка даних після польоту
Фіг. 2
UAA201702686A 2014-08-22 2015-08-20 Способи агрономічного та сільськогосподарського моніторингу із застосуванням безпілотних літальних систем UA123573C2 (uk)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462040859P 2014-08-22 2014-08-22
US201462046438P 2014-09-05 2014-09-05
US14/831,165 US9922405B2 (en) 2014-08-22 2015-08-20 Methods for agronomic and agricultural monitoring using unmanned aerial systems
PCT/US2015/046165 WO2016029054A1 (en) 2014-08-22 2015-08-20 Methods for agronomic and agricultural monitoring using unmanned aerial systems

Publications (1)

Publication Number Publication Date
UA123573C2 true UA123573C2 (uk) 2021-04-28

Family

ID=55347082

Family Applications (1)

Application Number Title Priority Date Filing Date
UAA201702686A UA123573C2 (uk) 2014-08-22 2015-08-20 Способи агрономічного та сільськогосподарського моніторингу із застосуванням безпілотних літальних систем

Country Status (11)

Country Link
US (4) US9922405B2 (uk)
EP (1) EP3183697B1 (uk)
CN (1) CN107148633B (uk)
AU (1) AU2015305406B2 (uk)
BR (1) BR112017003678B1 (uk)
CA (2) CA2957081C (uk)
CL (1) CL2017000426A1 (uk)
CO (1) CO2017002677A2 (uk)
UA (1) UA123573C2 (uk)
WO (1) WO2016029054A1 (uk)
ZA (1) ZA201701638B (uk)

Families Citing this family (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9451745B1 (en) * 2012-09-21 2016-09-27 The United States Of America, As Represented By The Secretary Of Agriculture Multi-band photodiode sensor
US10234439B2 (en) * 2012-11-07 2019-03-19 Airscout Inc. Methods and systems for analyzing a field
US20150130936A1 (en) * 2013-11-08 2015-05-14 Dow Agrosciences Llc Crop monitoring system
EP3074832A4 (en) 2013-11-27 2017-08-30 The Trustees Of The University Of Pennsylvania Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (mav)
US9798322B2 (en) 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US12007763B2 (en) 2014-06-19 2024-06-11 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9922405B2 (en) 2014-08-22 2018-03-20 The Climate Corporation Methods for agronomic and agricultural monitoring using unmanned aerial systems
US9618934B2 (en) * 2014-09-12 2017-04-11 4D Tech Solutions, Inc. Unmanned aerial vehicle 3D mapping system
CN105518415A (zh) * 2014-10-22 2016-04-20 深圳市大疆创新科技有限公司 一种飞行航线设置方法及装置
IL236606B (en) 2015-01-11 2020-09-30 Gornik Amihay Standards and methods for agricultural monitoring
EP3276544A1 (en) * 2016-07-29 2018-01-31 Accenture Global Solutions Limited Precision agriculture system
US9792557B2 (en) 2015-01-14 2017-10-17 Accenture Global Services Limited Precision agriculture system
WO2016123201A1 (en) * 2015-01-27 2016-08-04 The Trustees Of The University Of Pennsylvania Systems, devices, and methods for robotic remote sensing for precision agriculture
US9922261B2 (en) * 2015-04-16 2018-03-20 Regents Of The University Of Minnesota Robotic surveying of fruit plants
US10139279B2 (en) * 2015-05-12 2018-11-27 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
US10791666B2 (en) 2015-06-08 2020-10-06 The Climate Corporation Agricultural data analysis
CA2990438A1 (en) 2015-06-30 2017-01-05 The Climate Corporation Systems and methods for image capture and analysis of agricultural fields
AU2016294138C1 (en) 2015-07-15 2022-02-24 Climate Llc Generating digital models of nutrients available to a crop over the course of the crop's development based on weather and soil data
US9745060B2 (en) * 2015-07-17 2017-08-29 Topcon Positioning Systems, Inc. Agricultural crop analysis drone
US10884430B2 (en) 2015-09-11 2021-01-05 The Trustees Of The University Of Pennsylvania Systems and methods for generating safe trajectories for multi-vehicle teams
US10231441B2 (en) * 2015-09-24 2019-03-19 Digi-Star, Llc Agricultural drone for use in livestock feeding
US10321663B2 (en) 2015-09-24 2019-06-18 Digi-Star, Llc Agricultural drone for use in livestock monitoring
US9772395B2 (en) 2015-09-25 2017-09-26 Intel Corporation Vision and radio fusion based precise indoor localization
WO2017091768A1 (en) * 2015-11-23 2017-06-01 Kespry, Inc. Autonomous mission action alteration
US10540901B2 (en) 2015-11-23 2020-01-21 Kespry Inc. Autonomous mission action alteration
JP6654649B2 (ja) * 2015-12-14 2020-02-26 株式会社ニコン・トリンブル 欠陥検出装置及びプログラム
US10301019B1 (en) 2015-12-17 2019-05-28 Amazon Technologies, Inc. Source location determination
US10262407B2 (en) * 2016-02-25 2019-04-16 Prospera Technologies, Ltd. System and method for efficient identification of developmental anomalies
DE102016004250A1 (de) * 2016-04-08 2017-10-12 Liebherr-Components Biberach Gmbh Verfahren und Vorrichtung zum Steuern eines Krans, eines Baggers, einer Raupe oder einer ähnlichen Baumaschine
US10817754B2 (en) * 2016-04-27 2020-10-27 SlantRange, Inc. Systems and methods for object classification and selective compression in aerial imagery
US10435176B2 (en) 2016-05-25 2019-10-08 Skydio, Inc. Perimeter structure for unmanned aerial vehicle
CN105955294A (zh) * 2016-05-26 2016-09-21 北京大工科技有限公司 控制无人机植保作业的方法及装置
CN106054917A (zh) * 2016-05-27 2016-10-26 广州极飞电子科技有限公司 一种无人飞行器的飞行控制方法、装置和遥控器
CN105979145A (zh) * 2016-06-22 2016-09-28 上海顺砾智能科技有限公司 提高无人机航拍影像质量的拍摄***及拍摄方法
US9881214B1 (en) * 2016-07-13 2018-01-30 The Climate Corporation Generating pixel maps from non-image data and difference metrics for pixel maps
US10520943B2 (en) * 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
US10089716B2 (en) 2016-09-03 2018-10-02 Microsoft Technology Licensing, Llc Generating real-time sensor maps from videos and in-ground sensor data
US10084868B2 (en) 2016-09-03 2018-09-25 Microsoft Technology Licensing, Llc IoT gateway for weakly connected settings
US11087132B2 (en) * 2016-09-07 2021-08-10 Precision Hawk Usa, Inc. Systems and methods for mapping emerged plants
CA3035068A1 (en) 2016-09-08 2018-03-15 Walmart Apollo, Llc Systems and methods for dispensing an insecticide via unmanned vehicles to defend a crop-containing area against pests
CN109963465A (zh) * 2016-09-08 2019-07-02 沃尔玛阿波罗有限责任公司 用于经由无人交通工具标识包含农作物的区域中的有害生物的***和方法
MX2019002645A (es) * 2016-09-08 2019-11-21 Walmart Apollo Llc Sistemas y metodos para identificar plagas en areas que contienen cultivos a traves de vehiculos no tripulados basados en la deteccion de daño de cultivo.
CN110023863A (zh) 2016-09-09 2019-07-16 沃尔玛阿波罗有限责任公司 平衡无人驾驶交通工具之间的电力使用的地理区域监测***和方法
MX2019002714A (es) 2016-09-09 2019-10-02 Walmart Apollo Llc Sistemas y metodos que utilizan intercambio computacional a traves de multiples vehiculos no tripulados para monitoreo de un area geografica.
US10274952B2 (en) * 2016-09-09 2019-04-30 Walmart Apollo, Llc Geographic area monitoring systems and methods through interchanging tool systems between unmanned vehicles
WO2018049289A1 (en) 2016-09-09 2018-03-15 Cibo Technologies, Inc. Systems for adjusting agronomic inputs using remote sensing, and related apparatus and methods
WO2018049247A1 (en) * 2016-09-09 2018-03-15 Wal-Mart Stores, Inc. Systems and methods to interchangeably couple tool systems with unmanned vehicles
US10635274B2 (en) * 2016-09-21 2020-04-28 Iunu, Inc. Horticultural care tracking, validation and verification
US10791037B2 (en) 2016-09-21 2020-09-29 Iunu, Inc. Reliable transfer of numerous geographically distributed large files to a centralized store
US11244398B2 (en) 2016-09-21 2022-02-08 Iunu, Inc. Plant provenance and data products from computer object recognition driven tracking
US11538099B2 (en) 2016-09-21 2022-12-27 Iunu, Inc. Online data market for automated plant growth input curve scripts
US10627386B2 (en) 2016-10-12 2020-04-21 Aker Technologies, Inc. System for monitoring crops and soil conditions
CN114648630A (zh) * 2016-10-13 2022-06-21 麦凯恩食品有限公司 用于在作物图像中检测马铃薯病毒的方法、介质和***
WO2018085422A1 (en) 2016-11-01 2018-05-11 Kinze Manufacturing, Inc. Control units, nodes, system, and method for transmitting and communicating data
US10127450B2 (en) 2016-11-02 2018-11-13 Blue River Technology Inc. Plot gap identification
US10192112B2 (en) * 2016-11-02 2019-01-29 Blue River Technology Inc. Plot gap identification
US10901420B2 (en) * 2016-11-04 2021-01-26 Intel Corporation Unmanned aerial vehicle-based systems and methods for agricultural landscape modeling
EP3535188A4 (en) * 2016-11-29 2020-07-01 American Robotics AIRPLANE PLANNING SYSTEMS
US11295458B2 (en) 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
AU2018210985B2 (en) * 2017-01-23 2022-09-15 The Board Of Trustees Of The University Of Illinois Adaptive cyber-physical system for efficient monitoring of unstructured environments
US10909367B2 (en) * 2017-03-02 2021-02-02 Basecamp Networks, LLC Automated diagnosis and treatment of crop infestations
US10599959B2 (en) * 2017-04-05 2020-03-24 International Business Machines Corporation Automatic pest monitoring by cognitive image recognition with two cameras on autonomous vehicles
WO2018195093A1 (en) * 2017-04-17 2018-10-25 Jacob Barnes Three-dimensional image capturing system and method for obtaining three-dimensional images
US10537062B2 (en) 2017-05-26 2020-01-21 Cnh Industrial America Llc Aerial vehicle systems and methods
US9984455B1 (en) * 2017-06-05 2018-05-29 Hana Resources, Inc. Organism growth prediction system using drone-captured images
US11061155B2 (en) 2017-06-08 2021-07-13 Total Sa Method of dropping a plurality of probes intended to partially penetrate into a ground using a vegetation detection, and related system
IT201700067764A1 (it) * 2017-06-19 2018-12-19 Dinamica Generale S P A Apparato semovente per l’analisi e la gestione ottimale di campi destinati a coltivazioni agricole.
CA2972055C (en) 2017-06-29 2021-01-26 Conseiller Forestier Roy Inc. Airborne material spreading assembly and method for spreading material
US10642264B2 (en) * 2017-07-19 2020-05-05 Superior Communications, Inc. Security drone system
US11263707B2 (en) 2017-08-08 2022-03-01 Indigo Ag, Inc. Machine learning in agricultural planting, growing, and harvesting contexts
EP3673458A4 (en) * 2017-08-25 2021-05-12 The Board of Trustees of the University of Illinois DEVICE AND METHOD FOR COLLECTING AGRICULTURAL DATA AND AGRICULTURAL OPERATIONS
US11317562B2 (en) 2017-09-11 2022-05-03 Farmers Edge Inc. Generating a yield map for an agricultural field using classification and regression methods
US10983249B2 (en) 2017-09-14 2021-04-20 Farmers Edge Inc. Indicator interpolation to predict a weather state
CN107680084B (zh) * 2017-09-21 2021-11-19 中山乡游生态科技有限公司 一种现代化农业监测***
US11442144B2 (en) * 2017-09-29 2022-09-13 Biotique Systems, Inc. System and method for automatically determining crop characteristics using unmanned aerial vehicle (UAV)
CN111201498A (zh) * 2017-10-11 2020-05-26 特里纳米克斯股份有限公司 自主机器人设备和相关的控制方法
CN111225855A (zh) * 2017-10-17 2020-06-02 巴斯夫欧洲公司 无人机
RU2668319C1 (ru) * 2017-10-27 2018-09-28 Общество с ограниченной ответственностью "АгроДронГрупп" Способ и система обработки зон посева сельскохозяйственных культур на основании данных мониторинга
RU2020116147A (ru) 2017-10-27 2021-11-29 Басф Се Устройство для возделывания растений
US10872534B2 (en) 2017-11-01 2020-12-22 Kespry, Inc. Aerial vehicle inspection path planning
US10725468B2 (en) * 2017-11-13 2020-07-28 Intel IP Corporation Bounding-volume based unmanned aerial vehicle illumination management system
US10779458B2 (en) 2017-12-01 2020-09-22 International Business Machines Corporation Monitoring aerial application tasks and recommending corrective actions
US10477756B1 (en) 2018-01-17 2019-11-19 Cibo Technologies, Inc. Correcting agronomic data from multiple passes through a farmable region
US20210311505A1 (en) * 2018-01-23 2021-10-07 SZ DJI Technology Co., Ltd. Assisted movement method and device, and movable platform
JP7060624B2 (ja) * 2018-01-26 2022-04-26 株式会社Nttドコモ 情報処理装置
US11062516B2 (en) 2018-02-07 2021-07-13 Iunu, Inc. Augmented reality based horticultural care tracking
US10769466B2 (en) * 2018-02-20 2020-09-08 International Business Machines Corporation Precision aware drone-based object mapping based on spatial pattern recognition
US10750733B1 (en) * 2018-02-28 2020-08-25 Espen Garner Autonomous insect carrier
JP6914874B2 (ja) * 2018-03-14 2021-08-04 株式会社ゼンリンデータコム 飛行経路生成装置及び飛行経路生成方法
US11116145B2 (en) 2018-03-30 2021-09-14 Greensight Argonomics, Inc. Automated optimization of agricultural treatments based on raster image data system
US11205073B2 (en) 2018-03-30 2021-12-21 Greensight Agronomics, Inc. System to automatically detect and report changes over time in a large imaging data set
US11235874B2 (en) 2018-03-30 2022-02-01 Greensight Agronomics, Inc. Automated drone-based spraying system
US10929664B2 (en) * 2018-03-30 2021-02-23 Iunu, Inc. Visual observer of unmanned aerial vehicle for monitoring horticultural grow operations
CN108537164B (zh) * 2018-04-08 2020-08-28 北京农业智能装备技术研究中心 基于无人机遥感的点穴播种出芽率监测方法与装置
US20190325534A1 (en) 2018-04-24 2019-10-24 Indigo Ag, Inc. Agricultural transportation entity identification and selection
US11373399B2 (en) * 2018-07-26 2022-06-28 Hall Enterprise Llc Method of crop analysis using drone with flying and driving capability
WO2020029024A1 (zh) * 2018-08-06 2020-02-13 北京小米移动软件有限公司 飞行路径配置方法和装置
US10660277B2 (en) * 2018-09-11 2020-05-26 Pollen Systems Corporation Vine growing management method and apparatus with autonomous vehicles
US10779476B2 (en) 2018-09-11 2020-09-22 Pollen Systems Corporation Crop management method and apparatus with autonomous vehicles
CN109445457B (zh) * 2018-10-18 2021-05-14 广州极飞科技股份有限公司 分布信息的确定方法、无人飞行器的控制方法及装置
CA3116881A1 (en) 2018-10-19 2020-04-23 The Climate Corporation Detecting infection of plant diseases by classifying plant photos
AR116766A1 (es) 2018-10-19 2021-06-09 Climate Corp Técnicas de aprendizaje automático para identificar nubes y sombras de nubes en imágenes satelitales
US10713542B2 (en) 2018-10-24 2020-07-14 The Climate Corporation Detection of plant diseases with multi-stage, multi-scale deep learning
US11653588B2 (en) 2018-10-26 2023-05-23 Deere & Company Yield map generation and control system
US11240961B2 (en) 2018-10-26 2022-02-08 Deere & Company Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity
US11957072B2 (en) 2020-02-06 2024-04-16 Deere & Company Pre-emergence weed detection and mitigation system
US11178818B2 (en) 2018-10-26 2021-11-23 Deere & Company Harvesting machine control system with fill level processing based on yield data
US11079725B2 (en) 2019-04-10 2021-08-03 Deere & Company Machine control using real-time model
US11589509B2 (en) 2018-10-26 2023-02-28 Deere & Company Predictive machine characteristic map generation and control system
US11672203B2 (en) 2018-10-26 2023-06-13 Deere & Company Predictive map generation and control
US11641800B2 (en) 2020-02-06 2023-05-09 Deere & Company Agricultural harvesting machine with pre-emergence weed detection and mitigation system
US11467605B2 (en) 2019-04-10 2022-10-11 Deere & Company Zonal machine control
JP7423631B2 (ja) * 2018-12-10 2024-01-29 クライメイト、リミテッド、ライアビリティー、カンパニー デジタル画像および機械学習モデルを使用した圃場異常の地図作成
US20200217830A1 (en) 2019-01-08 2020-07-09 AgroScout Ltd. Autonomous crop monitoring system and method
US11059582B2 (en) 2019-02-11 2021-07-13 Cnh Industrial Canada, Ltd. Systems for acquiring field condition data
US11001380B2 (en) * 2019-02-11 2021-05-11 Cnh Industrial Canada, Ltd. Methods for acquiring field condition data
EP3811404B1 (en) 2019-03-04 2023-06-28 Climate LLC Data storage and transfer device for an agricultural intelligence computing system
US11009625B2 (en) * 2019-03-27 2021-05-18 The Climate Corporation Generating and conveying comprehensive weather insights at fields for optimal agricultural decision making
US11778945B2 (en) 2019-04-10 2023-10-10 Deere & Company Machine control using real-time model
US11234366B2 (en) 2019-04-10 2022-02-01 Deere & Company Image selection for machine control
CN109977924A (zh) * 2019-04-15 2019-07-05 北京麦飞科技有限公司 针对农作物的无人机机上实时图像处理方法及***
US11170218B2 (en) * 2019-05-13 2021-11-09 Deere & Company Mobile work machine control system with terrain image analysis
US11553640B2 (en) 2019-06-11 2023-01-17 Cnh Industrial Canada, Ltd. Agricultural wear monitoring system
CN110222903B (zh) * 2019-06-13 2021-08-31 苏州市农业科学院 一种基于无人机遥感的水稻产量预测方法及***
US11778934B2 (en) * 2019-07-02 2023-10-10 Bear Flag Robotics, Inc. Agricultural lane following
KR102101355B1 (ko) * 2019-07-08 2020-04-17 주식회사 이노드 농업용 무인 이동체 및 이의 방제 약품 잔량 측정 시스템
US11440659B2 (en) * 2019-09-12 2022-09-13 National Formosa University Precision agriculture implementation method by UAV systems and artificial intelligence image processing technologies
WO2021062147A1 (en) 2019-09-27 2021-04-01 Indigo Ag, Inc. Modeling field irrigation with remote sensing imagery
US11868145B1 (en) * 2019-09-27 2024-01-09 Amazon Technologies, Inc. Selecting safe flight routes based on localized population densities and ground conditions
WO2021102378A1 (en) * 2019-11-20 2021-05-27 FarmWise Labs, Inc. Method for analyzing individual plants in an agricultural field
US11585960B2 (en) * 2019-12-04 2023-02-21 International Business Machines Corporation Effective agriculture and environment monitoring
CA3162410A1 (en) 2019-12-11 2021-06-17 Climate Llc Highly responsive farming systems with extraordinary in-season optimization
US12035648B2 (en) 2020-02-06 2024-07-16 Deere & Company Predictive weed map generation and control system
US11583882B2 (en) * 2020-02-13 2023-02-21 Cnh Industrial America Llc System and method for controlling the ground speed of an agricultural sprayer based on a spray quality parameter
AR121386A1 (es) * 2020-02-21 2022-06-01 Climate Corp Señalización de diferencias operacionales en implementos agrícolas
US20210282338A1 (en) * 2020-03-11 2021-09-16 Aerobotics (Pty) Ltd Systems and methods for predicting crop size and yield
US11720980B2 (en) 2020-03-25 2023-08-08 Iunu, Inc. Crowdsourced informatics for horticultural workflow and exchange
US11656624B2 (en) 2020-03-25 2023-05-23 Iunu, Inc. Horticulture aided by autonomous systems
US11730089B2 (en) * 2020-03-25 2023-08-22 Iunu, Inc. Horticulture aided by autonomous systems
US11477940B2 (en) 2020-03-26 2022-10-25 Deere & Company Mobile work machine control based on zone parameter modification
US11579611B1 (en) * 2020-03-30 2023-02-14 Amazon Technologies, Inc. Predicting localized population densities for generating flight routes
US11640764B1 (en) 2020-06-01 2023-05-02 Amazon Technologies, Inc. Optimal occupancy distribution for route or path planning
US11620821B2 (en) 2020-06-25 2023-04-04 GEOSAT Aerospace & Technology Apparatus and method for image-guided agriculture
US11580730B2 (en) * 2020-06-25 2023-02-14 GEOSAT Aerospace & Technology Apparatus and method for image-guided agriculture
US11487047B2 (en) 2020-07-15 2022-11-01 International Business Machines Corporation Forecasting environmental occlusion events
BR112023000950A2 (pt) 2020-07-21 2023-03-28 Indigo Ag Inc Algoritmos de sensoriamento remoto para mapear a agricultura regenerativa
CN111918030B (zh) * 2020-07-22 2022-07-01 南京科沃云计算信息技术有限公司 一种基于边缘计算的农作物病虫害识别***及其识别方法
TWI778391B (zh) * 2020-07-28 2022-09-21 中華電信股份有限公司 無人機控制方法及無人機控制裝置
US11592822B2 (en) 2020-10-09 2023-02-28 Deere & Company Machine control using a predictive map
US11895948B2 (en) 2020-10-09 2024-02-13 Deere & Company Predictive map generation and control based on soil properties
US11474523B2 (en) 2020-10-09 2022-10-18 Deere & Company Machine control using a predictive speed map
US11889788B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive biomass map generation and control
US11864483B2 (en) 2020-10-09 2024-01-09 Deere & Company Predictive map generation and control system
US11983009B2 (en) 2020-10-09 2024-05-14 Deere & Company Map generation and control system
US11871697B2 (en) 2020-10-09 2024-01-16 Deere & Company Crop moisture map generation and control system
US11946747B2 (en) 2020-10-09 2024-04-02 Deere & Company Crop constituent map generation and control system
US11675354B2 (en) 2020-10-09 2023-06-13 Deere & Company Machine control using a predictive map
US11845449B2 (en) 2020-10-09 2023-12-19 Deere & Company Map generation and control system
US11727680B2 (en) 2020-10-09 2023-08-15 Deere & Company Predictive map generation based on seeding characteristics and control
US11711995B2 (en) 2020-10-09 2023-08-01 Deere & Company Machine control using a predictive map
US11635765B2 (en) 2020-10-09 2023-04-25 Deere & Company Crop state map generation and control system
US12013245B2 (en) 2020-10-09 2024-06-18 Deere & Company Predictive map generation and control system
US11844311B2 (en) 2020-10-09 2023-12-19 Deere & Company Machine control using a predictive map
US11874669B2 (en) 2020-10-09 2024-01-16 Deere & Company Map generation and control system
US11825768B2 (en) 2020-10-09 2023-11-28 Deere & Company Machine control using a predictive map
US11849672B2 (en) 2020-10-09 2023-12-26 Deere & Company Machine control using a predictive map
US11650587B2 (en) 2020-10-09 2023-05-16 Deere & Company Predictive power map generation and control system
US11927459B2 (en) 2020-10-09 2024-03-12 Deere & Company Machine control using a predictive map
US11849671B2 (en) 2020-10-09 2023-12-26 Deere & Company Crop state map generation and control system
US11889787B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive speed map generation and control system
WO2022087841A1 (zh) * 2020-10-27 2022-05-05 深圳市大疆创新科技有限公司 用于农业无人飞行器仿地作业的方法和农业无人飞行器
US11991944B2 (en) 2021-05-03 2024-05-28 Crop Sentry Ltd. Computer vision system and method for agriculture
ES2930548A1 (es) * 2021-06-02 2022-12-15 Consejo Superior Investigacion Mapeo de surcos de laboreo
WO2023034118A1 (en) 2021-08-30 2023-03-09 Indigo Ag, Inc. Systems for management of location-aware market data
EP4396756A1 (en) 2021-08-31 2024-07-10 Indigo Ag, Inc. Systems and methods for ecosystem credit recommendations
CN114067455B (zh) * 2021-11-15 2023-08-29 李政力 一种城市园林绿化智能巡管方法
US11542003B1 (en) * 2022-03-22 2023-01-03 Beta Air, Llc Systems and methods for remote pilot control of an electric aircraft
CN115225870B (zh) * 2022-09-21 2022-11-22 北京瞭望神州科技有限公司 基于数据处理的耕地智保远程监控方法及监控***
CN116737729B (zh) * 2023-04-18 2024-01-19 速度科技股份有限公司 基于土壤墒情进行土壤分布地图的实时在线矫正方法
CN116931601B (zh) * 2023-07-25 2024-02-20 苏州瀚易特信息技术股份有限公司 一种基于无人机的航拍摄影摄像控制***
CN117952877B (zh) * 2024-03-26 2024-06-21 松立控股集团股份有限公司 一种基于层次化结构建模的低质图像矫正方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529615B2 (en) * 1997-10-10 2003-03-04 Case Corporation Method of determining and treating the health of a crop
US20100004802A1 (en) * 2005-01-25 2010-01-07 William Kress Bodin Navigating UAVS with an on-board digital camera
CN100541120C (zh) * 2005-10-10 2009-09-16 中国农业机械化科学研究院 一种蝗灾超低空预警***及其田间蝗虫自动识别方法
US9195891B2 (en) * 2006-11-07 2015-11-24 The Curators Of The University Of Missouri Method of predicting crop yield loss due to n-deficiency
US7911517B1 (en) * 2007-10-31 2011-03-22 The United States Of America As Represented By The Secretary Of Agriculture Device and method for acquiring digital color-infrared photographs for monitoring vegetation
KR101504383B1 (ko) * 2007-11-14 2015-03-19 인터그래프 소프트웨어 테크놀로지스 캄파니 항공 측량 방법 및 장치
US8675068B2 (en) * 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
BRPI0914887B1 (pt) * 2008-06-06 2019-11-26 Monsanto Technology Llc geração de produtos de informações agrícolas utilizando detecção remota
EP2356584B1 (en) * 2008-12-09 2018-04-11 Tomtom North America, Inc. Method of generating a geodetic reference database product
US20120101784A1 (en) * 2010-10-25 2012-04-26 Trimble Navigation Limited Wide-area agricultural monitoring and prediction
US9058633B2 (en) * 2010-10-25 2015-06-16 Trimble Navigation Limited Wide-area agricultural monitoring and prediction
US9213905B2 (en) * 2010-10-25 2015-12-15 Trimble Navigation Limited Automatic obstacle location mapping
US10115158B2 (en) * 2010-10-25 2018-10-30 Trimble Inc. Generating a crop recommendation
US9354216B2 (en) * 2011-11-07 2016-05-31 Brian Harold Sutton Infrared aerial thermography for use in determining plant health
US9113590B2 (en) * 2012-08-06 2015-08-25 Superior Edge, Inc. Methods, apparatus, and systems for determining in-season crop status in an agricultural crop and alerting users
US20140089045A1 (en) * 2012-09-27 2014-03-27 Superior Edge, Inc. Methods, apparatus and systems for determining stand population, stand consistency and stand quality in an agricultural crop and alerting users
US9235763B2 (en) * 2012-11-26 2016-01-12 Trimble Navigation Limited Integrated aerial photogrammetry surveys
US9075415B2 (en) * 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
US20140312165A1 (en) * 2013-03-15 2014-10-23 Armen Mkrtchyan Methods, apparatus and systems for aerial assessment of ground surfaces
WO2014160589A1 (en) * 2013-03-24 2014-10-02 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
US9147110B2 (en) * 2013-04-05 2015-09-29 Pioneer Hi-Bred International, Inc. Field and crop evaluation tool and methods of use
US9798928B2 (en) * 2013-07-17 2017-10-24 James L Carr System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability
CN103425102A (zh) * 2013-07-30 2013-12-04 上海丰凸通讯科技有限公司 基于低空遥感、多光谱精准识别的智能施肥***
CN103523224A (zh) * 2013-10-31 2014-01-22 无锡同春新能源科技有限公司 一种带彩色稻病图像识别仪防治水稻白叶枯病的无人机
US20150254800A1 (en) * 2014-03-06 2015-09-10 F12 Solutions, Llc Nitrogen status determination in growing crops
WO2015199772A2 (en) * 2014-03-28 2015-12-30 Konica Minolta Laboratory U.S.A., Inc. Method and system of stitching aerial data using information from previous aerial images
US9390331B2 (en) * 2014-04-15 2016-07-12 Open Range Consulting System and method for assessing riparian habitats
US9401030B2 (en) * 2014-04-25 2016-07-26 Tazco Soil Service Co. Image processing system for soil characterization
US9922405B2 (en) 2014-08-22 2018-03-20 The Climate Corporation Methods for agronomic and agricultural monitoring using unmanned aerial systems

Also Published As

Publication number Publication date
CL2017000426A1 (es) 2018-03-02
CO2017002677A2 (es) 2017-06-09
CA2957081C (en) 2024-06-25
ZA201701638B (en) 2018-06-27
EP3183697A1 (en) 2017-06-28
US20210217148A1 (en) 2021-07-15
US11651478B2 (en) 2023-05-16
BR112017003678A2 (pt) 2020-10-27
US20180158179A1 (en) 2018-06-07
AU2015305406A1 (en) 2017-03-23
US20190333195A1 (en) 2019-10-31
CA2957081A1 (en) 2016-02-25
CN107148633B (zh) 2020-12-01
US10346958B2 (en) 2019-07-09
CN107148633A (zh) 2017-09-08
EP3183697A4 (en) 2018-03-28
US9922405B2 (en) 2018-03-20
BR112017003678B1 (pt) 2023-04-18
CA3237917A1 (en) 2016-02-25
US20160050840A1 (en) 2016-02-25
US10902566B2 (en) 2021-01-26
WO2016029054A1 (en) 2016-02-25
EP3183697B1 (en) 2022-01-12
AU2015305406B2 (en) 2020-09-10

Similar Documents

Publication Publication Date Title
UA123573C2 (uk) Способи агрономічного та сільськогосподарського моніторингу із застосуванням безпілотних літальних систем
US11050979B2 (en) Systems and methods for agricultural monitoring
US20210406538A1 (en) Apparatus and method for image-guided agriculture
CN111225855A (zh) 无人机
US11280608B1 (en) UAV above ground level determination for precision agriculture
JP7081536B2 (ja) 作物の倒伏リスク診断に用いる生育パラメータの測定推奨スポット提示方法、倒伏リスク診断方法、および情報提供装置
Chávez et al. A decade of unmanned aerial systems in irrigated agriculture in the Western US
US20230298342A1 (en) Apparatus and method for image-guided agriculture
do Amaral et al. Application of drones in agriculture
TANAKA et al. Mapping of Rice Growth using Low Altitude Remote Sensing by Multicopter
CN112565726B (zh) 作业处方图的确定方法、作业控制方法及相关装置
Naumann Exploration of tropical landscape structures by an unmanned aerial vehicle in Sumatra
Jensen et al. Sensing from Unmanned Aerial Vehicles
Ivošević et al. A drone view for agriculture
Bochtis et al. Unmanned Aerial Systems in Agriculture: Eyes Above Fields
杜蒙蒙 Agricultural Remote Sensing by Multiple Sensors Mounted on an Unmanned Aerial Vehicle
Torres Sánchez Monitorización 3D de cultivos y cartografía de malas hierbas mediante vehículos aéreos no tripulados para un uso sostenible de fitosanitarios
David An RGB sensor-based aerial robotic platform for sustainable precision agriculture