Aerial imagery surveys are commonly used in marine mammal research to determine population size, distribution and habitat use. Analysis of aerial photos involves hours of manually identifying individuals present in each image and converting raw counts into useable biological statistics. Our research proposes the use of deep learning algorithms to increase the efficiency of the marine mammal research workflow. To test the feasibility of this proposal, the existing YOLOv4 convolutional neural network model was trained to detect belugas, kayaks and motorized boats in oblique drone imagery, collected from a stationary tethered system. Automated computer-based object detection achieved the following precision and recall, respectively, for each class: beluga = 74%/72%; boat = 97%/99%; and kayak = 96%/96%. We then tested the performance of computer vision tracking of belugas and occupied watercraft in drone videos using the DeepSORT tracking algorithm, which achieved a multiple-object tracking accuracy (MOTA) ranging from 37% to 88% and multiple object tracking precision (MOTP) between 63% and 86%. Results from this research indicate that deep learning technology can detect and track features more consistently than human annotators, allowing for larger datasets to be processed within a fraction of the time while avoiding discrepancies introduced by labeling fatigue or multiple human annotators.

Résumé Les relevés par imagerie aérienne sont couramment utilisés dans la recherche sur les mammifères marins pour déterminer la taille de la population, sa répartition et l’utilisation de l’habitat. L’analyse des photos aériennes implique des heures d’identification manuelle des individus présents dans chaque image et la conversion des chiffres bruts en statistiques biologiques utilisables. Notre recherche propose l’utilisation d’algorithmes d’apprentissage en profondeur pour augmenter l’efficacité du flux de recherche sur les mammifères marins. Pour mettre à l’essai la faisabilité de cette proposition, le modèle de réseau de neurones à convolution YOLOv4 existant a été entraîné pour détecter les bélugas, les kayaks et les embarcations motorisées dans des images de drones obliques, recueillies à partir d’un système fixe relié. La détection automatisée d’objets par ordinateur a atteint la précision et le rappel suivants, respectivement, pour chaque classe : béluga : 74 %/72 %; bateau : 97 %/99 %; kayak : 96 %/96 %. Les auteurs ont ensuite testé la performance de poursuite au moyen de la vision par ordinateur des bélugas et des motomarines dans des vidéos de drones à l’aide de l’algorithme de poursuite DeepSORT, qui a obtenu une exactitude de poursuite des objets multiples (« MOTA ») allant de 37 à 88 % et une précision de poursuite des objets multiples (« MOTP ») allant de 63 à 86 %. Les résultats de cette recherche indiquent que la technologie d’apprentissage profond peut détecter et suivre les caractéristiques plus régulièrement que les annotateurs humains, permettant de traiter des ensembles de données plus volumineux en une fraction de temps tout en évitant les écarts introduits par la fatigue d’étiquetage ou de multiples annotateurs humains. [Traduit par la Rédaction]

Data and Resources

Documents

Metadata

Field Value
Title Detection and tracking of belugas, kayaks and motorized boats in drone video using deep learning
Publication general type journal article
Project Name
Keywords AERIAL PHOTOGRAPHS, Churchill estuary, Unmanned Aerial Vehicle, boat, drone, kayak, video, Beluga
Keyword Vocabulary Polar Data Catalogue
Keyword Vocabulary URL https://www.polardata.ca/pdcinput/public/keywordlibrary
Theme Freshwater
Marine
Remote Sensing
Version 1.0
Publisher Drone Systems and Applications
Date Published 2022
DOI 10.1139/juvs-2021-0024
Language English
Preferred citation Madison L.Harasyn, Wayne S.Chan, Emma L.Ausen, and David G.Barber. Detection and tracking of belugas, kayaks and motorized boats in drone video using deep learning. Drone Systems and Applications. 10(1): 77-96. https://doi-org.uml.idm.oclc.org/10.1139/juvs-2021-0024
Field Value
Authors
Authors 1
Author Name
Harasyn, Madison L.
Type of Name
Personal
Email
madison.harasyn@usask.ca
Affiliation
Centre for Earth Observation Science - University of Manitoba
ORCID ID
https://orcid.org/0000-0002-5741-6766
Authors 2
Author Name
Chan, Wayne
Type of Name
Personal
Email
wayne.chan@umanitoba.ca
Affiliation
Centre for Earth Observation Science - University of Manitoba
ORCID ID
Authors 3
Author Name
Ausen, Emma
Type of Name
Personal
Email
ausene@myumanitoba.ca
Affiliation
Centre for Earth Observation Science - University of Manitoba
ORCID ID
Authors 4
Author Name
Barber, David
Type of Name
Personal
Email
david.barber@umanitoba.ca
Affiliation
Centre for Earth Observation Science - University of Manitoba
ORCID ID
0000-0001-9466-3291
Field Value
License Name Other (Open)
Licence Type Open
Licence Schema Name SPDX
Licence URL https://spdx.org/licenses
Field Value
Funded by Canada Excellence Research Chair (CERC) and Canada Research Chair (CRC) Programs
Website http://www.cerc.gc.ca/home-accueil-eng.aspx
Funder Name Canada Excellence Research Chairs
Funder Identifier Code 02tvrwm90
Funder Identifier Type ROR
Funder Identifier Scheme https://ror.org
Grant Number