Aerial imagery surveys are commonly used in marine mammal research to determine population size, distribution and habitat use. Analysis of aerial photos involves hours of manually identifying individuals present in each image and converting raw counts into useable biological statistics. Our research proposes the use of deep learning algorithms to increase the efficiency of the marine mammal research workflow. To test the feasibility of this proposal, the existing YOLOv4 convolutional neural network model was trained to detect belugas, kayaks and motorized boats in oblique drone imagery, collected from a stationary tethered system. Automated computer-based object detection achieved the following precision and recall, respectively, for each class: beluga = 74%/72%; boat = 97%/99%; and kayak = 96%/96%. We then tested the performance of computer vision tracking of belugas and occupied watercraft in drone videos using the DeepSORT tracking algorithm, which achieved a multiple-object tracking accuracy (MOTA) ranging from 37% to 88% and multiple object tracking precision (MOTP) between 63% and 86%. Results from this research indicate that deep learning technology can detect and track features more consistently than human annotators, allowing for larger datasets to be processed within a fraction of the time while avoiding discrepancies introduced by labeling fatigue or multiple human annotators.

Résumé Les relevés par imagerie aérienne sont couramment utilisés dans la recherche sur les mammifères marins pour déterminer la taille de la population, sa répartition et l’utilisation de l’habitat. L’analyse des photos aériennes implique des heures d’identification manuelle des individus présents dans chaque image et la conversion des chiffres bruts en statistiques biologiques utilisables. Notre recherche propose l’utilisation d’algorithmes d’apprentissage en profondeur pour augmenter l’efficacité du flux de recherche sur les mammifères marins. Pour mettre à l’essai la faisabilité de cette proposition, le modèle de réseau de neurones à convolution YOLOv4 existant a été entraîné pour détecter les bélugas, les kayaks et les embarcations motorisées dans des images de drones obliques, recueillies à partir d’un système fixe relié. La détection automatisée d’objets par ordinateur a atteint la précision et le rappel suivants, respectivement, pour chaque classe : béluga : 74 %/72 %; bateau : 97 %/99 %; kayak : 96 %/96 %. Les auteurs ont ensuite testé la performance de poursuite au moyen de la vision par ordinateur des bélugas et des motomarines dans des vidéos de drones à l’aide de l’algorithme de poursuite DeepSORT, qui a obtenu une exactitude de poursuite des objets multiples (« MOTA ») allant de 37 à 88 % et une précision de poursuite des objets multiples (« MOTP ») allant de 63 à 86 %. Les résultats de cette recherche indiquent que la technologie d’apprentissage profond peut détecter et suivre les caractéristiques plus régulièrement que les annotateurs humains, permettant de traiter des ensembles de données plus volumineux en une fraction de temps tout en évitant les écarts introduits par la fatigue d’étiquetage ou de multiples annotateurs humains. [Traduit par la Rédaction]

Données et ressources

Supplemental

Related Collections and Datasets

Metadata

Champ Valeur
Titre Detection and tracking of belugas, kayaks and motorized boats in drone video using deep learning
Publication general type journal article
Project Name
Keyword Vocabulary Polar Data Catalogue
Keyword Vocabulary URL https://www.polardata.ca/pdcinput/public/keywordlibrary
Theme Freshwater
Marine
Remote Sensing
Version 1.0
Publisher Drone Systems and Applications
Date Published 2022
DOI 10.1139/juvs-2021-0024
Langue English
Champ Valeur
Authors
Authors 1
Author Name
Harasyn, Madison
Type of Name
Personal
e-mail
Madison.harasyn@umanitoba.ca
Affiliation
Centre for Earth Observation Science - University of Manitoba
ORCID ID
https://orcid.org/0000-0002-5741-6766
Authors 2
Author Name
Chan, Wayne
Type of Name
Personal
e-mail
wayne.chan@umanitoba.ca
Affiliation
Centre for Earth Observation Science - University of Manitoba
ORCID ID
Authors 3
Author Name
Ausen, Emma
Type of Name
Personal
e-mail
emma.ausen@umanitoba.ca
Affiliation
Centre for Earth Observation Science - University of Manitoba
ORCID ID
Authors 4
Author Name
Barber, David
Type of Name
Personal
e-mail
david.barber@umanitoba.ca
Affiliation
Centre for Earth Observation Science - University of Manitoba
ORCID ID
0000-0001-9466-3291
Champ Valeur
License Name Creative Commons Attribution 4.0 International
Licence Type Open
Licence Schema Name SPDX
Licence URL https://spdx.org/licenses
Champ Valeur
Awards