Aplican inteligencia artificial para estudiar los sonidos del océano
Tiempo de lectura: 2 minutos Un trabajo de tres años liderado por la investigadora Susannah Buchan desarrolló una nueva metodología para el análisis de grandes bases de datos de sonido que permitirá estudiar los registros acústicos del océano.
El monitoreo acústico del océano genera grabaciones continuas que pueden llegar a prolongarse por meses y años, por lo que analizarlas de la manera tradicional, una persona escuchando las grabaciones con unos audífonos, mucho café y toneladas de paciencia, se convierte en un desafío que requiere el uso de algoritmos matemáticos para acelerar el proceso.
Así lo cuenta la doctora Susannah Buchan, oceanógrafa e investigadora principal del trabajo “Un sistema basado en HMM-DNN para la detección y clasificación de señales acústicas de baja frecuencia de ballenas barbadas, terremotos y cañones de aire frente a Chile”, donde desarrollaron una nueva metodología para el análisis de grandes bases de datos de sonido.
“El objetivo fue aplicar métodos de inteligencia artificial que se ocupan actualmente en la detección de voz humana para poder identificar y clasificar en estas bases de datos, de decenas de miles de horas, dónde están las señales que nos interesan, es decir, especies de ballenas, terremotos y cañones de aire, que son ruidos antropogénicos”, explica la científica, quien además es investigadora de los centros COPAS Coastal y CEAZA.
El trabajo, que duró tres años, se llevó a cabo utilizando los datos de una estación hidroacústica internacional con 6 hidrófonos instalados fuera del Archipiélago Juan Fernández, manejados por la Comisión Preparatoria para la Organización del Tratado de Prohibición Completa de los Ensayos Nucleares (CTBTO, Comprehensive Nuclear-Test-Ban Treaty Organization), entidad que monitorea los océanos para detectar posibles explosiones nucleares.
Asimismo, la investigadora afirma que el estudio fue producto de una colaboración muy estrecha con el Laboratorio de Procesamiento y Transmisión de Voz de la Universidad de Chile (LPTV), dirigido por Néstor Becerra, que proveyó la tecnología y experiencia de machine learning necesaria para el proyecto. En el LPTV también participaron los ingenieros Jorge Wuth y Rodrigo Mahu, mientras que, de parte de la Universidad de Concepción, participó el ingeniero Miguel Durán. En cuanto al financiamiento, este se dio a través de un proyecto de investigación Fondecyt de la ANID en la Universidad de Chile y con la colaboración de la Universidad de Concepción.
Resultados y divulgación
El sistema propuesto por el equipo se basó en un modelo oculto de Márkov (HMM, Hidden Markov Model) con una red neuronal profunda (DNN, Deep Neural Network), demostrando una buena capacidad para detectar y clasificar eventos correctamente, esto, de acuerdo con el texto del trabajo, el cual fue publicado en la revista internacional de acceso abierto Remote Sensing. En cuanto a sus proyecciones, Susannah Buchan comenta que “nos gustaría indagar más sobre las señales no biológicas, por ejemplo, señales ambientales naturales como terremotos o temporales, pero también señales antropogénicas como el tráfico de barcos o construcciones portuarias”.
Por otra parte, el proyecto Fondecyt que financió el trabajo también propició la elaboración de cápsulas de sonido con distintas señales que se perciben en el registro acústico de la costa de Chile y otras partes del mundo. Las cápsulas se encuentran actualmente publicadas como una lista de reproducción titulada “Espectrogramas de Biofonías, Geofonías y Antropofonías”, la cual está disponible en el canal de Youtube de Centro COPAS.
Fuente: Universidad de Concepción