Cómo el Deep Learning está Revolucionando el Procesamiento de Señal de EEG
Los sistemas del EEG capturan información de muchos aspectos diferentes de nuestra cognición, comportamiento y salud mental. La tecnología no solo ayuda a estudiar el cerebro, sino que también sus aplicaciones derivan al tratamiento de la salud, el control afectivo y emocional humano, y su mejora en general. A pesar de ello, los datos extraídos del EEG no son fáciles de interpretar. Tienen mucho ruido, varía significativamente entre los individuos e, incluso, los resultados de cada paciente cambian sustancialmente con el tiempo. En este artículo discutiremos cómo la IA y el machine learning se utilizan para procesar datos y cómo las nuevas tendencias, es decir, el deep learning, está revolucionando el análisis de la señal de EEG.
¿Por qué necesitamos machine learning para procesar los datos del EEG?
Las señales del EEG registran la actividad eléctrica del cerebro colocando sensores en el cuero cabelludo. El tipo de señal registrada es ruidosa, tiene artefactos y, sobre todo, no es información que podamos estudiar y analizar directamente (imágenes, gráficos, etc.). En esa medida, los médicos, neurocientíficos e ingenieros biomédicos suelen llevar una formación de años para comprender y extraer información significativa del EEG.
Y aún así es necesario procesar los datos crudos registrados antes de que los especialistas los examinen. Normalmente, se aplica un filtro temporal y espacial, así como procedimientos de eliminación de artefactos, que ya se aplican mientras aún se está grabando el experimento. Este procesamiento puede luego ser inspeccionado visualmente para detectar anomalías (por ejemplo, un episodio de epilepsia), cambios en el estado mental (por ejemplo, fases de sueño) o para estudiar las respuestas promedio de los grupos de personas.
La inspección visual es un proceso largo, caro y tedioso, no escala bien y no puede ser transferido a las aplicaciones de BCI. La IA y las herramientas de machine learning son la herramienta perfecta para automatizar, ampliar y mejorar el análisis de datos. De hecho, las interfaces cerebro-computador (BCI por sus siglas en inglés), así como los deletreadores o los dispositivos controlados por el cerebro, se basan en conductos de decodificación que utilizan algoritmos de machine learning muy diversos.
La era previa al Deep Learning: Procesamiento de señal, extracción de features del EEG y clasificación
Antes de la revolución del Deep Learning, el análisis estándar del EEG combinaba las técnicas del procesamiento de señal y las de machine learning, con el objetivo de mejorar la relación señal/ruido, limpiar la señal de artefactos, extraer features y decodificar e interpretar las señales. En la Figura 1, se muestra el análisis más común cuando se procesa un EEG:
Figura 1: Los tres pasos importantes en el procesamiento del EEG: 1) El preprocesamiento se ocupa del ruido, los artefactos y la mejora de la relación señal/ruido; 2) la extracción de features procesa más la señal para crear descriptores significativos para la tarea de la decodificación en cuestión; y 3) la decodificación utiliza modelos de clasificación/regresión para transformar las features del EEG en señales de alto nivel como letras de un deletreador, direcciones de movimiento, estados afectivos o cognitivos o marcadores clínicos.
Señal del EEG - Preprocesamiento
Desde un punto de vista computacional, la señal cruda del EEG es simplemente una serie temporal discreta multivariada, es decir, con múltiples dimensiones.
El número de canales del EEG determina la dimensión de cada punto de la serie temporal. Cada punto temporal corresponde a una muestra del EEG adquirida en el mismo punto temporal. El número de puntos de la serie temporal depende del tiempo registrado y de la frecuencia de muestreo (por ejemplo, 256 Hz).
Estas señales en crudo se utilizan raramente, ya que (posiblemente) contienen derivaciones y compensaciones de Corriente Directa, ruido electromagnético y artefactos que deben filtrarse. El procesamiento de señal se utiliza en los primeros pasos para eliminar el ruido, filtrar los artefactos o aislar una versión mejorada de la señal de interés. El ruido y los artefactos son una parte tan importante del análisis del EEG que toda bibliografía científica ha estudiado y sigue estudiando este problema. Puedes aprender sobre esto en nuestro artículo titulado Todo sobre los artefactos del EEG y las herramientas de filtrado.
Una vez que la señal está limpia, es hora de mejorar y descubrir los patrones cerebrales y los correlatos neurales de interés. En muchos casos, los procesos cerebrales que se estudian se sitúan en una onda de frecuencia determinada, como la respuesta evocada del P300 que se produce en la onda theta (4-7 Hz) o la modulación de los ritmos sensorio motor o mu, que se producen entre 8 y 15 Hz. El procesamiento más sencillo consiste en utilizar filtros de frecuencia como el filtro paso-bajo o paso-banda para aislar las ondas de interés y eliminar las frecuencias que no son de interés. En la Figura 2, se muestra el espectro de actividad del EEG y las ondas más comunes que se utilizan cuando se analizan los correlatos del EEG:
Figura 2: Izquierda: Espectro del EEG para dos condiciones diferentes: enfocado vs. distraído. En base a ello, se puede seleccionar el rango de frecuencia sombreado en gris para distinguir estas dos condiciones. A la derecha: Actividad del EEG filtrada en las ondas más comunes. La onda gamma [30--140Hz] también muestra la actividad correlacionada con los procesos cognitivos y muestra la alteración de los trastornos cognitivos.
Extracción de la señal EEG
Después del preprocesamiento, es hora de extraer features significativas de los datos del EEG limpio. En la era previa al Deep Learning, la extracción de features se basaba en métodos ad-hoc para el proceso cerebral de los intereses que iban desde las features artesanales hasta técnicas más sofisticadas, como el filtrado espacial lineal y no lineal. Estas últimas van desde métodos genéricos como el análisis de componentes principales y el análisis de componentes independientes, hasta otros más específicos del EEG como los CSP (Blankertz, 2007) y las variantes (Ang, 2008) para las características de potencia y X-Dawn (Rivet, 2009) para las temporales. En la Figura 3, se muestra uno de los métodos más simples de extracción de features, que, básicamente, submuestra directamente en el dominio temporal o de frecuencia de las señales limpias del EEG.
Figura 3. Un ejemplo de la extracción de features más simple. Time domain (izquierda): una ventana de un segundo de la señal del EEG filtrada en onda theta es submuestreada y los valores correspondientes se apilan en un vector de features. Frequency domain (derecha): se calcula el power spectrum del EEG en una ventana determinada y la potencia en un rango de frecuencias determinado se apila en otro vector de features. Estos vectores pueden utilizarse independientemente o combinarse para su posterior procesamiento.
Las features extraídas suelen estar adaptadas a la aplicación específica, como encontrar diferencias entre las condiciones experimentales (por ejemplo, niveles de atención, respuestas a acciones desajustadas), distinguir entre un grupo de clases predefinidas (por ejemplo, un deletreador), predecir el comportamiento (por ejemplo, anticipando el movimiento en la neurorehabilitación), encontrar anomalías con respecto a una dataset normativa (por ejemplo, QEEG o convulsiones). Las técnicas actuales de vanguardia incluyen clasificadores basados en la geometría de Riemann, bancos de filtros y clasificadores adaptativos, utilizados para manejar, con diversos niveles de éxito, los desafíos de los datos del EEG. (Perronnet, 2016, Lotte 2018).
Decodificación de datos del EEG
Una vez que las funciones estén listas, es hora de usar la información para decodificar automáticamente el EEG. El enfoque más común es el supervised learning. Este utiliza un conjunto de ejemplos conocidos como el training dataset para aprender un modelo que puede clasificar, predecir o identificar los patrones del EEG, basándose en las features extraídas.
Existe una gran variedad de métodos. Los más comunes son los métodos de clasificación, que clasifican un patrón del EEG en una de un conjunto de clases predefinidas, o los métodos de regresión, que transforman el patrón del EEG en otra señal, como una dirección de movimiento. Los métodos utilizados incluyen métodos lineales simples (LDA para la clasificación y para la Multiple Linear Regression), SVM como métodos kernel , random forests, neural networks (véase la Sección 4 para los métodos de deep learning), o una combinación más sofisticada de métodos.
Cualquiera que sea el método, el enfoque supervisado necesita tener un conjunto de datos de entrenamiento etiquetado (labeled traning dataset). Este conjunto de datos se utiliza para entrenar y evaluar el método, normalmente utilizando la validación cruzada.
Dos consideraciones importantes para los decodificadores del EEG debido a la naturaleza no estacionaria y dependiente del sujeto del EEG:
- Las features extraídas para una persona en un momento determinado pueden no ser adecuadas para la misma persona más adelante.
- Las features para un participante determinado pueden ser diferentes de las features para otro participante.
En términos técnicos, la distribución de las features cambia y es necesario volver a capacitar a los modelos en un conjunto de datos de capacitación actualizado. Inicialmente, los decodificadores eran específicos para cada participante y sesión; es decir, se adquiere un conjunto de capacitación específico para cada participante y sesión. En términos prácticos, esto tiene una gran repercusión en el esfuerzo que hay que hacer para construir y capacitar estos modelos y en el despliegue de los mismos fuera de los entornos del laboratorio. ¡La calibración de cada participante es un proceso costoso y tedioso!
Para superar esta limitación, se dispone de varios métodos diferentes. Las técnicas actuales tienen por objeto reducir al mínimo este proceso de calibración e intentan diseñar métodos robustos que funcionen a lo largo del tiempo y entre los participantes (Lopéz-Larraz, 2018).
Hay un último punto que merece ser discutido. Hasta ahora, hemos asumido que sabemos exactamente en qué momento tenemos la información relevante del EEG. Aunque este es el caso de muchas aplicaciones (por ejemplo, un deletreador del EEG), en muchas otras aplicaciones del BCI y la neurotecnología esta suposición no se sostiene. Se debe considerar, por ejemplo, la detección de un ataque de epilepsia en casa o la detección de la intención de mover un miembro durante una sesión de neurorehabilitación. En esta configuración, es necesario procesar la convulsión del EEG en línea o de manera asincrónica. Esto añade un desafío adicional a la tarea de decodificación: no basta con distinguir los patrones de interés, sino que también hay que tratar con un EEG de fondo (background EEG).
Todo el procesamiento anterior tiene que ser ampliado o adaptado para obtener tal decodificación asincrónica. La forma más sencilla es utilizar una ventana deslizante (sliding window) en la que calculamos nuestra salida para cada ventana de forma independiente (véase la Figura 4 para un ejemplo de decodificación de movimiento). Durante el training, el EEG de fondo se etiqueta como "descanso", mientras que el inicio del movimiento se extrae utilizando algún protocolo de calibración como la actividad del EMG. Los mismos algoritmos de aprendizaje supervisado pueden aplicarse entonces para aprender el decodificador. Este último se puede utilizar luego sobre una ventana deslizante (sliding window) para proporcionar una decodificación continua.
Figura 4: Ejemplo de detección online usando una ventana deslizante (sliding window). Durante el entrenamiento, las ventanas se extraen de los ejemplos de entrenamiento para preparar a los clasificadores. En tiempo real, la decodificación se hace para cada ventana independientemente. El resultado, en este caso, es una probabilidad a lo largo del tiempo que puede suavizarse aún más, si es necesario.
Llega la Era del Deep-Learning
El Deep Learning ha cambiado radicalmente el machine learning en muchos ámbitos (por ejemplo, en la visión por computadora, el habla, el reinforcement learning, etc.) al proporcionar modelos de propósito general y flexibles, que pueden trabajar con datos crudos, así como reconocer las transformaciones apropiadas para un problema en cuestión. Estos modelos pueden utilizar grandes cantidades de datos para estudiar directamente las features y captar la estructura de los datos de manera eficiente, que luego pueden transferirse y/o adaptarse a diferentes tareas. Esta capacidad de aprendizaje completo encaja perfectamente con el tipo de análisis que requiere un EEG en el que los múltiples procesos interdependientes son fundamentales y, hasta hace poco, se diseñaban cuidadosamente para cada propósito diferente.
Desafíos de Deep Learning para el EEG
Los datos del EEG tienen sus propios desafíos.
- En primer lugar, la recopilación de datos sigue siendo costosa, conlleva mucho tiempo y se limita a un pequeño número de equipos que trabajan principalmente en laboratorios de investigación. Los datos médicos no suelen estar disponibles debido a la reglamentación de los datos personales, así como los datos recogidos de las empresas que son también privados por la misma razón. Por consiguiente, la recopilación de datos no se acerca en absoluto en tamaño a otros ámbitos como la visión por computadora o el reconocimiento del habla. Muchos conjuntos de datos públicos del EEG solo abarcan a unas decenas de participantes (véase Google Dataset search para EEG y el BNCI database para datasets de BCI). Algunos campos, como el del sueño y la epilepsia, tienen conjuntos de datos públicos más grandes con miles de participantes. En el caso de la epilepsia, el conjunto de datos del Hospital Universitario de Temple tiene más de 23.000 sesiones con más de 13.500 pacientes, generando un total de más de 1,8 años de registro (Obeid, 2016). En cuanto al sueño, el Laboratorio del Sueño del Hospital General de Massachusetts tiene más de 10.000 participantes con 80.000 horas de grabaciones, lo que equivale a más de 9 años.
- En segundo lugar, la cantidad de información es limitada debido a la baja relación señal-ruido y depende en gran medida del protocolo de recopilación de datos. Esto limita aún más la cantidad de datos disponibles y dificulta la transferencia entre los protocolos y los participantes.
- En tercer lugar, los modelos desarrollados para las imágenes y el habla se han estudiado durante muchos años y, aunque técnicamente son genéricos, no son necesariamente los más apropiados para el EEG. Esto también incluye muchas buenas estrategias utilizadas para entrenar los modelos que no pueden ser implementados tan eficientemente en el EEG, como las técnicas de aumento de datos para imágenes
(Hartmann, 2018).
¿Cómo se puede usar el deep learning para la decodificación del EEG?
Estos desafíos no han impedido que los investigadores y profesionales aprovechen los beneficios que ofrece el deep learning. Gracias al deep learning, en los últimos 10 años se ha observado un rápido aumento de los resultados en todos los campos relacionados con los datos del EEG. Ha habido un creciente interés en el uso de este tipo de técnica. Una revisión muy interesante de más de 100 trabajos arroja luz sobre el estado actual de la técnica.
La Figura 5 muestra cómo los principales campos de aplicación del análisis de datos del EEG han probado el deep learning demostrando qué modelos profundos (deep models) son los más comunes. Todavía no hay una clara arquitectura dominante. Muchos de los aplicados al EEG han sido tomados directamente de aplicaciones anteriores como la visión por computadora. Por lo tanto, las convolutional neural networks (CNN) son la arquitectura más común, mientras que los autocodificadores y las redes recurrentes también se utilizan con bastante frecuencia.
Figura 5: Estadísticas sobre AP aplicadas a los datos del EEG copiados de (Roy, 2019): Número de publicaciones por dominio y año (izquierda) y tipo de arquitecturas utilizadas (derecha).
En la mayoría de los casos, los métodos de deep learning realizan la extracción y decodificación de features simultáneamente (véase la Figura 1) y utilizan el mismo enfoque supervisado (descrito en la Sección 2). En muchos casos, el preprocesamiento se simplifica, por ejemplo, mediante el cálculo de las features de potencia o la segmentación de los datos de entrada. Curiosamente, algunos modelos profundos han mostrado un rendimiento de decodificación de principio a fin, mejorando los métodos anteriores y abordando directamente cuestiones comunes del EEG como los movimientos oculares, los artefactos o el EEG de fondo (background EEG).
¿Cuáles son los resultados de la decodificación del EEG de deep learning? Y, ¿cómo se comparan estos resultados con los métodos anteriores?
Los autores de la meta-revisión en Roy (2019) han calculado que la mejora media de la precisión es de alrededor del 5,4% de forma consistente en todos los dominios que se muestran en la Figura 6. Aunque también señalan algunos problemas de reproducibilidad, los resultados muestran que, a pesar de los desafíos mencionados anteriormente, el deep learning mejora los resultados de la decodificación; en muchos casos, con un mínimo o ningún pre-procesamiento. Una consecuencia interesante de la utilización de las técnicas de deep learning que requieren el uso de una gran cantidad de datos, es que la configuración estándar de participante/sesión específica ha sido sustituida por otra más ecológica en la que todas las sesiones y los participantes contribuyen a los decodificadores. Para dar una visión más detallada, destacamos los resultados en tres aplicaciones diferentes que son relevantes para comprender el estado actual de la técnica:
- Decodificación de la tarea mental (Mental task decoding): Tal vez los modelos de deep learning más que mejor resultado han dado son las Convolutional Neural Networks.
En este primer ejemplo, veremos cómo se pueden usar para decodificar tareas mentales de principio a fin del EEG. La decodificación de principio a fin explota las arquitecturas profundas aprendiendo los mapas directamente de los datos en crudo y obteniendo representaciones de alto nivel, en este caso, la imaginación mental del usuario. Las redes convolucionales se diseñaron en la visión por computadora y pueden verse como filtros espaciales de variación de desplazamiento sobre la imagen. Estas aprenden features locales que luego se utilizan para crear features de alto nivel en capas más profundas de la red neuronal.
Esta misma idea puede utilizarse para crear filtros de tiempo y frecuencia que aprenden automáticamente features del EEG en crudo, y luego aprenden features más complejas a partir de ahí. La Figura 6 muestra la arquitectura ConvNet propuesta en Schirrmeister, 2017. Los resultados muestran que un mapeo de un extremo a otro puede funcionar tan bien como filtrar las bank common spatial patterns (FBCSP), el método actual de última generación desarrollado específicamente para imágenes motoras. (Ang et al., 2008). Aunque el FBCSP está diseñado para utilizar modulaciones de potencia espectral, las features utilizadas por ConvNets no están fijadas a priori. Para aquellos interesados en aspectos detallados de implementación técnica (Schirrmeister, 2017) , proporciona una profunda comprensión de cómo los recientes desarrollos en la regularización y normalización pueden marcar una gran diferencia a la hora de entrenar tu modelo.
Figura 6: ConvNet, una arquitectura de deep learning basada en CNN para la decodificación de end-to-end de imágenes motoras. Los datos en crudo entran en la primera capa (la superior) y luego crean features de nivel superior que capturan los patrones cerebrales para distinguir entre las imágenes motoras de la mano izquierda/derecha y del pie. Imagen tomada de (Schirrmeister, 2017).
- Decodificación del EEG del sueño (Sleep EEG decoding): El modelo SLEEPNET (Biswal, 2016) ha sido entrenado y evaluado en la mayor base de datos de fisiología del sueño reunida hasta la fecha. Este contiene registros de polisomnografía (PSG) de más de 10.000 pacientes del Laboratorio del Sueño del Hospital General de Massachusetts (MGH). SLEEPNET pone en práctica una red recurrente y logra un rendimiento de anotaciones a nivel humano en un conjunto de pruebas independientes de 1.000 pacientes, con una precisión media de 85,76% y un acuerdo entre evaluadores expertos en algoritmos (IRA) de κ= 79,46%, comparable al acuerdo entre evaluadores expertos. Esto representa un aumento del 10% en la precisión con respecto a los métodos que no son deep learning. Para los interesados, kappa de Cohen κ se utiliza en los estudios del sueño para medir la concordancia entre las diferentes anotaciones del sueño realizadas por los médicos que tienen un acuerdo entre evaluadores de alrededor del 65-75%. La Figura 7 muestra un ejemplo anotado del EEG del sueño y de los estados pronosticados.
Figura 7: Imagen de (Biswal, 2017). De arriba a abajo: Datos del EEG en crudo y espectrograma, etiquetas humanas y predicciones.
- Decodificando los estados afectivos (Decoding affective states). Una de las bases de datos más comunes para la decodificación de los estados afectivos es DEAP (Koelstra, 2011). Este consiste en las grabaciones de 40 minutos del EEG y otros biosensores, mientras se ven videos musicales para un total de 32 sujetos (ver Figura 8 para algunos ejemplos). Se ha utilizado ampliamente para evaluar técnicas de deep learning con diferentes arquitecturas de autocodificadores, CNNS, redes recurrentes y enfoques híbridos, y con diferentes conductos de preprocesamiento variando el número de conductos e incluyendo datos en crudo o features simples (por ejemplo, PSD). Los resultados actuales obtienen precisiones de entre el 70% y el 80% (véase Craik, 2019) para un examen completo y para resultados recientes y comparaciones con enfoques de aprendizaje no profundo (Li, 2020).
Figura 8: Ejemplo de videos musicales y distribución de etiquetas según los usuarios. Imagen copiada de la página web del conjunto de datos de DEAP: web.
- Detección de Epilepsia: El último método consiste en detectar patrones de interés clínico en la actividad cerebral que podrían ser útiles para diagnosticar trastornos cerebrales, en particular, patrones cerebrales relacionados con la epilepsia. A diferencia de los ejemplos anteriores, el sistema descrito en (Golmohammadi, 2019) utiliza un enfoque híbrido (véase la Figura 9) que combina el deep learning con hidden Markov models y técnicas de modelado de lenguaje estadístico para capturar el conocimiento experto e incluirlo en el sistema. Además, ha dedicado la extracción de features adaptadas para detectar tres patrones cerebrales que se producen durante los episodios epilépticos (ondas punzantes y agudas, descargas periódicas lateralizadas y descargas periódicas generalizadas) y tres patrones para modelar artefactos, movimientos oculares y ruido de fondo. El modelo fue entrenado y evaluado en el TUH EEG Corpus (Obeid, 2016), siendo el mayor corpus de registros clínicos del EEG disponible al público en el mundo. Este alcanzó una sensibilidad superior al 90% manteniendo una tasa de falsas alarmas por debajo del 5%, suficiente para la práctica clínica.
Figura 9: El conducto completo incluye la extracción de features y tres pasos. Solo el segundo utiliza el deep learning para procesar los resultados de los hidden models de Markov (HMM). El tercer paso impone algunas restricciones contextuales modeladas por expertos.
Los ejemplos anteriores muestran que las técnicas de deep learning están ahora presentes en todas las aplicaciones de decodificación EEG y representan el estado actual de la técnica. Todavía hay muchas preguntas abiertas, como qué modelos funcionan mejor, y si se necesitan modelos y algoritmos específicos para el EEG.
Para quienes estén interesados en los detalles técnicos de cómo se han utilizado las diferentes redes con el EEG, recomendamos consultar algunas reseñas muy completas (Roy, 2019; Craik, 2019) que proporcionan referencias de los trabajos apropiados. La mayoría de los resultados se han obtenido utilizando conjuntos de datos públicos. El código está disponible en los repositorios correspondientes. Véase, por ejemplo, the braindecod github para una completa decodificación de deep learning utilizando las redes de la CNN (Schirrmeister,2017).
Una nota final de advertencia
Beware of the hype! El aumento del número de estudios que afirman obtener mejores resultados con el deep learning no ha estado exento de controversia. La reproducibilidad y, cuando sea posible, la comparación con líneas de base bien establecidas son una necesidad, y su falta debe ser tratada cuidadosamente al evaluar cualquier afirmación. Curiosamente, Roy (2019) señala que solo el 7% de los resultados reportados proporcionan tanto el software (19%) como los conjuntos de datos (54%) necesarios para evaluar y replicar el método. A veces hay razones delicadas para no proporcionar la fuente y los conjuntos de datos (como la privacidad en los registros médicos, la necesidad de explotar el conjunto de datos o el código para su propia investigación) antes de que se haga público. No obstante, hoy en día estas buenas prácticas son cada vez más comunes y, en algunos casos, se exige que se publiquen los datos. Lo cierto es que siempre serán un buen indicador de la calidad del trabajo y un buen punto de partida para sus propios proyectos.
Referencias
- Perronnet, L., Lécuyer, A., Lotte, F., Clerc, M., & Barillot, C. (2016). Brain-Computer Interfaces 1: Foundations and Methods.
- Lotte, F., Bougrain, L., Cichocki, A., Clerc, M., Congedo, M., Rakotomamonjy, A., & Yger, F. (2018). A review of classification algorithms for EEG-based brain–computer interfaces: a 10 year update. Journal of neural engineering, 15(3), 031005.
- Rivet, B., Souloumiac, A., Attina, V., & Gibert, G. (2009). xDAWN algorithm to enhance evoked potentials: application to brain–computer interface. IEEE Transactions on Biomedical Engineering, 56(8), 2035-2043.
- Blankertz, B., Tomioka, R., Lemm, S., Kawanabe, M., & Muller, K. R. (2007). Optimizing spatial filters for robust EEG single-trial analysis. IEEE Signal processing magazine, 25(1), 41-56.
- Ang, K. K., Chin, Z. Y., Zhang, H., & Guan, C. (2008, June). Filter bank common spatial pattern (FBCSP) in brain-computer interface. In 2008 IEEE International Joint Conference on Neural Networks (IEEE World Congress on Computational Intelligence) (pp. 2390-2397). IEEE.
- Roy, Y., Banville, H., Albuquerque, I., Gramfort, A., Falk, T. H., & Faubert, J. (2019). Deep learning-based electroencephalography analysis: a systematic review. Journal of neural engineering, 16(5), 051001.
- Craik, A., He, Y., & Contreras-Vidal, J. L. (2019). Deep learning for electroencephalogram (EEG) classification tasks: a review. Journal of neural engineering, 16(3), 031001.
- Schirrmeister, R. T., Springenberg, J. T., Fiederer, L. D. J., Glasstetter, M., Eggensperger, K., Tangermann, M., ... & Ball, T. (2017). Deep learning with convolutional neural networks for EEG decoding and visualization. Human brain mapping, 38(11), 5391-5420.
- Golmohammadi, M., Harati Nejad Torbati, A. H., Lopez de Diego, S., Obeid, I., & Picone, J. (2019). Automatic analysis of EEGs using big data and hybrid deep learning architectures. Frontiers in human neuroscience, 13, 76.
- Biswal, S., Kulas, J., Sun, H., Goparaju, B., Westover, M. B., Bianchi, M. T., & Sun, J. (2017). SLEEPNET: automated sleep staging system via deep learning. arXiv preprint arXiv:1707.08262.
- Obeid, I., & Picone, J. (2016). The temple university hospital EEG data corpus. Frontiers in neuroscience, 10, 196.
- Koelstra, S., Muhl, C., Soleymani, M., Lee, J. S., Yazdani, A., Ebrahimi, T., ... & Patras, I. (2011). Deap: A database for emotion analysis; using physiological signals. IEEE transactions on affective computing, 3(1), 18-31.
- Li, X., Zhao, Z., Song, D., Zhang, Y., Pan, J., Wu, L., ... & Wang, D. (2020). Latent Factor Decoding of Multi-Channel EEG for Emotion Recognition Through Autoencoder-Like Neural Networks. Frontiers in Neuroscience, 14, 87.
- López-Larraz, E., Ibáñez, J., Trincado-Alonso, F., Monge-Pereira, E., Pons, J. L., & Montesano, L. (2018). Comparing recalibration strategies for electroencephalography-based decoders of movement intention in neurological patients with motor disability. International journal of neural systems, 28(07), 1750060.
- Hartmann, K. G., Schirrmeister, R. T., & Ball, T. (2018). EEG-GAN: Generative adversarial networks for electroencephalograhic (EEG) brain signals. arXiv preprint arXiv:1806.01875.
You might also be interested in:
- All about EEG artifacts and filtering tools
- Main features of the EEG sensor layer explained
- Main features of the EEG amplifier explained
- How to select a dry-EEG headset for your research application
- An introduction to brain-computer interface using EEG signals
- Advances in motor neuroprosthetics improve mobility in tetraplegics
- What is neurorehabilitation and 4 leading projects in Europe
- Will machines ever feel emotions?
- Overview of cognitive rehabilitation and stimulation therapies in dementia