Resumen:
|
[ES] Los sistemas Brain-Computer Interface (BCI) permiten la comunicación en tiempo real entre el cerebro y el entorno midiendo la actividad neuronal, sin la necesidad de que intervengan músculos o nervios periféricos. En ...[+]
[ES] Los sistemas Brain-Computer Interface (BCI) permiten la comunicación en tiempo real entre el cerebro y el entorno midiendo la actividad neuronal, sin la necesidad de que intervengan músculos o nervios periféricos. En la práctica, normalmente se emplea el electroencefalograma (EEG) para registrar la actividad cerebral, debido a que se realiza con un equipo portable, no invasivo y de bajo coste en comparación con otras técnicas disponibles. Una vez adquirida la señal EEG, esta es analizada en tiempo real por un software que determina las intenciones del usuario y las traduce en comandos de la aplicación, proporcionando una realimentación visual o auditiva. En concreto, los sistemas BCI basados en potenciales relacionados con eventos (event related potentials, ERP) utilizan el llamado paradigma oddball. Este paradigma presenta una matriz de comandos, cuyas filas y columnas se iluminan de manera secuencial. Para seleccionar un comando, el usuario debe mirar a fijamente a la celda correspondiente de la matriz. Los estímulos visuales, percibidos con la región central de su campo visual, provocan un ERP en la señal de EEG. Posteriormente, el sistema determina el comando que quiere seleccionar el usuario mediante la detección de estos ERP. Actualmente, una de las mayores limitaciones de los sistemas BCI basados en ERP es que son inherentemente síncronos. La aplicación selecciona un comando después de un número predefinido de iluminaciones, aunque el usuario no esté atendiendo a los estímulos. Esta limitación restringe el uso de estos sistemas en la vida real, donde los usuarios deberían poder dejar de prestar atención a la aplicación para realizar otras tareas sin que se seleccionen comandos indeseados. Esta característica es especialmente importante en aplicaciones BCI enfocadas al aumento de la calidad de vida de personas con grave discapacidad, como navegadores web o sistemas de control de sillas de ruedas. Para resolver esta limitación, es necesario añadir al sistema un método que detecte en tiempo real si el usuario realmente quiere seleccionar un comando. En este estudio presentamos un novedoso método de asincronía para detectar en tiempo real el estado de control del usuario en los sistemas BCI basados en EPR. Con este objetivo, el sistema detecta los potenciales evocados visuales de estado estable (steady-state visual evoked potentials, SSVEP) provocados por los estímulos periféricos del paradigma oddball. Estas ondas son la respuesta oscilatoria que aparece en la señal de EEG cuando se recibe una estimulación repetitiva a una frecuencia constante. Las iluminaciones periféricas del paradigma oddball provocan un SSVEP a la frecuencia de estimulación, que aparece únicamente cuando el usuario está mirando a la matriz. Por tanto, la detección de esta componente permite determinar si el usuario quiere seleccionar un comando o no. El método propuesto ha sido validado de manera offline con 5 sujetos sanos, alcanzando una precisión media en la detección del estado de control del usuario del 99.7% con 15 secuencias de estimulación. Estos resultados sugieren que esta metodología permite un control asíncrono fiable del sistema BCI, lo que es de gran utilidad en aplicaciones para la mejora de la calidad de las personas con grave discapacidad.
[-]
[EN] Synchronicity is an inherent feature of brain–computer interface (BCI)
spellers based on event related potentials (ERPs). These systems always
make a selection, even when users are engaged in another task. ...[+]
[EN] Synchronicity is an inherent feature of brain–computer interface (BCI)
spellers based on event related potentials (ERPs). These systems always
make a selection, even when users are engaged in another task. This
represents a great limitation in real-life applications, such as wheelchair
control or web browsers, in which an asynchronous control should be a key
feature. The aim of this study is to design, develop and test a novel algorithm
to discriminate whether the user wants to select a command or is not
attending the stimuli. In order to achieve such asynchronous control, our
method detects the steady-state visual evoked potentials provoked by nontarget stimuli of ERP-based spellers. The proposed method was validated
with offline data from 5 healthy subjects, achieving an average accuracy of
99.7%. Our approach is independent of the ERP classification stage, which
reduces inter-session variability. Furthermore, to the best of our knowledge,
it is the first algorithm for asynchronous control that does not need to extend
the duration of the calibration sessions.
[-]
|
Agradecimientos:
|
Este estudio ha sido financiado por el proyecto DPI2017-84280-R del Ministerio de
Ciencia, Innovación y Universidades y FEDER y el proyecto “Análisis y correlación entre
el genoma completo y la actividad cerebral para ...[+]
Este estudio ha sido financiado por el proyecto DPI2017-84280-R del Ministerio de
Ciencia, Innovación y Universidades y FEDER y el proyecto “Análisis y correlación entre
el genoma completo y la actividad cerebral para la ayuda en el diagnóstico de la
enfermedad de Alzheimer” (Programa Operativo de Cooperación Transfronteriza España-Portugal, POCTEP, 2014-2020) de la Comisión Europea y FEDER. Eduardo Santamaría Vázquez es beneficiario de una ayuda de Personal Investigador en Formación (PIF)
financiada por la Consejería de Educación de la Junta de Castilla y León y el Fondo Social
Europeo. Víctor Martínez-Cagigal es beneficiario de una ayuda PIF-UVa de la Universidad
de Valladolid.
[-]
|