Resumen:
|
[ES] El objetivo del proyecto será realizar una comparativa entre dos posibles implementaciones
de interacción con la máquina, para mejorar la vida de personas con dependencia.
Para empezar, se propondrán dos posibles ...[+]
[ES] El objetivo del proyecto será realizar una comparativa entre dos posibles implementaciones
de interacción con la máquina, para mejorar la vida de personas con dependencia.
Para empezar, se propondrán dos posibles formas de interactuar; el control de dispositivos
IoT, que permiten interactuar con dispositivos que podrían encontrarse en una casa domotizada, y el uso de un communicador, que ofrece la capacidad al usuario de comunicarse
con otras personas de una manera sencilla.
Seguidamente, en cuanto a los elementos que habilitarán las posibles formas de interactuar anteriormente mencionadas, utilizaremos en primer lugar el dispositivo NextMind, el
cual nos permitirá controlar acciones gracias a nuestras ondas cerebrales. Por otra parte,
utilizaremos un algoritmo de machine learning que permitirá detectar cuando el usuario
levanta la mano y detectar una acción.
Finalmente, compararemos los modelos en usuarios finales, para comprobar los beneficios
de ambos estilos de interacción, y cuál de ellos ofrece mejores resultados
[-]
[EN] The project’s objective will be to compare two possible implementations of interaction with
the machine to improve the lives of people with dependence.
To begin with, we will find two possible aids, the control of ...[+]
[EN] The project’s objective will be to compare two possible implementations of interaction with
the machine to improve the lives of people with dependence.
To begin with, we will find two possible aids, the control of IoT devices, allowing us to
interact with devices that could be found in an automated house, or the use of a communicator, giving the user the ability to communicate with other people in a simple way.
Then, as for the interaction models with the previous options, we find first the NextMind
device, which will allow us to control actions thanks to our brain waves. On the other
hand, we will use a machine learning algorithm to capture when the user raises his hand
and, therefore, detects an action.
Finally, we will compare the models with final users to check which model gets better
results
[-]
|