LA COMPUTACIÓN AFECTIVA:
EMOCIONES, TECNOLOGÍAS Y SU
RELACIÓN CON LA EDUCACIÓN VIRTUAL
AFFECTIVE COMPUTING: EMOTIONS,
TECHNOLOGIES AND THEIR RELATIONSHIP WITH VIRTUAL EDUCATION
Bosquez Barcenes Victor1-2, Sanz Cecilia
2, Baldassarri Sandra3, Ribadeneira Ramos Edgar1, Valencia Mendoza Gina1, Barragan Merino Rocio1, Camacho-Castillo Ángel4; Shauri-Romero José4, Camacho-Castillo Luis5.
(1)Universidad Estatal de Bolívar, Av Ernesto Che Guevara y Gabriel Secaira,
Guaranda, Bolívar, Ecuador, abosquez@ueb. edu.ec
(2)Universidad Nacional de la Plata, Facultad de
Informática, Calle 50 &, Calle
120, La Plata, Buenos Aires, Argentina.
(3) Universidad de Zaragoza, Departamento de Informática e Ingeniería de Sistemas,
Grupo de Informática Gráfica
Avanzada (GIGA), C/ María de Luna
nº 1, 50018 - Zaragoza
(4) Instituto Superior Tecnológico Japón, Calle Cuenca y Galapagos, Santo Domingo,
Santo Domingo de los Tsachilas,
Ecuador.
(5)Universidad Técnica
Estatal de Quevedo, Vía el Empalme KM 7. Campus La MaríaQuevedo, Los Rios,
Ecuador.
Resumen: Las emociones desempeñan un papel
muy importante en la adquisición, procesamiento
de información y en el aprendizaje de las personas;
en consecuencia, dentro de la inteligencia artificial, en los
últimos años se ha visto un crecimiento
vinculado a las investigaciones sobre
el reconocimiento de las emociones
como parte del área de la computación afectiva.
En este sentido
la presente investigación
busca realizar una síntesis de la
evolución de la computación afectiva,
sus técnicas de reconocimiento,
los medios para reconocer
emociones y su relación
directa con
la educación, en particular las
tecnologías adyacentes a la educación e-learning así como tendencias de investigación
que se están abordando en torno al
aprendizaje personalizado.
Palabras Clave: Computación afectiva, medios para
detectar emociones, tecnologías de reconocimiento
de emociones, aprendizaje
personalizado.
Abstract: Emotions
play a very important role in the
acquisition, information processing
and learning of people, consequently, within artificial intelligence, in recent years growth has been linked to research
on the recognition of emotions as part of the
area of affective
computing. In this sense, the present
research seeks to synthesize the evolution of affective computing,
its recognition techniques, the
means to recognize emotions and its direct relationship with education, in particular the technologies adjacent to e-learning education as well
as trends of research that are being addressed around
personalized learning.
Keywords: Affective computing,
means
to
detect
emotions,
emotions
recognition technologies,
personalized learning.
I. INTRODUCCIÓN
Durante muchos
años,
las
investigaciones
científicas sobre el comportamiento del ser humano
han dedicado mucho esfuerzo a
estudiar la parte racional del mismo, dejando en segundo plano las
emociones, sin embargo, cada vez se conoce la influencia que las emociones
tienen sobre los procesos
Recibido: 15 de abril de 2018
Aceptado:
3 de junio de 2018
Publicado como artículo científco en
Revista de Investigación Talentos V(1) 95-104
de pensamiento racional, estas influyen
de manera directa sobre el aprendizaje, la toma de decisiones y muchos
otros procesos de racionalidad que el ser humano genera.
En este sentido
se está investigando
a profundidad la influencia de las emociones sobre el aprendizaje, y es ahí cuando toma
fuerza el término Computación Afectiva acuñado por
primera vez gracias a la Dra. Rosalind Picard del MIT, en su libro “Affective
Computing”, en el mismo que menciona la necesidad de tomar en cuenta los estados emocionales de los usuarios
a la hora de desarrollar software.
A partir de ahí, se viene investigando mucho sobre cómo
desarrollar tecnología y dispositivos capaces de reconocer, interpretar y simular las emociones
humanas, con la única finalidad
de diseñar tecnología que simule y realice
las funciones propias de un maestro, brindando
al estudiante un entorno personalizado y adaptado a sus necesidades cognitivas y emocionales.
II. DESARROLLO
“Todo aprendizaje tiene una
base emocional” Platón.
Dentro de la literatura en torno a la emoción y el aprendizaje muchos autores
determinan la relación directa que existe entre estos
factores y como la emoción puede aumentar o inhibir el aprendizaje en los seres humanos
(Picard, 2000) (Picard,
2003) (Graesser, Chipman,
King, McDaniel, &
D’Mello,
2007) (D’Mello,
Lehman,
Pekrun,
&
Graesser,
2014) (Hernández-Sánchez & Ortega-Maldonado,
2015), por lo que las emociones pueden
mejorar la percepción, la toma de decisiones influyen en los propios mecanismos del pensamiento racional. En esta misma
línea se puede describir al aprendizaje como el acto de adquirir conocimientos,
comportamientos, aptitudes, normas o preferencias sociales. (Picard,
R, 2004) y (McDuff, Karlson,
Kapoor, Roseway, & Czerwinski, 2012) mencionan que
cada vez hay más conciencia que dentro del proceso de enseñanza aprendizaje se
debe de integrar eficazmente factores
cognitivos y emocionales para
que el mismo sea más eficiente.
En los seres humanos la emoción juega un papel trascendental en su aprendizaje, ya que la motivación
mejora en gran medida los niveles de atención, percepción, adquisición de conocimientos, además de poseer un papel esencial
en la toma de decisiones (Picard, 2000; Kort & Reilly, 2002; Bachiller, Hernández, & Sastre, 2010). Es así, que dentro de los
procesos de enseñanza y aprendizaje una gran gama de emociones
ocurre naturalmente, desde las positivas como alegría, y satisfacción por motivo de algún éxito, las emociones
negativas: frustración, tristeza confusión, que en particular se pueden dar a consecuencia de
un fracaso. Por otra parte, se sabe que estos estados emocionales positivos o
negativos desencadenan diferentes tipos de pensamientos y podrían tener
importantes repercusiones negativas o positivas desde la perspectiva educativa de los estudiantes (VanLehn, et al.,
2003; D’Mello & Graesser, 2011)
En este sentido (Baker,
Mercedes, Rodrigo, & Xolocotzin, 2007; D’Mello & Graesser, 2011)
mencionan que cuando
un
estudiante está aprendiendo o aplicando sus
conocimientos en la resolución de problemas pasa por algunos estados emocionales como
confusión, frustración, aburrimiento, compromiso. Además las emociones negativas consideradas
poco propicias para el aprendizaje (Sabourin, Rowe, Mott, & Lester,
2013), pueden por
el contrario tener efectos
positivos, por ejemplo
es probable que los estudiantes enfrenten confusión,
frustración cuando aprenden temas difíciles, los cuales se pueden superar con
gran esfuerzo mediante el razonamiento, resolución de problemas y reflexión,
lo que conlleva a aprendizajes efectivos, y generan la sensación de “saber” que mejora
la confianza del estudiante. Sin embargo, si estos problemas
no son resueltos pueden pasar
de la confusión a la
frustración y su posterior deserción (D’Mello, Lehman, Pekrun, & Graesser, 2014; Bradbury, Taub, & Azevedo, 2017).
Las Tecnologías de la Información y Comunicación
(TICs) y su vertiginoso crecimiento de tecnologías
adyacentes como: redes sociales y académicas, espacios colaborativos,
intercambio de comunidades, acceso o
información en tiempo real y más, han impactado de tal
manera en los procesos educativos, que se observa cambios trascendentales en su
quehacer académico, transformando
paradigmas establecidos y dando lugar a la hibridación de las
modalidades educativas. En este sentido ha surgido modalidades
de aprendizaje como e-learning,
b-learning y m-learning, caracterizadas por
tener un alto nivel
de mediación tecnológica (Zangara, 2014). A
partir de estas modalidades se busca que los
estudiantes se conviertan en el centro del proceso del aprendizaje, pasando de
ser un sujeto pasivo y receptor de información, a un sujeto activo capaz de
procesar información, analizar críticamente y aplicarla en la solución
de distintas problemáticas. Estas modalidades se han
extendido y fortalecido con el uso de
los EVEAs como mediadores tecnológicos, que por
lo general son
los facilitadores de ricos
espacios de comunicación entre docentes, estudiantes y recursos educativos
(Bureš, 2006).
Un tema muy controvertido y discutido es la alta tasa de deserción que existe en estas
modalidades por parte de los estudiantes (Arbaugh, & Duray,
2002) (Atiaja, 2016), por lo que se busca entender o determinar cuáles son los factores que inciden
en esta
problemática encontrada en
estudiantes que usan EVEAs y participan en cursos con modalidades híbridas.
Dentro
de
ellas,
las
más
destacables podrían ser:
diferencias en estilos de
aprendizaje, necesidades propias de cada
estudiante, aplicación de diseños instruccionales inadecuados, falta
de capacidades por
parte del estudiante en autorregular su aprendizaje (Berrocoso, 2014) y, un aspecto muy importante, es que estas tecnologías
proponen ambientes desafiantes que pueden
desorientar o desanimar a muchos estudiantes (Haggard,
2013). También los
estudiantes se sienten lejos de sus docentes y compañeros y no logran expresar sus emociones
y barreras encontradas a lo largo del curso. Desde este panorama no muy alentador, surge
una pregunta: ¿qué hacer para brindar entornos más personalizables a las
necesidades emocionales del usuario que generen retroalimentación adecuada?
En este sentido es necesario investigar
sobre
el desarrollo de tecnología que brinde a los estudiantes un entorno cada vez
más amigables y adaptado a las necesidades propias
de cada uno de
ellos.
Aprendizaje
personalizado y tendencias de investigación
Dentro de la literatura cuando se habla de aprendizaje personalizado en modalidades
híbridas, con mediación a través de tecnologías digitales, se han encontrado tres grandes tendencias en investigación: sistemas
educativos adaptativos, tutores inteligentes (agentes) y estrategias que
combinan estos enfoques. Se describen brevemente aquí para dar cuenta de las
investigaciones ya realizadas.
En cuanto a tutores inteligentes se pueden mencionar investigaciones
como las de (Schiaffino, Garcia, & Amandi, 2008), en la que
se generó un agente inteligente que proporciona asistencia personalizada a los
estudiantes en modalidades de e-learning, eTeacher observa
el comportamiento de
un estudiante mientras están trabajando en un curso en línea y
construye automáticamente el perfil del
mismo, que comprende su estilo
de aprendizaje e información sobre su desempeño, sugiriéndole, por ejemplo,
cursos de acción personalizados. Otros autores como (Grawemeyer
et al., 2017)
desarrollaron un sistema para mejorar
el compromiso y el aprendizaje
mediante retroalimentación formativa basados
en los estados emocionales del estudiante,
denominado iTalk2Learn. Esta investigación se focalizó en abordar
preguntas como: ¿cuándo se debe dar retroalimentación?, ¿qué debe contener la retroalimentación y cómo se la debe de dar?
Se orientó a niños de 8 a 12 años, los estados emocionales se obtuvieron a través de la interacción del sistema con el usuario
mediante el diálogo en voz alta a través de un micrófono.
Por otro lado, en cuanto a sistemas que combinan los dos enfoques se
encuentra el trabajo de (Chao, Lin, Lin, & Tseng, 2012): un sistema de tutoría afectiva (ATS) utilizando la emoción y técnicas
de reconocimiento para mejorar la interfaz afectiva, con el objetivo
de mejorar el interés en el
aprendizaje. Siguiendo esta perspectiva, (Weber & Brusilovsky, 2016) presentan
un sistema educativo inteligente basado
en
la
web
denominado tutor inteligente e
hipermedia adaptativa. Una investigación en la línea de t-learning es la desarrollada por (Baldassarri, Hupont, Abadía, &
Cerezo, 2015) generando un sistema
interactivo de televisión digital, que hace uso de la detección facial de emociones para dar información al tutor acerca del estado emocional de los estudiantes al realizar
determinados ejercicios o tareas.
Las ideas e investigaciones
expuestas, permiten vislumbrar que la
asistencia y retroalimentación por parte
de agentes pedagógicos virtuales, favorece
los
aprendizajes autorregulados y
complejos por parte de los estudiantes (Azevedo et al.,
2016) (Mudrick, Rowe, Taub,
Lester, & Azevedo, 2017), aunque su eficiencia depende
de rastrear, modelar, y fomentar una
retroalimentación inteligente y precisa (Kim & Baylor, 2016). En este sentido se observa el
gran potencial que estos sistemas afectivos pueden
brindar a la educación personalizada.
Medios para
detectar emociones
Se han realizado muchos esfuerzos para reconocer
las emociones haciendo
uso de diferentes medios como expresiones faciales,
señales de habla, fisiológicas como
excitación automática,
pulsaciones, presión sanguínea, resistencia
de
la piel,
algunas actividades de
electromiografía y postura (Shen, Wang, & Shen, 2009), con la finalidad de interpretar estas emociones
para múltiples fines, entre ellos la educación,
salud, seguridad y más. En la
actualidad, se han dado cuenta de buenos resultados en la
detección de emociones cuando se realiza de forma multimodal, es decir, combinando dos o más medios como se comenta a continuación.
Reconocimiento
facial
El rostro es uno de los más ricos canales de expresión, el cual comunica
emociones y señales sociales. Dentro de la literatura se suelen utilizar dos modelos que describen, explican y clasifican
las expresiones faciales y sus emociones, por un lado, el modelo categórico y por el otro, el modelo
continuo o dimensional, el primero
usa etiquetas o clasificadores para establecer la emoción dentro de
categorías específicas como alegría, ira, sorpresa,
miedo, disgusto y tristeza (Ekman & Rosenberg,
2005),
el segundo en cambio explica cómo las emociones pueden ser vistas
en un espacio continuo
en el cual se pueden
representar infinidad de puntos e intensidades como lo mencionan
(Russell, 1980;
Posner, Russell, & Peterson, 2005).
En cuanto al modelo categórico, una de las primeras investigaciones
realizadas fue el Sistema de Codificación de Acción Facial (FACS) creados
por (Ekman & Friesen, 1978), que se ha convertido en la taxonomía más objetiva y
ampliamente utilizada para muchas investigaciones que buscan desarrollar algoritmos y tecnología que detecta las emociones básicas en tiempo
real con distinto
nivel de precisión, como las realizadas por (Lin, 2006; Anderson &
McOwan, 2006; Happy, George, & Routray, 2012).
En este sentido podría considerarse que el reconocimiento facial
puede ser un gran aliado
a la hora de desarrollar tecnología para un EVEA, ya
que el estudiante va a estar siempre en frente del PC, usualmente con una cámara, por lo que este medio
puede brindar información de gran calidad para detectar el estado emocional del
mismo combinado con otras estrategias.
Hay que mencionar que dentro de los EVEAs existen algunos inconvenientes
que hacen que el reconocimiento facial en ambientes reales como hogares, oficinas
y otros sean susceptibles a fallos,
debido a: ubicación de la cámara, iluminación insuficientes o desigual en el rostros,
movimientos bruscos del usuario que hagan que salga del umbral de
la cámara, calidad
en la resolución de la cámara (Landowska,
Brodny, & Wrobel,
2017), es así
que una alternativa
a solucionar esta problemática es combinarlo con otro medio no intrusivo para corroborar los
datos obtenidos mediante reconocimiento facial.
Reconocimiento
vocal
(Ringeval et
al.,
2015)
exponen que
el
reconocimiento de las emociones por medio del
habla juega un papel importante en la interacción persona - ordenador, contribuyendo de manera significativa en su interacción, permitiendo que los algoritmos
detecten emociones como ira, estrés, o nivel de frustración. Una de las técnica
desarrollada por (Chen, Mao, Xue,
&
Cheng,
2012) proponen un modelo para clasificar las seis emociones básicas
en el habla, utilizando la tasa
de Fisher. Asimismo, algunos estudios
indagaron sobre la combinación de características acústicas y características lingüísticas
(lenguaje y discurso) para mejorar el rendimiento del reconocimiento
de las emociones a través de la voz (Schuller,
Villar, Rigoll, & Lang, 2005; Bjorn Schuller
et al.,
2015;
Kim, Hyun, Kim, & Kwak, 2009). Es así que
este medio, podría
ser implementado mediante tecnologías que
busquen obtener emociones
de los estudiantes dentro de un EVEA
de manera no intrusiva.
Reconocimiento mediante
señales fisiológicas
Numerosos hallazgos en psicofisiología
sugieren que la activación del sistema nervioso autónomo cambia cuando
se producen emociones,
por este motivo una técnica muy utilizada es la
electroencefalografía (EEG), que
proporciona una prueba invisible de la activación o excitación afectiva (Mauss & Robinson,
2009; Savran et al.,
2006). Las señales fisiológicas pueden obtenerse a
través de diferentes dispositivos y
sensorizando diferentes partes del cuerpo, como: la respuesta galvánica de la piel (Chanel, Ansari-Asl, & Pun,
2007),
la electromiografía (Haag, Goronzy,
Schaich, & Williams, 2004),
el volumen sanguíneo (Caciopo, Berntson, Larsen, Poehlmann, &
Ito,
2000),
la temperatura de la piel (Levenson, 2003), el electrocardiograma (Mallan &
Lipp, 2007) o la frecuencia respiratoria (Haag
et al., 2004).
Muchas investigaciones han utilizado estos medios para reconocer las
emociones en base a sus respuestas conductuales y fisiológicas, ya que los datos que
se extraen son muy fiables. Esta situación ha
conllevado múltiples trabajos,
como EmoRate que reconoce la emoción en tiempo real de un usuario mientras ve una película (Sourina & Liu,
2015), o, por su parte (Brown, Grundlehner, & Penders, 2011)
diseñaron un sistema inalámbrico de
monitoreo mediante señales
EEG que mide la valencia emocional del usuario,
aunque en el campo práctico implementar esta tecnología en un EVEA
es muy complejo, ya que como idea fundamental se busca detectar
emociones en los estudiantes de manera
no intrusiva, además
de que los dispositivos hardware son muy específicos
como para encontrarlos en los hogares de estudiantes.
Reconocimiento
multimodal
Hace algún tiempo muchas investigaciones han incorporado el reconocimiento de las emociones de manera multimodal, combinando reconocimiento visual, auditivo, fisiológico y otros (D’mello
& Kory, 2015). A continuación, se dan a conocer
algunas de las modalidades que se podrían implementar para reconocer emociones
de manera no intrusiva dentro
del uso de un EVEA.
La mayor parte de las investigaciones han combinado los
medios facial y auditivo,
como los casos de (Chen & Huang, 2000; Zhang et al.,
2014), esta combinación audiovisual ha generado datos más fiables
que solo realizarlos de manera unimodal, solucionando problemas
como en la detección del rostro
que es sensible ante un movimiento brusco de la cabeza o factores como
iluminación, en el
reconocimiento del habla se
ve afectado por ruido del entorno, es así que la fusión de estos medios brinda
información complementaria con mejores resultados (Zeng, Pantic, Roisman, &
Huang, 2009).
Otros autores
como
(Castellano,
Kessous,
&
Caridakis, 2008) extraen
ocho emociones mediante la combinación de reconocimiento facial, postura del cuerpo y la voz, extrayendo una serie de
características de cada modalidad y combinándolas
en un vector de características para la obtención de resultados con un 10% de
mejora que hacerlo de forma unimodal.
En esta misma línea (Gunes
& Piccardi,
2009) o (Barros, Jirak, Weber, & Wermter,
2015) combinan el
reconocimiento facial y de la postura
del corporal, con resultados mayores
a la obtención de información de manera unimodal.
(Tsihrintzis et al., 2008; Epp, Lippold, & Mandryk,
2011;
Nahin, Alam, Mahmud,
& Hasan, 2014; Rajput
& Vijayavargiya, 2015) buscaron
mejorar el reconocimiento de las emociones mediante el uso de
información complementaria por
medio del teclado, en base al análisis de patrones mecanográficos y el tipo de textos escritos. En este
sentido (Khanna, Sasikumar, &
Mumbai, 2010) encontraron que la velocidad con la que se escribe disminuye cuando las personas
están en estado emocional negativo como la tristeza,
por otra parte (Khan, Brinkman,
& Hierons, 2013)
realizaron una investigación empírica en dos estudios concluyendo que es
posible determinar el estado del ánimo de los usuarios
mediante la interacción con el teclado y el ratón.
Autores como (Rajput
&
Vijayavargiya, 2015) analizaron el patrón de escritura del individuo, estableciendo
un estado mental y en base a ese análisis obtienen el estado emocional del
usuario.
De igual manera, existe otro campo de investigación dedicado al análisis
de sentimientos basado en estudio
de las opiniones y emociones que se transmiten por texto (Ebert, 2017). Aunque normalmente se lo aplica
para efectos comerciales, podría ser utilizado dentro
del campo educativo, ya que muchos estudiantes dejan sus comentarios
y opiniones en foros, blogs y más elementos que contienen los EVEAs, al
respecto se ha realizado algunas tentativas por aplicarlas en el campo
educativo tal es el caso de (Rani & Kumar,
2017; Barrón-Estrada, Zatarain-Cabada,
Oramas- Bustillos, & González-Hernández, 2017), con la
finalidad de determinar los criterios y emociones
que muestran los estudiantes en torno a la calidad de un curso, sus
expectativas, las experiencias de aprendizaje y más.
Software para el
reconocimiento de emociones
Durante estos últimos años las investigaciones y avances en herramientas
para el reconocimiento automático de emociones ha sido impresionante,
desarrollándose múltiples sistemas reconocedores (Calvo & D’Mello, 2010;
D’mello & Kory, 2015). A
continuación, se detallan algunos de ellos.
Empresas como (IMOTIONS Inc, 2016) ponen a
disposición una serie
de aplicaciones a nivel
de software y de hardware
para la detección de emociones
como: análisis de expresiones faciales, registro visual,
EEG, GSR, y
más. Empresas como AFECTIVA ponen
a disposición AFFDEX
(SDK) (Mcduff et al., 2016), que es un kit de
herramientas de reconocimiento de emociones en tiempo real, que puede codificar automáticamente las expresiones de varias personas, está disponible
para las plataformas móviles y de escritorio más populares, reconoce las 6
emociones básicas establecidas por (Ekman & Friesen, 1978). Tambien empresas como (EYERIS, 2016)
desarrollan soluciones de reconocimiento facial en
cuanto a las seis emociones básicas, más la neutral
con su software denominado Emovu, la empresa
Noldus con su software FaceReader (Noldus Inc,
2016), cada una de estas tecnologías cuenta con
una API para
incorporarse en software de terceros.
III. CONCLUSIONES
Es
evidente que las
emociones desempeñan un papel muy
importante en el aprendizaje, la percepción, la toma de decisiones y muchos
otros procesos que anteriormente se creían propiamente racionales, hoy
se conoce que
la cognición es influenciada de manera significativa por la
emoción, en este sentido se da la
necesidad de profundizar más sobre el entendimiento del papel de las emociones
en el proceso de enseñanza y aprendizaje.
El manejo de las emociones puede ser un
vehículo increíble para
potenciar o
inhibir el aprendizaje, por lo que es
imprescindible profundizar aún más
el conocimiento en
torno a las emociones
humanas, y su
papel sobre el aprendizaje, debido a que paradigmas establecidos se vienen desechando, entre
estos que las
emociones negativas tales como confusión, frustración, aburrimiento no
necesariamente afectan el aprendizaje, es decir un estudiante cuando realiza
procesos de aprendizaje complejo probablemente va a sentir esas emociones que
con esfuerzo lo superará llevándolo a aprendizajes efectivos, por tanto es
necesario ahondar acerca de cuáles son beneficiosas para el aprendizaje y cuáles no.
Pese a que cada vez se va logrando
mejores resultados en el reconocimiento de las emociones humanas, todavía
existen serios inconvenientes en que las investigaciones salgan del laboratorio y puedan incorporarse en
entornos reales como hogares y centros
de estudio, entornos
virtuales de enseñanza y
aprendizaje, MOOCS, priorizando el uso de medios no intrusivos.
Uno de los retos de la computación afectiva en torno a la educación, es acortar la brecha de
comunicación entre las personas y los sistemas informáticos, plataformas de
enseñanza y aprendizaje y brindar
una forma de interacción
basados en el lenguaje no verbal; por otro lado, mejorar la capacidad a estos sistemas
de modificar su comportamiento
que promueva empatía con el estudiante, logrando con esto la personalización
del aprendizaje y adaptarse a las capacidades
propias de cada usuario.
El vertiginoso crecimiento de las TICs,
así como el auge
de nuevas modalidades de aprendizaje como e-learning, b-learning y
m-learning, MOOCS, hay brindado la oportunidad de que el aprendizaje se masifique a través
de la web de forma
democrática a usuarios ávidos
de conocimiento, esta oportunidad
de aprendizaje es un desafío constante para estas tecnologías y modalidades de aprendizaje debido a
que existen muchos detractores que ponen en tela de duda la aceptación,
credibilidad, calidad, evaluación, los resultados de aprendizaje, es ahí donde la computación afectiva
toma mucha fuerza debido a que un objetivo de la
misma es brindar entornos personalizados y empáticos acordes con las
necesidades y capacidades propias de cada estudiante dejando de lado métodos
generalistas, expositivos y conductistas muy utilizados en la actualidad y que
no han logrado los resultados esperados.
IV.BIBLIOGRAFÍA
Anderson, K., & McOwan,
P. W. (2006). A real- time automated
system for the recognition
of human facial expressions. Systems,
Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions On, 36(1),
96–105. https://doi. org/10.1109/TSMCB.2005.854502
Arbaugh, J. B., & Duray, R. (2002). Managing
the on-line classroom: a study of technological and behavioral
characteristics of web-based MBA courses. Journal of High Technology Management Research, 13, 203–223.
Atiaja, A. (2016). Los MOOCs
: evolución
,
problemas y perspectivas hasta el 2015, 5(3),
105–123.
Azevedo, R., Martin, S. A., Taub, M., Mudrick,
N.
V,
Millar, G. C., & Grafsgaard, J. F. (2016). Are Pedagogical Agents’ External Regulation Effective in Fostering Learning with Intelligent Tutoring Systems?
In A. Micarelli, J. Stamper, &
K. Panourgia (Eds.), Intelligent Tutoring Systems: 13th International Conference, ITS 2016, Zagreb, Croatia, June 7-10, 2016. Proceedings (pp.
197–207). Cham:
Springer International
Publishing. https://doi.org/10.1007/978-3-
319-39583-8_19
Bachiller, C., Hernández, C., & Sastre, J. (2010).
Collaborative
Learning , Research and Science Promotion in a Multidisciplinary Scenario : Information and Communications Technology and Music. Engineering Education, 1–8.
Baker, R. S. J. D., Mercedes,
M., Rodrigo, T., &
Xolocotzin, U. E. (2007). The Dynamics of
Affective Transitions in Simulation
Problem- Solving Environments. Lncs, 4738, 666–677. https://doi.org/10.1007/978-3-540-74889-
2_58
Baldassarri, S., Hupont, I., Abadía,
D., & Cerezo, E. (2015). Affective-aware
tutoring platform for interactive
digital television. Multimedia Tools
and Applications, 74(9), 3183–3206. https://doi.org/10.1007/s11042-013-1779-z
Barrón-Estrada, M.
L., Zatarain-Cabada, R., Oramas-Bustillos, R.,
&
González- Hernández, F. (2017). Sentiment Analysis in
an Affective Intelligent Tutoring System. International Conference
on
Advanced Learning Technologies. https://doi. org/10.1109/ICALT.2017.137
Barros, P., Jirak, D., Weber,
C.,
&
Wermter,
S. (2015). Multimodal emotional state recognition using
sequence-dependent deep hierarchical features. Retrieved from https:// ac.els-cdn.com/S0893608015001847/1- s2.0-S0893608015001847-main.pdf?_ tid=1cb05188-b92a-11e7-9dfa-00000aacb36
2&acdnat=1508897798_4141fafbdeaf2e457f fe1a2c91b57208
Berrocoso, V. (2014). Redalyc.MOOCS: Una visión crítica desde las ciencias de la educación, 18.
Bradbury, A. E., Taub, M., & Azevedo,
R. (2017).
The Effects of Autonomy on
Emotions and Learning in
Game-Based Learning
Environments. Cognitive Science, 1666–
1671.
Brown, L., Grundlehner, B., & Penders, J. (2011).
Towards wireless emotional valence detection
from EEG, 2188–2191.
Bureš, V. (2006). Communication Problems in a Virtual Environment. In University of Hradec
Kralove (Ed.), Rokitanskeho (pp. 2004–
2006). Czech Republic.
Caciopo, J., Berntson, G., Larsen,
J., Poehlmann, K., & Ito,
T.
(2000). The Ppsychophysiology
of Emotion. In The Handbook of emotion (pp.
173–191).
Calvo,
R. A., & D’Mello,
S. (2010). Affect
detection: An interdisciplinary review of
models, methods, and their
applications. IEEE Transactions on Affective Computing,
1(1), 18–37.
https://doi.org/10.1109/T-
AFFC.2010.1
Castellano, G., Kessous, L., &
Caridakis, G. (2008). Emotion Recognition through Multiple Modalities: Face, Body
Gesture, Speech. In C.
Peter & R.
Beale (Eds.), Affect and Emotion in Human-Computer
Interaction: From Theory to Applications (pp.
92–103). Berlin, Heidelberg: Springer Berlin
Heidelberg.
https://doi.org/10.1007/978-3-
540-85099-1_8
Chanel, G., Ansari-Asl, K., & Pun, T.
(2007).
Valence-arousal evaluation using physiological
signals in an emotion recall paradigm. Conference Proceedings
- IEEE International Conference
on Systems, Man
and Cybernetics, (December), 2662–2667. https:// doi.org/10.1109/ICSMC.2007.4413638
Chao, C. J., Lin, H. C. K., Lin, J. W., & Tseng, Y.
C. (2012).
An affective learning interface
with an interactive animated
agent. Proceedings
2012 4th IEEE International Conference on Digital Game and Intelligent Toy Enhanced Learning, DIGITEL 2012, 221–225. https://
doi.org/10.1109/DIGITEL.2012.60
Chen, L., Mao, X., Xue,
Y., & Cheng, L. L.
(2012). Speech emotion recognition: Features and
classification models. Digital
Signal Processing: A Review
Journal,
22(6), 1154–1160.
https://doi.org/10.1016/j.
dsp.2012.05.007
Chen, L. S., & Huang,
T. S. (2000). Emotional
expressions
in audiovisual human computer interaction. Multimedia
and Expo, 2000. ICME 2000. 2000 IEEE International Conference On, 1(2),
423–426 vol.1. https:// doi.org/10.1109/ICME.2000.869630
D’Mello, S., & Graesser, A. (2011). The half-life of cognitive-affective states during complex learning. Cognition and
Emotion, 25(7),
1299–1308. https://doi.org/10.1080/0269993
1.2011.613668
D’mello, S. K.,
& Kory, J. (2015). A Review and Meta-Analysis of Multimodal Affect Detection Systems.
ACM Computing Surveys,
47(3), 1–36. https://doi.org/10.1145/2682899
D’Mello, S., Lehman, B., Pekrun, R.,
& Graesser, A. (2014).
Confusion can be
beneficial for learning. Learning and
Instruction,
29, 153–170.
https://doi.org/10.1016/j.
learninstruc.2012.05.003
Ebert, S. (2017). ARTIFICIAL NEURAL NETWORK METHODS APPLIED TO
SENTIMENT ANALYSIS.
Ekman,
P., & Friesen, W. (1978). Facial
Action Coding System: A
technique for
the measurement of facial
movements. Consulting Psychologist. Palo Alto (CA).
Ekman, & Rosenberg,
E. (2005). What the Face Reveals: Basic and
Applied Studies of Spontaneous Expression Using the Facial Action Coding System (FACS) (2nd editio). New York.
Epp, C., Lippold,
M., & Mandryk,
R. L. (2011).
Identifying
emotional states using keystroke dynamics. Proceedings of the 2011
Annual Conference on Human Factors
in Computing Systems - CHI ’11, 715–724. https://doi. org/10.1145/1978942.1979046
EYERIS. (2016). EmoVu. Retrieved from http://
emovu.com/e/
Graesser, A., Chipman, P., King,
B., McDaniel, B., &
D’Mello, S. K. (2007). Emotions and
Learning with Auto Tutor. Frontiers in Artificial Intelligence and Applications, 158,
569.
Grawemeyer, B., Mavrikis,
M., Holmes, W., Gutiérrez-Santos, S., Wiedmann, M., &
Rummel, N. (2017). Affective
learning: improving engagement and
enhancing learning with
affect-aware feedback. User
Modeling and User-Adapted Interaction,
27(1), 119–158.
https://doi.org/10.1007/
s11257-017-9188-z
Gunes, H., & Piccardi,
M. (2009). Automatic temporal segment
detection and
affect recognition from
face and body
display. IEEE Transactions on
Systems, Man, and Cybernetics, Part B:
Cybernetics,
39(1), 64–84.
https://doi.org/10.1109/ TSMCB.2008.927269
Haag, A., Goronzy, S., Schaich, P., & Williams, J. (2004). Emotion Recognition
Using Bio- sensors: First Steps
towards an Automatic System. Affective
Dialogue Systems, i, 36–48. https://doi.org/10.1007/978-3-540-24842-
2_4
Haggard, S. (2013). The Maturing of the MOOC.
BIS Research Paper 130, (130),
123. Retrieved from https://www.gov.uk/government/ uploads/system/uploads/attachment_data/ file/240193/13-1173-maturing-of-the-mooc. pdf
Happy, S. L., George, A., & Routray, A. (2012).
A
real time facial expression classification system using Local
Binary Patterns. 4th International Conference on Intelligent Human Computer
Interaction (IHCI), 1–5. https://doi.org/10.1109/IHCI.2012.6481802
Hernández-Sánchez, A. M., & Ortega-Maldonado,
A. (2015). Hacia
la
personalización
del
e-Learning: La afectividad y su
repercusión en el bienestar subjetivo. Revista
Lasallista de Investigacion, 12(2),
194–203.
IMOTIONS Inc. (2016). Emotient
Module_ Facial Expression Emotion
Analysis. Retrieved from https://imotions.com/emotient/
Khan, I. A., Brinkman, W. P., & Hierons,
R. (2013).
Towards
estimating computer users’ mood
from interaction behaviour
with keyboard and mouse. Frontiers of Computer
Science, 7(6),
943–954. https://doi.org/10.1007/s11704-
013-2331-z
Khanna, P.,
Sasikumar, M., &
Mumbai,
K.
N. (2010).
Recognising Emotions from Keyboard Stroke Pattern. International Journal of Computer Applications, 11(9),
975–8887. https://doi.org/10.5120/1614-
2170
Kim, E. H., Hyun, K. H., Kim, S. H., & Kwak, Y.
K. (2009). Improved emotion recognition with a novel speaker-independent feature. IEEE/ASME
Transactions on Mechatronics,
14(3), 317–325. https://doi.org/10.1109/
TMECH.2008.2008644
Kim, Y., & Baylor,
A. L.
(2016). Research-Based Design of Pedagogical
Agent Roles: A Review, Progress, and Recommendations. International Journal of Artificial Intelligence in Education, 26(1), 160–169. https://doi. org/10.1007/s40593-015-0055-y
Kort,
B., & Reilly, R. (2002). Analytical
Models of Emotions, Learning and Relationships: Towards an Affect-sensitive Cognitive Machine. Virtual
Worlds Simulation Conference, 1–15.
Landowska, A., Brodny,
G.,
& Wrobel,
M.
R.
(2017). Limitations of emotion recognition from facial expressions in
e-learning context. CSEDU 2017 - Proceedings of the
9th International Conference on Computer Supported Education, 2(Csedu), 383–389. https://doi.org/10.5220/0006357903830389
Levenson, R. W. (2003). Blood, Sweat, and Fears:
The Autonomic Architecture of Emotion. In Emotions inside out: 130 years after Darwin’s: The expression of the emotions in man and animals. (pp.
348–366). Levenson, Robert W.: Institute
of Personality and Social
Research, University of California,
Berkeley,
4143 Tolman Hall #5050, Berkeley, CA, US,
94720-5050,
boblev@socrates.berkeley.edu: New York Academy of Sciences.
Lin, D. (2006). Facial expression classification using PCA and
hierarchical radial basis function network. Journal of Information Science and Engineering,
1046(November
1999), 1033–1046. Retrieved from
http://