LA COMPUTACIÓN AFECTIVA: EMOCIONES, TECNOLOGÍAS Y SU RELACIÓN CON LA EDUCACIÓN VIRTUAL

 

AFFECTIVE COMPUTING: EMOTIONS, TECHNOLOGIES AND THEIR RELATIONSHIP WITH VIRTUAL EDUCATION

 

Bosquez Barcenes Victor1-2, Sanz Cecilia 2, Baldassarri Sandra3, Ribadeneira Ramos Edgar1, Valencia Mendoza Gina1, Barragan Merino Rocio1, Camacho-Castillo Ángel4; Shauri-Romero José4, Camacho-Castillo Luis5.

 

(1)Universidad Estatal de Bolívar, Av Ernesto Che Guevara y Gabriel Secaira, Guaranda, Bolívar, Ecuador, abosquez@ueb. edu.ec

(2)Universidad Nacional de la Plata, Facultad de Informática, Calle 50 &, Calle 120, La Plata, Buenos Aires, Argentina.

(3)  Universidad de Zaragoza, Departamento de Informática e Ingeniería de Sistemas, Grupo de Informática Gráfica

Avanzada (GIGA), C/ María de Luna nº 1, 50018 - Zaragoza

(4)  Instituto Superior Tecnológico Japón, Calle Cuenca y Galapagos, Santo Domingo, Santo Domingo de los Tsachilas, Ecuador.

(5)Universidad Técnica Estatal de Quevedo, Vía el Empalme KM 7. Campus La MaríaQuevedo, Los Rios, Ecuador.

 

 

Resumen: Las emociones desempeñan un papel muy importante en la adquisición, procesamiento de información y en el aprendizaje de las personas; en consecuencia, dentro de la inteligencia artificial, en los últimos años se ha visto un crecimiento vinculado a las investigaciones sobre el reconocimiento de las emociones como parte del área de la computación afectiva. En este sentido la presente investigación busca realizar una síntesis de la evolución de la computación afectiva, sus técnicas de reconocimiento, los medios para reconocer emociones y su relación directa con la educación, en particular las tecnologías adyacentes a la educación e-learning así como tendencias de investigación que se están abordando en torno al aprendizaje personalizado.

 

 

Palabras Clave: Computación afectiva, medios para detectar emociones, tecnologías de reconocimiento de emociones, aprendizaje personalizado.

 

 

Abstract: Emotions play a very important role in the acquisition, information processing and learning of people, consequently, within artificial intelligence, in recent years growth has been linked to research on the recognition of emotions as part of the area of affective computing. In this sense, the present research seeks to synthesize the evolution of affective computing, its recognition techniques, the means to recognize emotions and its direct relationship with education, in particular the technologies adjacent to e-learning education as well as trends of research that are being addressed around personalized learning.

 

Keywords:  Affective  computing,  means  to  detect  emotions,  emotions  recognition  technologies,

personalized learning.

 

 

I. INTRODUCCIÓN

 

Durante  muchos  años,  las  investigaciones  científicas  sobre  el  comportamiento  del  ser  humano han dedicado mucho esfuerzo a estudiar la parte racional del mismo, dejando en segundo plano las emociones, sin embargo, cada vez se conoce la influencia que las emociones tienen sobre los procesos Recibido: 15 de abril de 2018

Aceptado: 3 de junio de 2018

Publicado como artículo científco en Revista de Investigación Talentos V(1) 95-104


 

de pensamiento racional, estas influyen de manera directa sobre el aprendizaje, la toma de decisiones y muchos otros procesos de racionalidad que el ser humano genera.

 

 

En  este  sentido  se  está  investigando  a profundidad la influencia de las emociones sobre el aprendizaje, y es ahí cuando toma fuerza el término Computación Afectiva acuñado por primera vez gracias a la Dra. Rosalind Picard del MIT, en su libro “Affective Computing”, en el mismo que menciona la necesidad de tomar en cuenta los estados emocionales de los usuarios a la hora de desarrollar software. A partir de ahí, se viene investigando mucho sobre cómo desarrollar tecnología y dispositivos capaces de reconocer, interpretar y simular las emociones humanas, con la única finalidad de diseñar tecnología que simule y realice las funciones propias de un maestro, brindando al estudiante un entorno personalizado y adaptado a sus necesidades cognitivas y emocionales.

II. DESARROLLO

 

 

Todo aprendizaje tiene una base emocional” Platón.

 

 

Dentro de la literatura en torno a la emoción y el aprendizaje muchos autores determinan la relación directa que existe entre estos factores y como la emoción puede aumentar o inhibir el aprendizaje en los seres humanos (Picard, 2000) (Picard, 2003) (Graesser, Chipman, King, McDaniel, & D’Mello,

2007)  (D’Mello,  Lehman,  Pekrun,  &  Graesser,

2014) (Hernández-Sánchez & Ortega-Maldonado,

2015), por lo que las emociones pueden mejorar la percepción, la toma de decisiones influyen en los propios mecanismos del pensamiento racional. En esta misma línea se puede describir al aprendizaje como el acto de adquirir conocimientos, comportamientos, aptitudes, normas o preferencias sociales. (Picard, R, 2004) y (McDuff, Karlson,


Kapoor, Roseway, & Czerwinski, 2012) mencionan que cada vez hay más conciencia que dentro del proceso de enseñanza aprendizaje se debe de integrar eficazmente factores cognitivos y emocionales para que el mismo sea más eficiente.

 

 

En los seres humanos la emoción juega un papel trascendental en su aprendizaje, ya que la motivación mejora en gran medida los niveles de atención, percepción,  adquisición  de  conocimientos, además de poseer un papel esencial en la toma de decisiones (Picard, 2000; Kort & Reilly, 2002; Bachiller, Hernández, & Sastre, 2010). Es así, que dentro de los procesos de enseñanza y aprendizaje una gran gama de emociones ocurre naturalmente, desde las positivas como alegría, y satisfacción por motivo de algún éxito, las emociones negativas: frustración, tristeza  confusión, que en particular se pueden dar a consecuencia de un fracaso. Por otra parte, se sabe que estos estados emocionales positivos o negativos desencadenan diferentes tipos de pensamientos y podrían tener importantes repercusiones negativas o positivas desde la perspectiva educativa de los estudiantes (VanLehn, et al., 2003; D’Mello & Graesser, 2011)

 

 

En este sentido (Baker, Mercedes, Rodrigo, & Xolocotzin, 2007; D’Mello & Graesser, 2011) mencionan   que   cuando   un   estudiante   está aprendiendo  o  aplicando  sus  conocimientos  en la resolución de problemas pasa por algunos estados emocionales como confusión, frustración, aburrimiento,  compromiso.  Además  las emociones negativas consideradas poco propicias para el aprendizaje (Sabourin, Rowe, Mott, & Lester,  2013),  pueden  por  el  contrario  tener efectos  positivos,  por  ejemplo  es  probable  que los estudiantes enfrenten confusión, frustración cuando aprenden temas difíciles, los cuales se pueden superar con gran esfuerzo mediante el razonamiento, resolución de problemas y reflexión,


 

lo que conlleva a aprendizajes efectivos, y generan la sensación de “saber” que mejora la confianza del estudiante. Sin embargo, si estos problemas no son resueltos pueden pasar de la confusión a la frustración y su posterior deserción (D’Mello, Lehman, Pekrun, & Graesser, 2014; Bradbury, Taub, & Azevedo, 2017).

 

 

Las Tecnologías de la Información y Comunicación (TICs) y su vertiginoso crecimiento de tecnologías adyacentes como: redes sociales y académicas, espacios colaborativos, intercambio de comunidades,  acceso  o  información  en  tiempo real y más, han impactado de tal manera en los procesos educativos, que se observa cambios trascendentales en su quehacer académico, transformando     paradigmas     establecidos     y dando lugar a la hibridación de las modalidades educativas. En este sentido ha surgido modalidades de  aprendizaje  como  e-learning,  b-learning  y m-learning,   caracterizadas   por   tener   un   alto nivel de mediación tecnológica (Zangara, 2014). A partir de estas modalidades se busca que los estudiantes se conviertan en el centro del proceso del aprendizaje, pasando de ser un sujeto pasivo y receptor de información, a un sujeto activo capaz de procesar información, analizar críticamente y aplicarla en la solución de distintas problemáticas. Estas modalidades se han extendido y fortalecido con el uso de los EVEAs como mediadores tecnológicos, que por lo general son los facilitadores de ricos espacios de comunicación entre docentes, estudiantes y recursos educativos (Bureš, 2006).

 

Un tema muy controvertido y discutido es la alta tasa de deserción que existe en estas modalidades por parte de los estudiantes (Arbaugh, & Duray,

2002) (Atiaja, 2016), por lo que se busca entender o determinar cuáles son los factores que inciden en  esta  problemática  encontrada  en  estudiantes que usan EVEAs y participan en cursos con modalidades  híbridas.  Dentro  de  ellas,  las  más


destacables  podrían  ser:  diferencias  en  estilos de aprendizaje, necesidades propias de cada estudiante, aplicación de diseños instruccionales inadecuados,   falta   de   capacidades   por   parte del estudiante en autorregular su aprendizaje (Berrocoso, 2014) y, un aspecto muy importante, es que estas tecnologías proponen ambientes desafiantes que pueden desorientar o desanimar a muchos estudiantes (Haggard, 2013). También los estudiantes se sienten lejos de sus docentes y compañeros y no logran expresar sus emociones y barreras encontradas a lo largo del curso. Desde este panorama no muy alentador, surge una pregunta: ¿qué hacer para brindar entornos más personalizables a las necesidades emocionales del usuario que generen retroalimentación adecuada?

 

 

En  este  sentido  es  necesario  investigar  sobre el desarrollo de tecnología que brinde a los estudiantes un entorno cada vez más amigables y adaptado a las necesidades propias de cada uno de ellos.

 

Aprendizaje personalizado y tendencias de investigación

 

Dentro de la literatura cuando se habla de aprendizaje personalizado en modalidades híbridas, con mediación a través de tecnologías digitales, se han encontrado tres grandes tendencias en investigación: sistemas educativos adaptativos, tutores inteligentes (agentes) y estrategias que combinan estos enfoques. Se describen brevemente aquí para dar cuenta de las investigaciones ya realizadas.

 

 

En cuanto a tutores inteligentes se pueden mencionar investigaciones como las de (Schiaffino, Garcia, & Amandi, 2008), en la que se generó un agente inteligente que proporciona asistencia personalizada a los estudiantes en modalidades  de  e-learning,  eTeacher  observa


 

el  comportamiento  de  un  estudiante  mientras están trabajando en un curso en línea y construye automáticamente el perfil del mismo, que comprende su estilo de aprendizaje e información sobre su desempeño, sugiriéndole, por ejemplo, cursos de acción personalizados. Otros autores como  (Grawemeyer  et  al.,  2017)  desarrollaron un sistema para mejorar el compromiso y el aprendizaje mediante retroalimentación formativa basados en los estados emocionales del estudiante, denominado iTalk2Learn. Esta investigación se focalizó en abordar preguntas como: ¿cuándo se debe dar retroalimentación?, ¿qué debe contener la retroalimentación y cómo se la debe de dar? Se orientó a niños de 8 a 12 años, los estados emocionales se obtuvieron a través de la interacción del sistema con el usuario mediante el diálogo en voz alta a través de un micrófono.

 

 

Por otro lado, en cuanto a sistemas que combinan los dos enfoques se encuentra el trabajo de (Chao, Lin, Lin, & Tseng, 2012): un sistema de tutoría afectiva (ATS) utilizando la emoción y técnicas de reconocimiento para mejorar la interfaz afectiva, con el objetivo de mejorar el interés en el aprendizaje. Siguiendo esta perspectiva, (Weber & Brusilovsky, 2016) presentan un sistema educativo inteligente   basado   en   la   web   denominado tutor inteligente e hipermedia adaptativa. Una investigación en la línea de t-learning es la desarrollada por (Baldassarri, Hupont, Abadía, & Cerezo, 2015) generando un sistema interactivo de televisión digital, que hace uso de la detección facial de emociones para dar información al tutor acerca del estado emocional de los estudiantes al realizar determinados ejercicios o tareas.

 

 

Las ideas e investigaciones expuestas, permiten vislumbrar que la asistencia y retroalimentación por parte de agentes pedagógicos virtuales, favorece    los    aprendizajes    autorregulados    y


complejos por parte de los estudiantes  (Azevedo et  al.,  2016)  (Mudrick,  Rowe, Taub,  Lester,  & Azevedo, 2017), aunque su eficiencia depende de rastrear, modelar, y fomentar una retroalimentación inteligente y precisa (Kim & Baylor, 2016). En este sentido se observa el gran potencial que estos sistemas afectivos pueden brindar a la educación personalizada.

 

 

Medios para detectar emociones

 

 

Se han realizado muchos esfuerzos para reconocer las   emociones   haciendo   uso   de   diferentes medios como expresiones faciales, señales de habla,  fisiológicas como  excitación  automática, pulsaciones,  presión  sanguínea,  resistencia  de la  piel,  algunas  actividades  de  electromiografía y postura (Shen, Wang, & Shen, 2009), con la finalidad de interpretar estas emociones para múltiples fines, entre ellos la educación, salud, seguridad y más. En la actualidad, se han dado cuenta de buenos resultados en la detección de emociones cuando se realiza de forma multimodal, es decir, combinando dos o más medios como se comenta a continuación.

 

 

Reconocimiento facial

 

 

El rostro es uno de los más ricos canales de expresión, el cual comunica emociones y señales sociales. Dentro de la literatura se suelen utilizar dos modelos que describen, explican y clasifican las expresiones faciales y sus emociones, por un lado, el modelo categórico y por el otro, el modelo continuo o dimensional, el primero usa etiquetas o clasificadores para establecer la emoción dentro de categorías específicas como alegría, ira, sorpresa, miedo, disgusto y tristeza (Ekman & Rosenberg,

2005), el segundo en cambio explica cómo las emociones pueden ser vistas en un espacio continuo en el cual se pueden representar infinidad de puntos e intensidades como lo mencionan (Russell, 1980;


 

Posner, Russell, & Peterson, 2005).

 

 

En cuanto al modelo categórico, una de las primeras investigaciones realizadas fue el Sistema de Codificación de Acción Facial (FACS) creados por (Ekman & Friesen, 1978), que se ha convertido en la taxonomía más objetiva y ampliamente utilizada para muchas investigaciones que buscan desarrollar algoritmos y tecnología que detecta las emociones básicas en tiempo real con distinto nivel de precisión, como las realizadas por (Lin, 2006; Anderson & McOwan, 2006; Happy, George, & Routray, 2012).

 

 

En este sentido podría considerarse que el reconocimiento facial puede ser un gran aliado a la hora de desarrollar tecnología para un EVEA, ya que el estudiante va a estar siempre en frente del PC, usualmente con una cámara, por lo que este medio puede brindar información de gran calidad para detectar el estado emocional del mismo combinado con otras estrategias.

 

 

Hay que mencionar que dentro de los EVEAs existen algunos inconvenientes que hacen que el reconocimiento facial en ambientes reales como hogares, oficinas y otros sean susceptibles a fallos, debido a: ubicación de la cámara, iluminación insuficientes o desigual en el rostros, movimientos bruscos del usuario que hagan que salga del umbral  de  la  cámara,  calidad  en  la  resolución de  la  cámara  (Landowska,  Brodny,  &  Wrobel,

2017),  es  así  que  una  alternativa  a  solucionar esta problemática es combinarlo con otro medio no intrusivo para corroborar los datos obtenidos mediante reconocimiento facial.

 

 

Reconocimiento vocal

 

 

(Ringeval    et    al.,    2015)    exponen    que    el

reconocimiento de las emociones por medio del


habla juega un papel importante en la interacción persona - ordenador, contribuyendo de manera significativa en su interacción, permitiendo que los algoritmos detecten emociones como ira, estrés, o nivel de frustración. Una de las técnica desarrollada  por  (Chen,  Mao,  Xue,  &  Cheng,

2012) proponen un modelo para clasificar las seis emociones básicas en el habla, utilizando la tasa de Fisher. Asimismo, algunos estudios indagaron sobre la combinación de características acústicas y características lingüísticas (lenguaje y discurso) para mejorar el rendimiento del reconocimiento de las emociones a través de la voz (Schuller, Villar, Rigoll, & Lang, 2005; Bjorn Schuller et al.,

2015; Kim, Hyun, Kim, & Kwak, 2009). Es así que este medio, podría ser implementado mediante tecnologías  que  busquen  obtener  emociones  de los estudiantes dentro de un EVEA de manera no intrusiva.

 

Reconocimiento mediante señales fisiológicas

 

 

Numerosos hallazgos en psicofisiología sugieren que la activación del sistema nervioso autónomo cambia   cuando   se   producen   emociones,   por este motivo una técnica muy utilizada es la electroencefalografía   (EEG),   que   proporciona una prueba invisible de la activación o excitación afectiva (Mauss & Robinson, 2009; Savran et al.,

2006). Las señales fisiológicas pueden obtenerse a través de diferentes dispositivos y sensorizando diferentes partes del cuerpo, como: la respuesta galvánica de la piel (Chanel, Ansari-Asl, & Pun,

2007), la electromiografía (Haag, Goronzy, Schaich, & Williams, 2004), el volumen sanguíneo (Caciopo, Berntson, Larsen, Poehlmann, & Ito,

2000), la temperatura de la piel (Levenson, 2003), el electrocardiograma (Mallan & Lipp, 2007) o la frecuencia respiratoria (Haag et al., 2004). Muchas investigaciones han utilizado estos medios para reconocer las emociones en base a sus respuestas conductuales y fisiológicas, ya que los datos que


 

se extraen son muy fiables. Esta situación ha conllevado  múltiples  trabajos,  como  EmoRate que reconoce la emoción en tiempo real de un usuario mientras ve una película (Sourina & Liu,

2015), o, por su parte (Brown, Grundlehner, & Penders, 2011) diseñaron un sistema inalámbrico de  monitoreo  mediante  señales  EEG  que  mide la valencia emocional del usuario, aunque en el campo práctico implementar esta tecnología en un EVEA es muy complejo, ya que como idea fundamental se busca detectar emociones en los estudiantes  de  manera  no  intrusiva,  además  de que los dispositivos hardware son muy específicos como para encontrarlos en los hogares de estudiantes.

 

Reconocimiento multimodal

 

 

Hace algún tiempo muchas investigaciones han incorporado el reconocimiento de las emociones de manera multimodal, combinando reconocimiento visual, auditivo, fisiológico y otros (D’mello & Kory, 2015). A continuación, se dan a conocer algunas de las modalidades que se podrían implementar para reconocer emociones de manera no intrusiva dentro del uso de un EVEA.

 

 

La mayor parte de las investigaciones han combinado  los  medios  facial  y  auditivo,  como los casos de (Chen & Huang, 2000; Zhang et al.,

2014), esta combinación audiovisual ha generado datos más fiables que solo realizarlos de manera unimodal,   solucionando   problemas   como   en la detección del rostro que es sensible ante un movimiento brusco de la cabeza o factores como iluminación,   en   el   reconocimiento   del   habla se ve afectado por ruido del entorno, es así que la fusión de estos medios brinda información complementaria con mejores resultados (Zeng, Pantic, Roisman, & Huang, 2009).

 

 

Otros  autores  como  (Castellano,  Kessous,  &


Caridakis, 2008) extraen ocho emociones mediante la combinación de reconocimiento facial, postura del cuerpo y la voz, extrayendo una serie de características de cada modalidad y combinándolas en un vector de características para la obtención de resultados con un 10% de mejora que hacerlo de forma unimodal. En esta misma línea (Gunes

& Piccardi, 2009) o (Barros, Jirak, Weber, & Wermter,   2015)   combinan   el   reconocimiento facial y de la postura del corporal, con resultados mayores a la obtención de información de manera unimodal.

 

 

(Tsihrintzis et al., 2008; Epp, Lippold, & Mandryk,

2011;  Nahin, Alam,  Mahmud,  &  Hasan,  2014; Rajput & Vijayavargiya, 2015) buscaron mejorar el reconocimiento de las emociones mediante el uso  de  información  complementaria  por  medio del teclado, en base al análisis de patrones mecanográficos y el tipo de textos escritos. En este sentido (Khanna, Sasikumar, & Mumbai, 2010) encontraron que la velocidad con la que se escribe disminuye cuando las personas están en estado emocional negativo como la tristeza, por otra parte (Khan,  Brinkman,  &  Hierons,  2013)  realizaron una investigación empírica en dos estudios concluyendo que es posible determinar el estado del ánimo de los usuarios mediante la interacción con el teclado y el ratón. Autores como (Rajput

& Vijayavargiya, 2015) analizaron el patrón de escritura del individuo, estableciendo un estado mental y en base a ese análisis obtienen el estado emocional del usuario.

 

 

De igual manera, existe otro campo de investigación dedicado al análisis de sentimientos basado en  estudio de las opiniones y emociones que se transmiten por texto (Ebert, 2017). Aunque normalmente se lo aplica para efectos comerciales, podría ser utilizado dentro del campo educativo, ya que muchos estudiantes dejan sus comentarios


 

y opiniones en foros, blogs y más elementos que contienen los EVEAs, al respecto se ha realizado algunas tentativas por aplicarlas en el campo educativo tal es el caso de (Rani & Kumar, 2017; Barrón-Estrada, Zatarain-Cabada, Oramas- Bustillos, & González-Hernández, 2017), con la finalidad de determinar los criterios y emociones que muestran los estudiantes en torno a la calidad de un curso, sus expectativas, las experiencias de aprendizaje y más.

 

Software para el reconocimiento de emociones

 

 

Durante estos últimos años las investigaciones y avances en herramientas para el reconocimiento automático de emociones ha sido impresionante, desarrollándose múltiples sistemas reconocedores (Calvo & D’Mello, 2010; D’mello & Kory, 2015). A continuación, se detallan algunos de ellos.

 

 

Empresas como (IMOTIONS Inc, 2016) ponen a disposición una serie de aplicaciones a nivel de software y de hardware para la detección de emociones como: análisis de expresiones faciales, registro  visual,  EEG,  GSR,  y  más.  Empresas como AFECTIVA ponen a disposición AFFDEX (SDK) (Mcduff et al., 2016), que es un kit de herramientas de reconocimiento de emociones en tiempo real, que puede codificar automáticamente las expresiones de varias personas, está disponible para las plataformas móviles y de escritorio más populares, reconoce las 6 emociones básicas establecidas por (Ekman & Friesen, 1978). Tambien empresas como (EYERIS, 2016) desarrollan soluciones de reconocimiento facial en cuanto a las seis emociones básicas, más la neutral con su software denominado Emovu, la empresa Noldus con su software FaceReader (Noldus Inc,

2016), cada una de estas tecnologías cuenta con

una API para incorporarse en software de terceros.

 

 

III. CONCLUSIONES


Es  evidente  que  las  emociones  desempeñan un papel muy importante en el aprendizaje, la percepción, la toma de decisiones y muchos otros procesos que anteriormente se creían propiamente racionales,   hoy   se   conoce   que   la   cognición es influenciada de manera significativa por la emoción, en este sentido se da la necesidad de profundizar más sobre el entendimiento del papel de las emociones en el proceso de enseñanza y aprendizaje.

 

 

El manejo de las emociones puede ser un vehículo   increíble   para   potenciar   o   inhibir el aprendizaje, por lo que es imprescindible profundizar  aún  más  el  conocimiento  en  torno a las  emociones  humanas,  y  su  papel  sobre  el aprendizaje, debido a que paradigmas establecidos se vienen desechando, entre estos que las emociones negativas tales como confusión, frustración, aburrimiento no necesariamente afectan el aprendizaje, es decir un estudiante cuando realiza procesos de aprendizaje complejo probablemente va a sentir esas emociones que con esfuerzo lo superará llevándolo a aprendizajes efectivos, por tanto es necesario ahondar acerca de cuáles son beneficiosas para el aprendizaje y cuáles no.

 

 

Pese a que cada vez se va logrando mejores resultados en el reconocimiento de las emociones humanas,  todavía  existen  serios  inconvenientes en que las investigaciones salgan del laboratorio y puedan incorporarse en entornos reales como hogares y centros de estudio, entornos virtuales de enseñanza y aprendizaje, MOOCS, priorizando el uso de medios no intrusivos.

 

 

Uno de los retos de la computación afectiva en torno a la educación, es acortar la brecha de comunicación entre las personas y los sistemas informáticos, plataformas de enseñanza y aprendizaje y brindar una forma de interacción


 

basados en el lenguaje no verbal; por otro lado, mejorar la capacidad a estos sistemas de modificar su comportamiento que promueva empatía con el estudiante, logrando con esto la personalización del aprendizaje y adaptarse a las capacidades propias de cada usuario.

 

 

El vertiginoso crecimiento de las TICs, así como el auge de nuevas modalidades de aprendizaje como e-learning, b-learning y m-learning, MOOCS, hay brindado la oportunidad de que el aprendizaje se masifique a través de la web de forma democrática a usuarios ávidos de conocimiento, esta oportunidad de aprendizaje es un desafío constante para estas tecnologías y modalidades de aprendizaje debido a que existen muchos detractores que ponen en tela de duda la aceptación, credibilidad, calidad, evaluación, los resultados de aprendizaje, es ahí donde la computación afectiva toma mucha fuerza debido a que un objetivo de la misma es brindar entornos personalizados y empáticos acordes con las necesidades y capacidades propias de cada estudiante dejando de lado métodos generalistas, expositivos y conductistas muy utilizados en la actualidad y que no han logrado los resultados esperados.

 

 

IV.BIBLIOGRAFÍA

 

Anderson, K., & McOwan, P. W. (2006). A real- time automated system for the recognition of human facial expressions. Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions On, 36(1), 96–105. https://doi. org/10.1109/TSMCB.2005.854502

Arbaugh, J. B., & Duray, R. (2002). Managing the on-line classroom: a study of technological and behavioral characteristics of web-based MBA courses. Journal of High Technology Management Research, 13, 203–223.

Atiaja,  A.  (2016).  Los  MOOCs :  evolución  , problemas y perspectivas hasta el 2015, 5(3),

105–123.

Azevedo, R., Martin, S. A., Taub, M., Mudrick,


N. V, Millar, G. C., & Grafsgaard, J. F. (2016). Are Pedagogical Agents’ External Regulation Effective in Fostering Learning with Intelligent Tutoring Systems? In A. Micarelli,   J.   Stamper,   &   K.   Panourgia (Eds.), Intelligent Tutoring Systems: 13th International Conference, ITS 2016, Zagreb, Croatia, June 7-10, 2016. Proceedings (pp.

197–207).   Cham:   Springer   International

Publishing.     https://doi.org/10.1007/978-3-

319-39583-8_19

Bachiller, C., Hernández, C., & Sastre, J. (2010).

Collaborative Learning , Research and Science Promotion in a Multidisciplinary Scenario : Information and Communications Technology and Music. Engineering Education, 1–8.

Baker, R. S. J. D., Mercedes, M., Rodrigo, T., & Xolocotzin, U. E. (2007). The Dynamics of Affective Transitions in Simulation Problem- Solving Environments. Lncs, 4738, 666–677. https://doi.org/10.1007/978-3-540-74889-

2_58

Baldassarri, S., Hupont, I., Abadía, D., & Cerezo, E. (2015). Affective-aware tutoring platform for interactive digital television. Multimedia Tools  and Applications,  74(9),  3183–3206. https://doi.org/10.1007/s11042-013-1779-z

Barrón-Estrada,      M.      L.,      Zatarain-Cabada, R.,         Oramas-Bustillos,   R.,   &   González- Hernández,  F.  (2017).  Sentiment  Analysis in an Affective Intelligent Tutoring System. International                     Conference    on    Advanced Learning    Technologies.         https://doi. org/10.1109/ICALT.2017.137

Barros,  P.,  Jirak,  D.,  Weber,  C.,  &  Wermter, S.          (2015).   Multimodal   emotional   state recognition using sequence-dependent deep hierarchical features. Retrieved from https:// ac.els-cdn.com/S0893608015001847/1- s2.0-S0893608015001847-main.pdf?_ tid=1cb05188-b92a-11e7-9dfa-00000aacb36

2&acdnat=1508897798_4141fafbdeaf2e457f fe1a2c91b57208

Berrocoso, V. (2014). Redalyc.MOOCS: Una visión crítica desde las ciencias de la educación, 18.

Bradbury, A. E., Taub, M., & Azevedo, R. (2017).

The   Effects  of  Autonomy   on   Emotions and   Learning   in   Game-Based   Learning


 

Environments.   Cognitive   Science,   1666–

1671.

Brown, L., Grundlehner, B., & Penders, J. (2011).

Towards wireless emotional valence detection from EEG, 2188–2191.

Bureš, V. (2006). Communication Problems in a Virtual Environment. In University of Hradec Kralove   (Ed.),   Rokitanskeho   (pp.   2004–

2006). Czech Republic.

Caciopo, J., Berntson, G., Larsen, J., Poehlmann, K., & Ito, T. (2000). The Ppsychophysiology of Emotion. In The Handbook of emotion (pp.

173–191).

Calvo, R. A., & D’Mello, S. (2010). Affect detection: An interdisciplinary review of models, methods, and their applications. IEEE Transactions on Affective Computing,

1(1), 18–37. https://doi.org/10.1109/T- AFFC.2010.1

Castellano, G., Kessous, L., & Caridakis, G. (2008).         Emotion    Recognition    through Multiple Modalities: Face, Body Gesture, Speech.  In  C.  Peter  &  R.  Beale  (Eds.), Affect and Emotion in Human-Computer Interaction: From Theory to Applications (pp.

92–103). Berlin, Heidelberg: Springer Berlin

Heidelberg.     https://doi.org/10.1007/978-3-

540-85099-1_8

Chanel,  G., Ansari-Asl,  K.,  &  Pun,  T.  (2007).

Valence-arousal evaluation using physiological signals in an emotion recall paradigm. Conference Proceedings - IEEE International Conference on Systems, Man and Cybernetics, (December), 2662–2667. https:// doi.org/10.1109/ICSMC.2007.4413638

Chao, C. J., Lin, H. C. K., Lin, J. W., & Tseng, Y.

C. (2012). An affective learning interface with an interactive animated agent. Proceedings

2012 4th IEEE International Conference on Digital Game and Intelligent Toy Enhanced Learning, DIGITEL 2012, 221–225. https:// doi.org/10.1109/DIGITEL.2012.60

Chen, L., Mao, X., Xue, Y., & Cheng, L. L. (2012).                     Speech     emotion     recognition: Features  and  classification models.  Digital Signal     Processing:   A   Review   Journal,

22(6), 1154–1160. https://doi.org/10.1016/j. dsp.2012.05.007

Chen, L. S., & Huang, T. S. (2000). Emotional


expressions in audiovisual human computer interaction. Multimedia and Expo, 2000. ICME 2000. 2000 IEEE International Conference On, 1(2), 423–426 vol.1. https:// doi.org/10.1109/ICME.2000.869630

D’Mello, S., & Graesser, A. (2011). The half-life of cognitive-affective states during complex learning.   Cognition   and   Emotion,   25(7),

1299–1308. https://doi.org/10.1080/0269993

1.2011.613668

D’mello,  S.  K.,  &  Kory,  J.  (2015). A Review and Meta-Analysis of Multimodal Affect Detection Systems. ACM Computing Surveys,

47(3), 1–36. https://doi.org/10.1145/2682899

D’Mello, S., Lehman, B., Pekrun, R., & Graesser, A.   (2014).   Confusion   can   be   beneficial for        learning.   Learning   and   Instruction,

29, 153–170. https://doi.org/10.1016/j. learninstruc.2012.05.003

Ebert,    S.    (2017).    ARTIFICIAL    NEURAL NETWORK    METHODS   APPLIED   TO SENTIMENT ANALYSIS.

Ekman, P., & Friesen, W. (1978). Facial Action Coding     System:    A    technique    for    the measurement of facial movements. Consulting Psychologist. Palo Alto (CA).

Ekman, & Rosenberg, E. (2005). What the Face Reveals: Basic and Applied Studies of Spontaneous Expression Using the Facial Action Coding System (FACS) (2nd editio). New York.

Epp, C., Lippold, M., & Mandryk, R. L. (2011).

Identifying emotional states using keystroke dynamics. Proceedings of the 2011 Annual Conference on Human Factors in Computing Systems - CHI ’11, 715–724. https://doi. org/10.1145/1978942.1979046

EYERIS. (2016). EmoVu. Retrieved from http://

emovu.com/e/

Graesser, A., Chipman, P., King, B., McDaniel, B.,  &  D’Mello,  S.  K.  (2007).  Emotions and Learning with Auto Tutor. Frontiers in Artificial Intelligence and Applications, 158,

569.

Grawemeyer, B., Mavrikis, M., Holmes, W., Gutiérrez-Santos, S., Wiedmann, M., & Rummel, N. (2017). Affective learning: improving   engagement    and    enhancing learning  with  affect-aware feedback.  User


 

Modeling   and   User-Adapted   Interaction,

27(1),     119–158.     https://doi.org/10.1007/

s11257-017-9188-z

Gunes, H., & Piccardi, M. (2009). Automatic temporal    segment   detection   and   affect recognition  from  face  and  body  display. IEEE             Transactions    on    Systems,    Man, and    Cybernetics,   Part   B:   Cybernetics,

39(1), 64–84. https://doi.org/10.1109/ TSMCB.2008.927269

Haag, A., Goronzy, S., Schaich, P., & Williams, J. (2004). Emotion Recognition Using Bio- sensors:  First  Steps  towards  an Automatic System. Affective Dialogue Systems, i, 36–48. https://doi.org/10.1007/978-3-540-24842-

2_4

Haggard, S. (2013). The Maturing of the MOOC.

BIS Research Paper 130, (130), 123. Retrieved from https://www.gov.uk/government/ uploads/system/uploads/attachment_data/ file/240193/13-1173-maturing-of-the-mooc. pdf

Happy, S. L., George, A., & Routray, A. (2012).

A real time facial expression classification system using Local Binary Patterns. 4th International Conference on Intelligent Human Computer Interaction (IHCI), 1–5. https://doi.org/10.1109/IHCI.2012.6481802

Hernández-Sánchez, A. M., & Ortega-Maldonado, A.  (2015).  Hacia  la  personalización  del e-Learning: La afectividad y su repercusión en el bienestar subjetivo. Revista Lasallista de Investigacion, 12(2), 194–203.

IMOTIONS Inc. (2016). Emotient Module_ Facial Expression      Emotion   Analysis.   Retrieved from https://imotions.com/emotient/

Khan, I. A., Brinkman, W. P., & Hierons, R. (2013).

Towards  estimating  computer  users’ mood from interaction behaviour with keyboard and mouse. Frontiers of Computer Science, 7(6),

943–954.      https://doi.org/10.1007/s11704-

013-2331-z

Khanna,   P.,   Sasikumar,   M.,   &   Mumbai,   K.


N. (2010). Recognising Emotions from Keyboard Stroke Pattern. International Journal  of  Computer  Applications,  11(9),

975–8887.        https://doi.org/10.5120/1614-

2170

Kim, E. H., Hyun, K. H., Kim, S. H., & Kwak, Y. K. (2009). Improved emotion recognition with a novel speaker-independent feature. IEEE/ASME Transactions on Mechatronics,

14(3), 317–325. https://doi.org/10.1109/ TMECH.2008.2008644

Kim, Y., & Baylor, A. L. (2016). Research-Based Design of Pedagogical Agent Roles: A Review, Progress, and Recommendations. International Journal of Artificial Intelligence in Education, 26(1), 160–169. https://doi. org/10.1007/s40593-015-0055-y

Kort, B., & Reilly, R. (2002). Analytical Models of Emotions, Learning and Relationships: Towards an Affect-sensitive Cognitive Machine.     Virtual     Worlds     Simulation Conference, 1–15.

Landowska, A.,  Brodny,  G.,  &  Wrobel,  M.  R. (2017). Limitations of emotion recognition from      facial    expressions    in    e-learning context. CSEDU 2017 - Proceedings of the

9th International Conference on Computer Supported Education, 2(Csedu), 383–389. https://doi.org/10.5220/0006357903830389

Levenson, R. W. (2003). Blood, Sweat, and Fears: The  Autonomic  Architecture  of  Emotion. In Emotions inside out: 130 years after Darwins: The expression of the emotions in man and animals. (pp. 348–366). Levenson, Robert W.: Institute of Personality and Social Research, University of California, Berkeley,

4143 Tolman Hall #5050, Berkeley, CA, US,

94720-5050, boblev@socrates.berkeley.edu: New York Academy of Sciences.

Lin, D. (2006). Facial expression classification using PCA and hierarchical radial basis function network. Journal of Information Science  and  Engineering,  1046(November

1999),  1033–1046.  Retrieved  from  http://