jueves, 28 de noviembre de 2013

5 años de eye tracker en el DigiDoc y el Web Research Group

Pareciera que fue ayer cuando tuve por primera vez un eye tracker frente a mi y el reto de hacer un estudio sobre comportamiento de las personas ante los resultados de búsqueda. Nos habían prestado un Tobii de la serie 50 como premio a la mejor propuesta de investigación con eye tracker, era un premio que daba Alt64 en el congreso Interacción, creo que en el año 2009. Parece que se presentaron pocas propuestas... el  hecho es que lo ganamos! Recuerdo que no fue fácil, y que gracias a dos investigadores de Barcelona Media supimos preparar el experimento. Ganar ese premio no fue cualquier cosa, al menos para mi supuso un antes y un después en mi línea de trabajo en HCI (Human-Computer Interaction).
Un tiempo después (en 2011 si no recuerdo mal), pudimos tener nuestro propio eye tracker, de nuevo un Tobii de la serie 50. Y desde entonces lo hemos usado en la UPF tanto investigadores del grupo DigiDoc como del Web Research Group. Hoy hago un recuento de los trabajos que hemos publicado en estos años:

En principio nos interesaba sobre todo estudiar cómo se comportan ante la lista de resultados que da un buscador:
Luego lo ampliamos a cómo se comportan en el proceso de búsqueda completo:
Después probamos a aplicado a un estudio de interacción con TV conectada:
Ultimamente estamos estudiando factores culturales:
Y hemos hecho algun estudio más metodológico sobre diseño de experimentos con eye tracker:
  • Marcos, Mari-Carmen; Rello, Luz. Order effect y presencia de erratas en estudios de usuarios con eye tracking. Interacción 2013 (Madrid, 17-30 septiembre 2013).
Además hemos hecho varios estudios sobre lectura en pantalla, varios de ellos con grupos de usuarios con dislexia, en lo que Luz es la investigadora experta y en su web hay más trabajos sobre el tema:
Y también hemos hecho alguna investigación sobre lectura de noticias online:
  • Arapakis, Ioannis; Lalmas, Mounia; Cambazoglu, B. Barla; Marcos, Mari-Carmen;  Jose, Joemon M. "User Engagement in Online News: Under the Scope of Sentiment, Interest, Affect, and Gaze". JASIST (aceptado). 
  • Rovira, Cristòfol; Capdevila, Jofre; Marcos, Mari-Carmen. La importancia de las fuentes en la selección de artículos de prensa online: estudio de Google Noticias mediante eye-tracking. Investigación Bibliotecológica, 62 (aceptado).
En este momento (enero de 2015) tenemos entre manos 4 cosas:
  • un estudio con eye tracking orientado al marketing digital usando técnicas de neuromarketing (con Edgar Sánchez)
  • un estudio sobre el comportamiento visual de las personas en la lectura de mapas conceptuales (con Cristòfol Rovira).
  • un estudio sobre diferencias culturales que afectan a cómo las personas nos comportamos frente a un estudio de laboratorio, para lo que colaboramos de nuevo con una universidad de Dubai y enfocamos el estudio a un grupo de mujeres universitarias (con Ruth García y Pilar Medina)
  • y además tenemos pendiente publicar el estudio de rich snippets (con Ferran Gavín y Ioannis Arapakis), que lo habíamos enviado a un par de congresos internacionales pero lamentablemente no ha sido aceptado... así que seguiremos trabajando en él, como decía en mi artículo de ThinkEPI sobre "rejected papers"

Cómo funciona un eye tracker

Los seres vivos prestamos atención a aquello que está al alcance de nuestros sentidos. En este línea, existe abundante bibliografía que pone de manifestó la relación existente entre la atención que ponemos las personas y la mirada.

En función del registro de imágenes que hace la cornea, el sistema visual humano cuenta con tres niveles de percepción visual::
- la visión foveal es aquella que se registra de forma más nítida, y la que llega de los elementos a los que hemos prestado atención de forma más consciente, es la que usamos para la lectura, la conducción, y todas aquellas actividades en las que precisamos gran nitidez;
- la visión parafoveal es la que se registra en la zona que hay alrededor de la fóvea, y tiene menor nitidez que la anterior;
- en tercer lugar, la visión periférica es la que registra las imágenes que llegan a la zona más alejada de la fóvea, esta visión tiene menos resolución.

Cuando interactuamos con una interfaz realizamos continuamente movimientos con los ojos, se trata de movimientos muy rápidos  (hasta 500 movimientos por segundo) que se dan cuando cambiamos el foco de atención y se denominan “sacadas” (saccades en inglés), por otra parte cuando mantenemos la mirada fija en un lugar durante varios milisegundos se produce una “fijación”. Es así como en términos mecánicos podemos describir el proceso fisiológico de la observación visual como una alternancia contínua entre fijaciones  y  sacadas.

En la actualidad existe tecnología que permite registrar las fijaciones y sacadas del ojo humano, se trata del eye tracker. Este dispositivo detecta, sigue y graba los movimientos que realizamos con los ojos, la duración de la mirada y la dilatación de la pupila, medidas que podemos relacionar con la atención, por lo que lo hace una herramienta de gran utilidad para estudios de lectura, de comportamiento y de interacción entre las personas y las interfaces, entre otras cosas.

Para realizar este seguimiento ocular, los eye tracker actuales funcionan de forma remota, es decir, sin intervenir de forma intensiva en los ojos de las personas. La técnica más común hoy en día se conoce como Pupil Centre Corneal Reflection (PCCR); para aplicarla, el eye tracker incorpora un luz infrarroja y una cámara de vídeo. Cuando está activado, el dispositivo ilumina al usuario con dos proyecciones de rayos infrarrojos que generan un reflejo en las córneas de los ojos, concretamente en la fóvea, que es una pequeña zona de la retina donde registramos la visión más nítida. Una cámara de vídeo integrada en el equipo de eye tracker recoge esos reflejos junto con la posición del usuario y, mediante procesamiento digital de la imagen, se extrae la ubicación de las pupilas en un ratio de 50 Hz o superior. Hecho esto, la posición de las pupilas se mapea con la ubicación de la mirada en la pantalla, y de esta forma se puede saber dónde tiene la persona puesta su atención en cada momento de la grabación.

jueves, 13 de junio de 2013

¿Influyen los factores culturales en el comportamiento de búsqueda de las personas en la web?


Para dar respuesta a la pregunta, un grupo de investigadores han llevado a cabo un estudio. En el proyecto han participado la Dra. Mari-Carmen Marcos (profesora del Departamento de Comunicación de la UPF), Ruth García-Gavilanes (miembro del grupo DTIC y con una  internship en Yahoo! Research, donde realiza su tesis doctoral), el Dr. Emad Batained (Zayed University en Emiratos Árabes) y Lara Pasarín (estudiante del Máster en Gestión de Contenidos Digitales, UB-UPF).

El estudio consistió en observar a un grupo de 60 usuarios (estudiantes, profesores y personal de administración) en la Universitat Pompeu Fabra (Barcelona) y otros 60 en la Zayed University (Dubai) mientras realizaban diversas búsquedas en Google. Todos los usuarios hicieron las mismas tareas: a partir de una consulta realizada en Google, debían escoger el resultado que a su criterio respondía mejor a la pregunta, por ejemplo “Qué nacionalidad tiene el arquitecto …..?”. A todos se les presentaron las mismas páginas de resultados que ofrecía Google, y por medio de un dispositivo de seguimiento de la mirada (eye tracker) se grabó el movimiento de sus ojos.

Al analizar los datos descubrieron que los usuarios de Dubai permanecían más tiempo en la página de resultados de Google, leían más resultados antes de escoger uno, y revisaban cada resultado con mayor detenimiento. Los usuarios de Barcelona, por el contrario, escaneaban la página de resultados de forma rápida, no miraban los resultados de la parte inferior de la página y escogían un resultado sin leer mucho la información que se daba sobre él. Un análisis de las respuestas que daban los usuarios a cada pregunta planteada reveló también que si bien en ambos países el nivel de acierto era similar, la tasa de error era mayor en los usuarios de Barcelona y en cambio en Dubai era mayor el número de respuestas del tipo “no lo sé” o “no lo he encontrado”.




Según apuntan los autores, los motivos que puede haber detrás de estas diferencias de comportamiento pueden ser varios, y en próximos estudios se profundizará en ellos:
  1. Las culturas orientales son más holísticas que las occidentales, éstas últimas son más analíticas. Está demostrada esta diferencia al comparar usuarios de China con usuarios de Estados Unidos, pero no hay trabajos que lo demuestren para comprar países árabes y europeos.
  2. En la cultura árabe se da una mayor “power distance” (concepto de las teorías de Hofstede), esto es, una mayor distancia entre personas con distinto rango, en este caso moderador y usuario. Este motivo puede llevar a que las personas que participan en un test se esfuercen más por realizar bien las tareas. A este factor se suma que en la muestra de Dubai había más mujeres que hombres, lo que puede estar reforzando más aun esta "power distance”.
  3. En Dubai hacían el test en inglés y en Barcelona en castellano. Inglés es el idioma en el que se imparten las clases en la Zayed University, en cambio no es su idioma nativo, lo que puede estar influyendo en que su atención sea mayor.

Publicado en:

Marcos, Mari-Carmen; García-Gavilanes, Ruth; Bataineh, Emad; Pasarin, Lara. Using Eye Tracking to Identify CulturalDifferences in Information Seeking Behavior. Workshop Many People, Many Eyes. CHI'13, April 27-May 2, 2013, Paris, France.

jueves, 25 de abril de 2013

Eye tracking y usabilidad en TV conectada (making off)

Por Mari-Carmen Marcos y Verónica Mansilla
La televisión conectada utiliza la señal de televisión digital terrestre (TDT o DVB-t, digital video broadcasting-terrestrial) y al mismo tiempo está conectada a Internet, de manera que a los contenidos televisivos se les añaden servicios de la red como la televisión a la carta (video on demand, VOD), aplicaciones de redes sociales, acceso a Youtube y a navegador web, etc. Al tratarse de una tecnología reciente, no existe aún un consenso en el diseño de las interfaces de sus menús, así que cada fabricante y cada cadena llegan a una solución, y por lo que se ha visto con poca coincidencia entre sí.
En 2011, un convenio de la Universitat Pompeu Fabra con las empresas Lavinia Interactiva, Televisió de Catalunya y Havas Media hizo posible el estudio que ahora presentamos. Cada partner se ocupaba de una parte del trabajo, concretamente en la UPF teníamos el objetivo de detectar problemas de usabilidad en televisiones conectadas comercializadas en ese momento. Se trataba de un estudio pionero por el objeto de estudio en sí, pero sobre todo por la posibilidad de aplicar la técnica de eye tracking sobre estas televisiones tan recientes.
Los dispositivos que se decidió testear fueron un televisor Sony Bravia, una caja TDT Engel que utiliza el sistema HBB-TV, futuro estándar de TV conectada en Europa, una caja TDT Blu:sens, y una consola de juegos PlayStation3; los cuatro tienen en común el acceso a contenidos de televisión a la carta, y todos salvo la consola tienen también señal de televisión.
Se contó con 70 participantes: 50 para un primer test de usabilidad (sin eye tracker), con la técnica de think aloud, que permitió detectar errores de usabilidad en las interfaces de esos televisores; y 20 más para completar el estudio con un test que utilizó eye tracking y que hizo posible responder algunas cuestiones que el test previo no podía resolver.
Los usuarios realizaron varias tareas en cada dispositivo. Tras unos minutos de navegación libre por los menús para familiarizarse con el equipo y con el mando a distancia, se les presentaban las tareas. Una persona moderaba el test, mientras otra tomaba notas de lo que ocurría.
La sala de testeo iba a ser en origen un plató de televisión de la universidad. Allí dispondríamos de un escenario que ambientaría un salón de casa, con su mobiliario, para que el usuario tuviera una experiencia más parecida a la que puede tener en su casa, aun siendo un laboratorio. El problema que se detectó –y por suerte se detectó antes de tener el escenario montado- es que el campus no cuenta  con antena aérea de TV, sino que usa televisión por IP, por tanto teníamos que instalar una antena en la zona donde se fuera a testear. Dado que el plató está en un sótano y no puede llegar la señal de la antena, ese laboratorio no era viable. Un asunto que en principio era trivial nos llevó varias sesiones hasta resolver dónde instalar la sala de testeo.
Después de muchas pruebas, una evaluación heurística y varios pilotos, comenzamos los tests con los usuarios. En el primer test, sin eye tracker, cada usuario usó sólo un modelo de televisión. Las tareas consistían en localizar la programación de una cadena, encontrar un programa en la TV a la carta, hacer una búsqueda en la web y ver un vídeo en Youtube, en caso de que el sistema dispusiera de esas funcionalidades. En este test se detectaron bastantes problemas, sobre todo relacionados con falta de comprensión de las opciones de los menús de navegación y con la complejidad de los iconos de los mandos a distancia, pero también con la frustración al encontrar que estos televisores no cumplen sus expectativas: la carga es lenta, no están todas las aplicaciones que les gustaría, la navegación es críptica, etc.
La tarea que presentó con diferencia más dificultades y ratios de éxito más bajas fue el uso de la TV a la carta. El motivo principal es que la forma de identificar este servicio no era intuitiva: en unos casos estos canales estaban en el menú “TV” en el mismo grupo que las radios y Youtube, en otros bajo el menú “videos” y en otros bajo “internet”. El caso más llamativo fue el de la caja Engel, que no disponía de una opción de acceso a la TV a la carta por navegación, sino que para acceder a este servicio es necesario que el usuario entre al canal correspondiente por TDT, y una vez ahí aparece un mensaje en pantalla indicando qué tecla del mando a distancia tiene que pulsar para entrar en contenidos bajo demanda. La mayoría de los usuarios no conseguían realizar esta tarea, por lo que se planteó repetirla y grabarla en un test con eye tracker para determinar el motivo de que no lograran acceder al servicio.

 
Figura 1. Proceso de calibración de Tobii Glasses

Este segundo test, realizado con 20 usuarios distintos a los anteriores, se realizo con Tobii Glasses (Figura 1). Se centró  en la tarea de TV a la carta y cada usuario realizó la tarea en los cuatro dispositivos. Se quería saber cuántos usuarios veían el mensaje en pantalla, y de éstos cuántos lo entendían. La muestra se redujo a 14 usuarios por diversos problemas técnicos de la propia grabación, el más importante fue que los rayos infrarrojos de los mandos a distancia interferían con los rayos infrarrojos del eye tracker.
El análisis de los datos presentó varias dificultades. Por un lado, no se habían previsto algunas necesidades para trabajar con ficheros de vídeo tan pesados, como la compra de un disco externo de gran capacidad, mas memoria RAM para el ordenador que computaba los datos, o una tarjeta gráfica dedicada. Por otro lado, el marcado de los vídeos se tenía que realizar manualmente: detectar en qué momento se cargaba el mensaje de aviso en pantalla y en qué momento desaparecía; considerando que un mismo usuario podía llegar varias veces a esa pantalla (¡un usuario llegó a verla 7 veces!), el marcado fue un trabajo minucioso que se hizo para las 45 veces en que apareció el mensaje.
Los resultados que se obtuvieron fueron muy interesantes: sólo 4 usuarios fijaron su mirada en el mensaje que daba la interfaz para acceder a la TV a la carta, y de estos 4 sólo uno lo comprendió y pulsó la tecla del mando que este mensaje indicaba (Figura 2).

Figura 2. Mapa de calor realizado a partir de las fijaciones de los 14 usuarios que vieron esta interfaz. Este mapa muestra el promedio de tiempo que los usuarios fijan su mirada en cada zona de la pantalla en relación al tiempo total que permanecen en ella. El mensaje (esquina inferior derecha) apenas registra fijaciones

De este estudio sacamos varios aprendizajes, por un lado relativos a los problemas de usabilidad presentes en las interfaces de las TV conectadas que se testearon, y por otro lado relacionados con el uso de eye tracking para testeo de vídeo.

El estudio se puede leer con más detalle en:

Agradecimientos
Esta investigación no hubiera sido posible sin Javier Díaz, David Hernández y Jaume Ponsa, que ayudaron en las sesiones de testeo y en la evaluación heurística. Y por supuesto, nuestro agradecimiento a los usuarios que participaron en el estudio.

lunes, 3 de septiembre de 2012

Reading on paper and reading on the screen

Although we don't wonder nowadays so much about differences between reading on paper or on screen, it is still interesting to see back to some studies to have a global view of visual user behavior.

The paper "An Eye Tracking Study on Text Customization for User Performance and Preference" by Luz Rello and myself (Mari-Carmen Marcos), that will be presented at LA-Web 2012 Conference, presents a user study which compares reading performance versus user preference in customization of the text. We study the following parameters: grey scales for the font and the background, colors combinations, font size, column width and spacing of characters, lines and paragraphs. We used eye tracking to measure the reading performance of 92 participants, and questionnaires to collect their preferences. The study shows correlations on larger contrast and sizes, but there is no concluding evidence for the other parameters. Based on our results, we propose a set of text customization guidelines for reading text on screen combining the results of both kind of data.

In the paper we collect some interesting previous work with empiric studies about readability on screen and printed format. They are mainly focused on layout and typography. The first studies (from 1929 to 1955) on printed format took in consideration the following variables: font size,, column width, font color, space between lines and font style. According to these studies, font type does not affect readability. These results were later confirmed using eye tracking.

We found that font size, font type and paragraph length were the most frequently studied variables concerning readability, but there is not a full agreement between the findings. Font sizes (12 or 14 points depending on the experiment) showed better performances in relation to smaller font sizes (8 and 10 points). Moreover, the largest sizes were also preferred in the surveys. Serif types performed better than sans serif types, however the users revealed to prefer sans serif types.
The performance on reading seems to be better for short lines -around 55, but it depends on the user goal, if they only
need to scan a document, long lines show more efficiency. There is less amount of related work taking into consideration specifically font and background colors and space between lines. Users prefer strong contrasts as well as moderate italics, regular fonts and just one color instead of four or six on a website.
For more information about eye tracking studies on reading for UX practitioners I recommend Jacob Nielsen's blog, and his book with Kara Pernice, Eyetracking web usability.

You might have listen about the F-shaped pattern (J. Nielsen 2006) and the golden triangle (G. Hotchkiss 2005). Both apply mostly in search engine results pages, but not so much in other websites because of the display and layout.

Also some interesting studies have been done in journalism, like those of Poynter Institute for websites and tablets (2011).

(This post will be updated with more papers in the future)


lunes, 25 de junio de 2012

Social annotation in web search: inattentional blindness

---------------------------------------------------
Aditi Muralidharan; Zoltan Gyongyi; Ed Chi. Social Annotation in Web Search. CHI '12 Proceedings of the 2012 ACM annual conference on Human Factors in Computing Systems, pages 1085-1094
Full paper   Extended abstract 
---------------------------------------------------

Knowing that other researchers are looking for answers to similar questions to ours is a good signal of the interest of the topic. In this case, Aditi Muralidharan, Zoltan Gyongyi, and Ed Chi have done two studies on social annotation in web search using eye tracking technology. Here, in Barcelona, we have been running related experiments in the last months and arrived to similar conclusions not published so far.

Their study (CHI 2012)


1) 11 users perform several personalized tasks. Half of the results have snippets with social annotations, the other half have not this kind of results. Test is recorded with an eye tracker and the users watch the recording in a retrospective think-aloud (RTA). The conclusion is that most of people did not notice the social annotations, and those who saw them, don't pay too much attention. Why people don't see them? (see the second test)

2) 12 users (all of them know each other) perform several tasks in mock-ups of search engines. Again, half of the results have snippets with social annotations, the other half have not this kind of results. The pages are mock-ups because they have been modified in order to present social annotation with variations: big/small profile picture, above/below snippet, first/second position, long/short snippets. The test were recorded with eye tracker. The conclusion is that when the picture is big and when the social annotation is above the snippet, people notice it. The reason is that users have a pattern of reading in page results and they don't see further than the elements they recognize as useful in a first scan: title and url. So, new elements like social annotations prompt "inattentional blindness" (as Mack, Rock name it). This phenomenon is widely known, you might have seen the video with the gorilla dancing while other people is playing... and nobody notice it.
In a future paper, the authors could do more experiments to know if changing the style of this snippets would make them more visible.

Our study (We wish CHI 2013  :-)  )


Our study have not been published, so I will not write many results here so far. We studied 5 kind of snippets: Google Places, Google +, Google Author, multimedia and reviews. We duplicated each page of results removing in one version this rich snippets. We prepared 10 SERPs (with their 10 duplicated plain snippets pages). 60 users performed the 10 search and they saw 5 pages with rich snippets and 5 pages without the rich version of the snippet. The sessions were recorded with an eye tracker.
The preliminary results show that, in general, it does not exist significant difference (t-test) between the user visual behavior when looking to pages with rich snippets and the similar pages without them.
The metrics that we considered were mainly the fixation duration in the rich snippet (and his equivalent as a plain snippet) and the time to first fixation in the rich snippet (and his equivalent as a plain snippet), as well as the click count.
We hope to share soon the study with the scientific community and with SEO practitioners.
These heat maps show the fixation duration in the SERP with plain snippets and "Google +" snippets in 6th and 2nd position. No differences



And here you are some statistical results for the fixation duration average on the studied snippets on a top position (position 2) and in a bottom position (position 6). No significant differences:


jueves, 21 de junio de 2012

Thinking on buying an eye tracker?

Sometimes other colleagues around the world ask me about which eye tracker could they buy or rent.
My answer is "it depends on the kind of study you plan to run".

There are several firms in the market selling eye tracking devices based on infrared (for serious research I don't trust yet in other technologies based on recording the users' ayes with a webcam). As an infrared-based technology I know Tobii. I have a Tobii T1750, a second-hand one in fact from 2007, that it is not anymore in the market, so I cannot be sure about the newer models to recommend, but here you are some models and the uses that I (and Tobii) recommend for each one:

  • Tobii T60 hz and T120. Useful for research that aim to study the users' behavior on websites, images, and anything that can be showed on the screen. This device brings the infrared on the screen. Useful for usability studies
  • Tobii X60 and X120. Useful for research on screen (external screen) or other devices as mobile phones or tablets if you incorporates a special device for them. It is a great option because is lighter and flexible. If I could buy another one now, this would be my first option.
  • Tobii T60 XL. Similar to T60 but wider. Useful for studies that need a big screen. I don't see the point for usability studies.
  • Tobii Glasses. Necessary if the research is about physical objects (supermarket products, museums, etc.). I used it in a study on Connected TV and video games. It works properly but the resolution is lower than in screen-based eye trackers, and the complexity for the analysis is bigger due to the kind of information: video. It is not convenient for web studies.
 About to make your decision? Don't be on a hurry, it is an expensive device with an expensive software. Take it easy, check Tobii website, compare, and let me know if we can plan a joint research!