Introducción a la experiencia de usuario
La Experiencia de Usuario (User Experience o UX, en inglés) es un término nacido del márketing de los años 90 que buscaba describir todas las interacciones de una persona con un producto o servicio digital. Esta definición asume que una buena experiencia de usuario puede asegurar un mayor deseo de uso y, en consecuencia, de consumo de los bienes que la organización ofrece.
Desde el punto de vista de quienes diseñamos y desarrollamos tecnología, definir este término pasa por entender su objetivo principal, ya que, no en todos los casos hay ligado un modelo de negocio ni la institución que ofrece dichos productos o servicios digitales tiene como objetivo convertir a personas en clientes.
El objetivo principal de la Experiencia de Usuario es la de crear productos y servicios digitales usables, relevantes y, también, disfrutables.
Se convierte por tanto en un concepto holístico que abarca otras disciplinas relacionadas como las Ciencias de la Computación, Diseño de Interacción, Ingeniería de la Usabilidad, Diseño de Producto Digital y la Psicología, además de los matices que encuentra en su aplicación dentro de cada sector industrial.
The Disciplines of User Experience Design es uno de los muchos diagramas que hay, posiblemente el más popular, en el que se conectan visualmente todas las disciplinas del diseño de la experiencia de usuario, y donde podemos intuir qué áreas de conocimiento son necesarias para esta rama del diseño.
¿Visión holística o interseccional?
Mucha gente se obsesiona con definir qué es o qué no es experiencia de usuario. Desde mi punto de vista, una característica particular de esta disciplina es que se define mejor por sus intersecciones que por lo que realmente describe su definición formal holística a partir del conjunto de todas sus cosas).
La razón de esto, es que en la intersección está la aplicación práctica, y en la práctica es muy complicado conseguir que todos y cada una de los factores que aseguran una buena experiencia de usuario puedan darse al mismo tiempo.
El tiempo, es también un factor crítico de la experiencia de usuario y del que hablaremos mucho más adelante.
Profesionales de la experiencia de usuario
No es de extrañar que a nivel profesional veamos también mucha confusión y ambigüedad en ciertos títulos profesionales. Personas que tratan de encajar dentro de un perfil pero que vienen con bagajes diferentes o que quieren dedicar su tiempo a tareas concretas, pueden sentirse siempre desplazadas o no representadas por lo que se supone que es ser UX Designer.
Es normal la confusión y la búsqueda de nuevos títulos profesionales que representen mejor lo que hacemos. En mi opinión los títulos profesionales son algo meramente publicitario (ni más ni menos).
Es imposible que un título recoja siempre todo vuestro valor, experiencia y motivaciones. Los títulos son para que la industria sepa qué pagarte, qué responsabilidades darte, y qué representas dentro de esa organización (que no es poco).
No sois vuestros títulos, sois lo que sabéis, lo que hacéis y vuestros modos de hacer. Y aprendiendo algo de UX os hará crecer profesionalmente y sentir la realización de un mejor trabajo.
Ahora sí, hablemos de la experiencia de usuario (en minúscula) antes de que Donald Norman popularizase el término por primera vez en su libro The Design of Everyday Things (1988).
La experiencia de uso antes de la Experiencia de Usuario
En su artículo The Fascinating History of UX Design: A Definitive Timeline, Emily Stevens recopila con detalle una serie de momentos históricos que bien podrían entenderse como el origen de la Experiencia de Usuario incluso antes de que se empezara a utilizar este término.
Desde mucho antes de ponerle un nombre, diferentes culturas han explorado técnicas cuyo objetivo era la de crear espacios físicos, objetos cotidianos e incluso procesos de trabajo que fuesen agradables y eficientes para quienes los 'experimentaban'.
Entre los referentes que destaca la autora, encontramos la filosofía china del Feng Shui, que estudiaba la disposición espacial, los materiales y colores de los objetos en relación con el 'flujo de energía', buscando crear el lugar más óptimo, armonioso y amigable posible.
También existen precedentes en la Antigua Grecia, donde se origina la ergonomía como disciplina centrada en el entendimiento de la interacción entre las personas y los objetos. Ejemplo de ello es Hipócrates, quien establece una serie de principios para el diseño de utensilios médicos y la distribución del espacio de una sala de operaciones.
Aunque si hay un momento en la historia que merece especial atención, ya que conecta directamente con el desarrollo de la tecnología moderna, es la era de La Revolución Industrial.
Bajo la promesa del 'progreso', se inicia un período donde la tecnología tiene como objetivo acabar con el trabajo manual y la tracción animal para dar paso a la fabricación industrial.
Esta revolución se tradujo en la mecanización del trabajo y la implantación de modelos de producción que transformaría a la sociedad, a la gente y sus hábitos, salud y costumbres. Dando paso también a modelos de consumo de masas y al capitalismo como modelo económico predominante.
La revolución industrial
Fijémonos por un momento en esta ilustración.
En ella vemos a tres personas, dos adultas y una niña, trabajando en una fábrica con una máquina de tejer algodón. La niña que está bajo la máquina está asegurándose de que los restos de textil no atascan el mecanismo de las bobinas y así no tenga que pararse en ningún momento la producción, aún a riesgo de que sus manos puedan sufrir daños por el rápido movimiento de los hilos.
La razón de que ese trabajo lo hiciese una niña pequeña, entre otras, es porque dedicar 10 horas al día a esa labor supondría a un adulto permanecer agachado tanto tiempo que sufriría también dolores posturales.
Para niños y adultos, esta fábrica es un claro ejemplo de cómo las personas se han tenido que adaptar a las máquinas y al modelo de producción a costa de su salud y de cómo el diseño industrial influye tanto en el cuerpo como en la política laboral.
Si hay un lugar donde esto tuvo su máximo exponente fue en la ciudad de Manchester.
La industria algodonera convirtió a esta ciudad en el centro de producción del mundo. Manchester lideró la innovación industrial construyendo enormes fábricas con máquinas capaces de manufacturar billones de toneladas de algodón cada año.
Pero esta explosión tenía un coste: la gente tendría que dedicar larguísimas jornadas laborales haciendo trabajos alienantes, repetitivos, físicos y agotadores.
En ese momento, el temor no era sólo ser sustituidos por una máquina, sino ser completamente subyugados por el modelo de productividad imperante.
En el mundo del cine, la película Metrópolis (1927) hizo un reflejo crítico de esta 'revolución' mostrando las consecuencias de los nuevos modelos de esclavitud y dibujando lo que ya empezaba a ser un problema incluso para el propio capitalismo.
Metrópolis es una distopía donde los obreros de una fábrica en el subsuelo de la megalópolis, incitados por un robot, se rebelan contra la clase intelectual que tiene el poder amenazando con destruir la ciudad.
La estética e imágenes de esta película de ciencia ficción están claramente inspiradas en las fábricas industriales y maquinarias que hemos visto, donde la producción dependen nuevamente del esfuerzo físico y mental hasta la extenuación.
Estas promesas revolucionarias se han seguido perpetuando como podemos ver más recientemente con el progreso de la Inteligencia Artificial (IA) y su supuesto objetivo de mejora de la productividad mientras amenaza con destruir puestos de trabajo, como mecanismo para aumentar los beneficios sin reducir las jornadas laborales ni asegurar un modo alternativo de supervivencia.
Más que quedarnos en la “anécdota”, es importante que nos fijemos en algunos aspectos claves.
El primero, el propio modelo de producción se ve 'frenado' por los límites de la capacidad humana (los límites del cuerpo) e intenta buscar formas de transformar el trabajo para hacerlo más eficiente.
De ahí nace la necesidad de adaptar la máquina al humano y no a la inversa. Y de aquí surgirá la disciplina de la Ergonomía, dedicada al estudio del diseño industrial que permitiese a las personas usar la tecnología de forma más eficiente.
Frederic W. Taylor elabora a principios de siglo un sistema de organización del trabajo con el fin de mejorar la eficiencia de la mano de obra a través de la optimización de las tareas y los procesos unido a sistema de motivación por buen rendimiento. No exento de crítica, puesto que su estudio sobre las tareas y el tiempo sólo parecía servir para aumentar el ritmo de trabajo en lugar de liberar la carga a los/as trabajadores/as.
Metodologías de trabajo y diseño de productos se convierten en objeto de estudio desde entonces y forman parte de nuestro sector en el día a día. Nuestros modos de hacer son casi tan importantes como lo que hacemos.
Fijaos en cómo cambian esos procesos de personas junior a senior, os encontraréis que la mayor recompensa por ser senior es tener más tiempo libre gracias a haber aprendido a resolver los mismos problemas de forma más eficiente.
La revolución de la computación
Vayamos a la segunda clave de esta revolución. Y es que es precisamente de las máquinas textiles (de las fábricas de algodón) de donde comienza a surgir el diseño del primer computador.
Aquí se inicia revolución de la computación y de las interfaces.
Joseph-Marie Jacquard, tejedor y comerciante francés, se inspira en los diseños de los grandes telares para adaptarlos a una postura 'soportable' por una persona. Añade un pedal que será accionado con un pie y sustituye las bobinas de tela por superficies perforadas lo que permitía crear patrones con agilidad.
Jacquard consigue que una sola persona pudiera hacer el trabajo de muchas con su nueva máquina. Esto es un ejemplo de diseño que busca facilitar la tarea a través de la adaptación de la interfaz a las formas de uso.
No obstante, que la responsabilidad de la producción se individualice tiene también consecuencias sociales importantes sobre la carga de trabajo como podemos leer en el reciente libro After Work, de la autora Helen Hester.
El trabajo de Jacquard inspira a Ada Lovelace (matemática y poeta), quien tomando los escritos de su amigo Babbage (otro matemático) publica en 1843 (desde los márgenes, es decir, añadiendo notas a los artículos de Baggage) lo que sería el primer lenguaje de programación de la historia. Estas notas llegan a crear un nuevo artículo más largo aún que el original y la historia la reconoce, con razón, como la primera persona programadora.
En este artículo describe con detalle las operaciones mediante las cuales las tarjetas perforadas ‘tejerían’ una secuencia de números en la máquina analítica.
La innovación de la máquina física (hardware) y su lógica (software) están a punto de provocar un nuevo hito en la historia.
Al igual que pasara con las fábricas de algodón y el invento de la máquina de tejer, el diseño de las primeras computadoras ocupaban salas enteras (eso es un mainframe, el primer super computador ENIAC) el cual daría paso al diseño del ordenador personal.
En el 1895 la empresa IBM fabricó la tecnología de procesamiento de tarjetas perforadas de datos (lo que podríamos llamar casi primera interfaz de usuario donde una persona dictaba las órdenes que esperaba que la computadora realizase).
Esta interfaz, claramente inspirada en las superficies perforadas de las máquinas de tejer, servirían para introducir datos e instrucciones a un computador.
Toda la tecnología se dirigía hacia un uso mucho más personal, preciso, rápido y que redujese errores tanto en la introducción de datos como en su almacenamiento. La experiencia del usuario-programador estaba en el foco del progreso de la computación.
Evidentemente tanto los mainframes como las tarjetas perforadas tenían sus limitaciones. Los mainframes necesitaban ser usados por varias personas, y justo como pasara con la máquina de tejer, el diseño de los primeros ordenadores unipersonales se hizo colocando un terminal sobre una mesa ‘con pedal’ o más bien con ‘teclado’.
Las tarjetas perforadas pasaron a los discos magnéticos mucho más baratos de producir, que permitían ser interactivos desde estos terminales también menos costosos.
Los terminales permitían el acceso de información desde el teclado, desde la escritura, y no fue hasta 1973 que Xerox PARC, fabricó el primer computador diseñado para ser usado con un ratón, la metáfora de escritorio, y una interfaz gráfica de usuario (GUI), conceptos introducidos por primera vez por Douglas Engelbart
Por cierto, muy pocos años después de empezar a explorar las primeras interfaces gráficas, comenzaron también a realizarse prototipos de interfaces multimodales que podían ser interactivas mediante voz, gestos y texto. Una época apasionante donde se buscaba por todos los medios darle un sentido de utilidad individual a todo lo que se fabricaba.
Aunque si alguien cambia el curso de la historia desde un enfoque puramente interactivo tratando de verdad de convertir la computación en una experiencia personal memorable, usable, disfrutable y eficaz es Apple.
En 1984 lanzan el Macintosh 128K (of RAM) al mercado. Se publicita para padres e hijos, lo cual influye y mucho también en el tipo de audiencia que solía usar la tecnología, en pocos años pasamos de un 50% de mujeres programadoras (de mainframes) a un 30% en los 80 y caída en picado desde entonces.
Y eso, sólo por cómo se publicita. Pero volviendo a su diseño, Apple hace una apuesta total por el paradigma de interacción que se impone para el público general: la interfaz gráfica de usuario en lugar de la línea de comandos a la que estaban acostumbradas las personas que más sabían entonces de terminales.
Ahora la audiencia no era personas que necesariamante hubieran estudiado ingeniería o matemáticas. Ahora cualquier persona era capaz de entender, usar y sacarle valor a un ordenador gracias a la representación gráfica, metafórica, de lo que contenía.
Gran parte de ese trabajo gráfico lo lleva a cabo Susan Kare, diseñadora de Apple y Microsoft pionera en el Pixel Art, que creó los iconos más reconocibles de la historia, y que diseñó también las cartas de la baraja del solitario, juego que recordarán quienes tengan tuvieran un PC en los años 90.
Los años 80 y 90 fueron un torbellino de avances y propuestas gráficas, de estudios en ciencias del comportamiento para entender cómo las personas usamos e interactuamos con las máquinas.
Otro de los personajes claves de esta época es Brenda Laurel, diseñadora y creadora de videojuegos, amiga de Donald Norman (a quien se atribuye la popularización del término de Experiencia de Usuario) y quien dirigió varias publicaciones en el campo del Diseño de Interacción Persona-Ordenador extremadamente interesantes.
Ella con su perspectiva de diseñadora de videojuegos entendía lo que suponía crear mundos virtuales y fue pionera en hablar de cómo estos mundos, estos 'teatros', incluyen al usuario que no es un mero espectador sino que los vive, los experimenta, los transforma y es a su vez transformado por lo que sucede en ellos.
De ella me quedo con esta cita que representa perfectamente el comienzo de la Experiencia de Usuario, con mayúsculas:
Design isn’t just about aesthetics. It’s the art of making things usable — be it an app, a gadget or a simple everyday object like a chair. UX design is nothing without human interaction, and if a product isn’t fully able to serve its purpose, the design process is incomplete. This is why user research and usability testing are so crucial, and as a UX designer, you need to be prepared to iterate and reiterate your designs over and over again.
Como podréis adivinar, se hace necesario por tanto profundizar más sobre estos conceptos de Diseño de Interacción, Testing de Usabilidad e Investigación de Usuarios, para poder definir correctamente qué es y qué no la Experiencia de Usuario.
Member discussion