Medir la Experiencia de Mayores en Servicios Digitales: Claves

¿Cómo evaluar la experiencia de personas mayores en servicios digitales masivos?

La evaluación de la experiencia de las personas mayores en servicios digitales masivos requiere un enfoque multidimensional: técnico, humano y ético. La creciente proporción de población mayor obliga a diseñar, medir y mejorar plataformas (banca, salud, comercio, transporte, administración pública) de manera que sean seguras, útiles y fáciles de usar para quienes presentan diversidad funcional asociada a la edad.

Por qué resulta apremiante evaluar esta experiencia

  • Demografía: de acuerdo con Naciones Unidas, la cantidad de personas con 60 años o más crecerá de manera considerable en las próximas décadas, lo que exige que los servicios de gran alcance atiendan adecuadamente a ese grupo.
  • Impacto social: la exclusión digital provoca obstáculos que dificultan el acceso a beneficios, atención sanitaria y derechos esenciales.
  • Riesgos financieros y de seguridad: fallos o malentendidos durante operaciones pueden derivar en pérdidas económicas o en mayor vulnerabilidad frente a fraudes.

Componentes clave de la evaluación

  • Accesibilidad técnica: cumplimiento de pautas de accesibilidad para el contenido web, adaptaciones de contraste, tamaño de letra, etiquetado semántico, compatibilidad con tecnologías de apoyo.
  • Usabilidad: facilidad para completar tareas críticas (crear cuenta, iniciar sesión, pagar, solicitar cita).
  • Comprensibilidad: claridad del lenguaje, mensajes de error útiles, ausencia de jerga y pasos explícitos.
  • Sostenibilidad de uso: soporte, formación y ayuda contextual para mantener la continuidad en el uso.
  • Seguridad percibida y confianza: percepción de privacidad y protección frente a fraudes.

Métricas cuantitativas recomendadas

  • Tasa de éxito de tareas: porcentaje de usuarios mayores que completan una tarea sin asistencia.
  • Tiempo medio por tarea: tiempo que tarda un usuario en completar tareas críticas; útil para detectar fricciones.
  • Tasa de abandono: porcentaje que inicia pero no finaliza un proceso (por ejemplo, pago o registro).
  • Errores por tarea: número de errores recurrentes (clics en lugar equivocado, campos mal completados).
  • Índice de satisfacción: puntuaciones post-tarea o post-sesión (escala de 1 a 5 o similar).
  • Uso de ayuda: frecuencia con la que las personas mayores recurren a ayuda telefónica, chat o tutoriales.

Métodos cualitativos imprescindibles

  • Pruebas con usuarios representativos: sesiones guiadas en las que adultos mayores de diversos perfiles llevan a cabo tareas auténticas, dando prioridad tanto a la observación directa como a los comentarios expresados en el momento.
  • Entrevistas en profundidad: indagar expectativas, inquietudes y situaciones de uso, por ejemplo cuando interactúan con la plataforma con apoyo de familiares.
  • Diarios de uso: anotaciones recogidas durante varias semanas que revelan rutinas reales, momentos de mayor actividad y fallos que aparecen con frecuencia.
  • Estudios etnográficos: visitas al domicilio para analizar el contexto digital, los dispositivos disponibles y las fuentes habituales de asistencia.
  • Grupos focales segmentados: investigar percepciones compartidas, términos que prefieren y obstáculos recurrentes.

Segmentación y criterios de muestreo

  • Edad y subgrupos: 60–69, 70–79, 80+. La capacidad funcional varía dentro de cada rango.
  • Capacidades funcionales: visión reducida, audición, movilidad de manos, memoria y atención.
  • Nivel de alfabetización digital: desde nativos digitales tardíos hasta usuarios mínimos; incluir quienes dependen de intermediarios.
  • Contexto socioeconómico: acceso a dispositivos, calidad de internet, soporte familiar.

Diseño de tareas de evaluación

  • Definir tareas realistas y relevantes: iniciar sesión, recuperar contraseña, realizar pago, reservar cita médica, consultar historial.
  • Incluir escenarios con interrupciones: llamada entrante, desconexión de red, comprobante impreso no disponible.
  • Medir desde la primera interacción: tiempo hasta entender la función, no solo la ejecución.
  • Permitir asistencia simulada en algunos escenarios para medir cuánto y qué tipo de ayuda requieren.

Accesibilidad y diseño orientado a la edad

  • Tipografía y disposición: uso de una fuente clara, tamaños ajustables por la persona usuaria, interlineado amplio y adecuada distancia entre zonas táctiles.
  • Contraste y color: paletas con contraste elevado y variantes aptas para daltónicos; se recomienda no basar la comunicación únicamente en el color.
  • Navegación simplificada: recorridos breves, alternativas visibles y evitar menús demasiado profundos.
  • Lenguaje claro: indicaciones precisas, sin abreviaturas, con ejemplos sencillos y avisos de confirmación explícitos.
  • Protecciones ante errores: guardado en segundo plano, avisos previos a acciones sensibles y posibilidad de revertir cambios.

Aspectos éticos y de reclutamiento

  • Consentimiento informado: explicar claramente el propósito de la prueba, la grabación de datos y derechos del participante.
  • Privacidad: anonimizar datos y proteger grabaciones que muestren información personal.
  • Compensación y accesibilidad del lugar: cubrir desplazamiento, adaptar instalaciones físicas o virtuales y ofrecer apoyo técnico previo.
  • Representatividad: evitar sesgos por reclutar solo usuarios ya activos; incluir quienes han abandonado el servicio.

Análisis de resultados y priorización

  • Ordenar las fricciones según su impacto y frecuencia: las incidencias que bloquean la ejecución de transacciones reciben atención inmediata, mientras que los detalles de usabilidad con menor efecto se consideran de prioridad intermedia.
  • Mapas de recorrido y detección de puntos de dolor: reconocer las fases donde se registran mayores tasas de abandono o momentos de desorientación.
  • Planteamiento de soluciones comprobables: elaborar prototipos simples que permitan validar ajustes antes de llevarlos al entorno final.
  • Evaluar el impacto de las mejoras: contrastar métricas previas y posteriores empleando cohortes comparables (personas mayores).

Casos prácticos ilustrativos

  • Banca digital: un banco de gran alcance detectó que el 40% de los usuarios abandonaba las transferencias por dudas al elegir la cuenta correcta. Al simplificar el formulario, ampliar los campos y ofrecer una confirmación por voz opcional, la tasa de operaciones completadas creció un 25% entre personas mayores y las consultas al centro de ayuda cayeron un 30%.
  • Portal de salud: una plataforma de citas médicas notó que quienes superaban los 75 años no concluían el proceso al no comprender las ventanas emergentes. Optaron por un diseño con lenguaje claro y un recorrido lineal; con ello, la confirmación de citas aumentó un 18% en ese grupo.
  • Comercio electrónico: una tienda lanzó una «versión para mayores» con botones ampliados y soporte telefónico visible. La conversión en usuarios de 70+ creció, aunque se generó una fuerte dependencia del soporte; para equilibrarlo, incorporaron microvideos de entrenamiento y asistencia por videollamada guiada.

Indicadores de éxito a mediano plazo

  • Reducción sostenida de la tasa de abandono en procesos críticos.
  • Aumento en la frecuencia de uso sin asistencia externa.
  • Mejora en el índice de confianza y percepción de seguridad.
  • Descenso en llamadas al soporte por tareas básicas.

Sugerencias útiles para optimizar el trabajo de los equipos

  • Incluir a las personas mayores desde la fase inicial del diseño y en cada ciclo de revisión.
  • Incorporar evaluaciones de accesibilidad dentro del proceso continuo de desarrollo.
  • Establecer indicadores diferenciados por edad y nivel de capacidad para identificar posibles desigualdades.
  • Capacitar a los equipos de atención con un lenguaje empático y procedimientos ajustados.
  • Registrar las modificaciones y difundir los aprendizajes para facilitar la réplica de soluciones en otros servicios.

Al analizar cómo las personas mayores interactúan con servicios digitales de gran escala se integran datos, observación directa y una mirada social atenta; esta medición no solo destapa fallas técnicas, sino que también pone en evidencia vacíos en diseño, comunicación y apoyo. Ajustes que hacen más sencillo el uso para este grupo suelen repercutir positivamente en toda la comunidad de usuarios y refuerzan la equidad digital, de modo que la evaluación debe mantenerse constante, ser inclusiva y orientarse a soluciones precisas y verificables.

Por Juan Antonio De los Palotes