¿De qué manera analizar la vivencia de las personas mayores al utilizar servicios digitales de gran alcance?
La evaluación de la experiencia de las personas mayores en servicios digitales masivos requiere un enfoque multidimensional: técnico, humano y ético. La creciente proporción de población mayor obliga a diseñar, medir y mejorar plataformas (banca, salud, comercio, transporte, administración pública) de manera que sean seguras, útiles y fáciles de usar para quienes presentan diversidad funcional asociada a la edad.
Por qué resulta apremiante evaluar esta experiencia
- Demografía: de acuerdo con Naciones Unidas, la cantidad de personas con 60 años o más crecerá de manera considerable en las próximas décadas, lo que exige que los servicios de gran alcance atiendan adecuadamente a ese grupo.
- Impacto social: la exclusión digital provoca obstáculos que dificultan el acceso a beneficios, atención sanitaria y derechos esenciales.
- Riesgos financieros y de seguridad: fallos o malentendidos durante operaciones pueden derivar en pérdidas económicas o en mayor vulnerabilidad frente a fraudes.
Componentes clave de la evaluación
- Accesibilidad técnica: observancia de las pautas de accesibilidad web, ajustes de contraste, ampliación tipográfica, uso adecuado de etiquetas semánticas y compatibilidad con herramientas de asistencia.
- Usabilidad: sencillez para llevar a cabo acciones esenciales como crear una cuenta, acceder, efectuar pagos o pedir una cita.
- Comprensibilidad: empleo de un lenguaje directo, mensajes de error orientativos y ausencia de tecnicismos, además de instrucciones claramente delineadas.
- Sostenibilidad de uso: provisión de soporte, capacitación y ayudas contextuales que faciliten la continuidad en la utilización del servicio.
- Seguridad percibida y confianza: sensación de resguardo de la privacidad y de protección ante posibles fraudes.
Métricas cuantitativas recomendadas
- Tasa de éxito de tareas: porcentaje de usuarios mayores que completan una tarea sin asistencia.
- Tiempo medio por tarea: tiempo que tarda un usuario en completar tareas críticas; útil para detectar fricciones.
- Tasa de abandono: porcentaje que inicia pero no finaliza un proceso (por ejemplo, pago o registro).
- Errores por tarea: número de errores recurrentes (clics en lugar equivocado, campos mal completados).
- Índice de satisfacción: puntuaciones post-tarea o post-sesión (escala de 1 a 5 o similar).
- Uso de ayuda: frecuencia con la que las personas mayores recurren a ayuda telefónica, chat o tutoriales.
Métodos cualitativos imprescindibles
- Pruebas con usuarios representativos: sesiones guiadas en las que adultos mayores de diversos perfiles llevan a cabo tareas auténticas, dando prioridad tanto a la observación directa como a los comentarios expresados en el momento.
- Entrevistas en profundidad: indagar expectativas, inquietudes y situaciones de uso, por ejemplo cuando interactúan con la plataforma con apoyo de familiares.
- Diarios de uso: anotaciones recogidas durante varias semanas que revelan rutinas reales, momentos de mayor actividad y fallos que aparecen con frecuencia.
- Estudios etnográficos: visitas al domicilio para analizar el contexto digital, los dispositivos disponibles y las fuentes habituales de asistencia.
- Grupos focales segmentados: investigar percepciones compartidas, términos que prefieren y obstáculos recurrentes.
Segmentación y criterios de muestreo
- Edad y subgrupos: 60–69, 70–79, 80+. La capacidad funcional varía dentro de cada rango.
- Capacidades funcionales: visión reducida, audición, movilidad de manos, memoria y atención.
- Nivel de alfabetización digital: desde nativos digitales tardíos hasta usuarios mínimos; incluir quienes dependen de intermediarios.
- Contexto socioeconómico: acceso a dispositivos, calidad de internet, soporte familiar.
Diseño de tareas de evaluación
- Definir tareas realistas y relevantes: iniciar sesión, recuperar contraseña, realizar pago, reservar cita médica, consultar historial.
- Incluir escenarios con interrupciones: llamada entrante, desconexión de red, comprobante impreso no disponible.
- Medir desde la primera interacción: tiempo hasta entender la función, no solo la ejecución.
- Permitir asistencia simulada en algunos escenarios para medir cuánto y qué tipo de ayuda requieren.
Accesibilidad y diseño orientado a la edad
- Tipografía y disposición: uso de una fuente clara, tamaños ajustables por la persona usuaria, interlineado amplio y adecuada distancia entre zonas táctiles.
- Contraste y color: paletas con contraste elevado y variantes aptas para daltónicos; se recomienda no basar la comunicación únicamente en el color.
- Navegación simplificada: recorridos breves, alternativas visibles y evitar menús demasiado profundos.
- Lenguaje claro: indicaciones precisas, sin abreviaturas, con ejemplos sencillos y avisos de confirmación explícitos.
- Protecciones ante errores: guardado en segundo plano, avisos previos a acciones sensibles y posibilidad de revertir cambios.
Aspectos éticos y de reclutamiento
- Consentimiento informado: detallar con claridad la finalidad del test, cómo se registrarán los datos y cuáles son los derechos del participante.
- Privacidad: asegurar la anonimización de la información y resguardar cualquier grabación que revele datos personales.
- Compensación y accesibilidad del lugar: cubrir los traslados, adecuar los espacios físicos o virtuales y brindar asistencia técnica previa.
- Representatividad: reducir sesgos evitando reclutar únicamente a usuarios activos e incorporando también a quienes dejaron de utilizar el servicio.
Análisis de resultados y priorización
- Ordenar las fricciones según su impacto y frecuencia: las incidencias que bloquean la ejecución de transacciones reciben atención inmediata, mientras que los detalles de usabilidad con menor efecto se consideran de prioridad intermedia.
- Mapas de recorrido y detección de puntos de dolor: reconocer las fases donde se registran mayores tasas de abandono o momentos de desorientación.
- Planteamiento de soluciones comprobables: elaborar prototipos simples que permitan validar ajustes antes de llevarlos al entorno final.
- Evaluar el impacto de las mejoras: contrastar métricas previas y posteriores empleando cohortes comparables (personas mayores).
Casos prácticos ilustrativos
- Banca digital: un banco masivo identificó 40% de abandonos en transferencia por confusión en selección de cuentas. Tras simplificar el formulario, aumentar tamaño de campo y añadir confirmación hablada opcional, la tasa de éxito subió 25% entre usuarios mayores y las llamadas al centro de ayuda se redujeron 30%.
- Portal de salud: una plataforma de citas detectó que personas de más de 75 años no finalizaban el proceso por no entender ventanas emergentes. Rediseñaron con lenguaje directo y un flujo lineal; la tasa de cita confirmada aumentó 18% en ese segmento.
- Comercio electrónico: una tienda implementó un modo «versión para mayores» con botones más grandes y soporte por teléfono visible. La conversión en usuarios de 70+ mejoró, pero surgió dependencia del soporte telefónico; se decidió entrenar a usuarios con microvideos y ofrecer asistencia por videollamada guiada.
Indicadores de éxito a mediano plazo
- Reducción sostenida de la tasa de abandono en procesos críticos.
- Aumento en la frecuencia de uso sin asistencia externa.
- Mejora en el índice de confianza y percepción de seguridad.
- Descenso en llamadas al soporte por tareas básicas.
Sugerencias útiles para optimizar el trabajo de los equipos
- Incluir a las personas mayores desde la fase inicial del diseño y en cada ciclo de revisión.
- Incorporar evaluaciones de accesibilidad dentro del proceso continuo de desarrollo.
- Establecer indicadores diferenciados por edad y nivel de capacidad para identificar posibles desigualdades.
- Capacitar a los equipos de atención con un lenguaje empático y procedimientos ajustados.
- Registrar las modificaciones y difundir los aprendizajes para facilitar la réplica de soluciones en otros servicios.
Al evaluar la experiencia de las personas mayores en servicios digitales masivos se combinan datos, observación directa y sensibilidad social. Medir no solo revela problemas técnicos, sino también brechas en diseño, comunicación y acompañamiento. Las mejoras que facilitan el acceso a este segmento suelen beneficiar a todos los usuarios y fortalecen la equidad digital; por eso la evaluación debe ser continua, inclusiva y orientada a soluciones concretas y mensurables.