top of page

Siete prácticas que sesgan los resultados en los programas de VoC en las organizaciones

Actualizado: 1 jul 2024

Parte 1


Luego de un tiempo involucrándome en los temas de CX, y conociendo lo importante que son los programas de Voz del cliente, quiero hacer una reflexión sobre cómo hemos tergiversado y alterado el uso correcto de las encuestas para medir satisfacción, y la recopilación de sus resultados. 

Es triste ver cómo, instrumentos que son para obtener datos valiosos de parte de los clientes, se han convertido en problemas de datos incorrectos, sesgos, evaluaciones de los clientes a los empleados, modelos de compensación, objetivos financieros, u otros propósitos, menos el que debe ser que es el de capturar, evaluar y escuchar a los clientes para integrar su voz en la acciones y decisiones de la empresa, y de cómo deben ser parte del diseño de las mejoras en la experiencia.


Quiero comenzar enumerando siete prácticas que he observado por los últimos diez años, que no hacen otra cosa que sesgar los resultados hacia lo que nos gusta ver.


1)-Incentivos a colaboradores – Esto es más común de lo que pensamos. Se ha generalizado la práctica de integrar el resultado de una pregunta o del total de una encuesta como parte de la compensación del desempeño mensual de un colaborador. Dando la impresión de que, si de verdad hace bien su trabajo, el cliente le dará una buena puntuación y puede cobrar su incentivo. Nada más lejos de la realidad. Si el empleado no tiene claro su rol e impacto a la experiencia del cliente, no lo hará bien nunca. ¿A que ha contribuido esta práctica? A la manipulación de resultados para lograr el incentivo, y a enfocarse en el indicador y no el objetivo de ofrecer una buena experiencia. En realidad, ¿eso es lo queremos ofrecer a nuestros clientes?


2) Incentivos al cliente – Si los clientes no responden las encuestas en el volumen que deseamos, no confiamos en los resultados, y nos ponemos creativos para lograr la cantidad. Cuando la tasa de respuesta es muy baja, también es un mensaje. Podría ser: estoy cansado de responderlas y sigue pasando lo mismo, son muy largas, cada vez que voy vuelven a encuestarme, es demasiado; me la envían por email y prefiero responder de otra forma, las preguntas no me dejan expresar cómo me siento, y así sucesivamente, pudiera haber cientos de razones para no responder. Pero, incentivar la respuesta, no es. ¿No responderías una encuesta de manera favorable sabiendo que te podrían regalar algo por responder? Incentivar la respuesta sesga los resultados. Por más que expliquemos y pidamos sinceridad, ya hay una predisposición, un sesgo a ser benévolos y laxos en las respuestas. Y cómo no serlo, si hay una compensación.


3) Adaptación de escalas y colores- Cuando las preguntas fueron creadas, con ellas se diseñaron las escalas y su proceso de ser evaluada. Por ejemplo, el NPS que es una escala de 0-10, no 1-10 ni 1-5. En el libro The Ultimate Question 2.0, el autor y creador de esta métrica Fred Reichheld detalla el por qué se creó esa escala. “No importa cuán cuidadosamente se construya la encuesta, algunos clientes transpondrán la parte superior y la inferior en una escala del uno al diez: obtendrán una puntuación de uno cuando en realidad quieren decir un diez, ya que el número uno normalmente significa lo mejor. Esta confusión rara vez ocurre con una escala de cero a diez, ya que cero siempre representa la puntuación más baja”. Por tal razón no es recomendable alterar las escalas de puntuación.



Tampoco deben utilizarse colores que indiquen cuáles son las puntuaciones deseadas, como por ejemplo 10 y 9 color verde, 8 y 7 amarillo, y 6 al 0 en rojo. Es obvio, que son colores universales que indican prosiga, cautela y deténgase. Aunque no ha habido múltiples estudios de que los colores sesguen el resultado, en el artículo ¿Por qué no marcar con colores o iconos la escala de NPS en las encuestas? publicado en la página de Wow! Experience, presentan un estudio realizado en 2009 en el que se comprueba cómo los colores sí pueden sesgar los resultados. En este artículo citan un estudio realizado por Tourangeau et al. (2009) donde se valida que el color aumenta las puntuaciones de forma modesta. Una de las conclusiones de la investigación realizada es que el color puede actuar como heurística. Es decir, que los participantes pudieran buscar pistas o indicios sobre cómo responder, y el color cumple ese propósito. En la publicación de la CXPA, CX Book of Knowledge, también se confirma el sesgo por colores y no recomienda presentar la escala de la encuesta en colores que persuadan la calificación del cliente.


4) La pregunta y su ubicación– No solo modificamos las escalas, también las preguntas. Y las hacemos para inclinar la balanza. ¿Por qué no nos gusta que nos digan la verdad? Hay que plantearse honestamente, ¿quieres saber la verdad o quieres que te digan lo que quieres escuchar? Por otro lado, alterar las preguntas solo servirá para llevar resultados muy propios, y nunca comparables con otras empresas e industrias, que, aunque se entienda que las comparaciones no necesariamente deben dirigir nuestras acciones, no es menos cierto que ayudan a verse con el resto del mundo, y contribuyen a ampliar entonces el espectro inmediato y la realidad.  Dónde se ubica la pregunta, también altera y sesga las respuestas. Si la pregunta del Net Promoter Score (conocida como NPS) se pregunta al final de la encuesta, luego de que se haya repasado toda la experiencia, traído a la memoria del respondedor sucesos, o sugerido pensamientos o acciones a raíz de los sucesos, la probabilidad que se impacte la respuesta es alta, ya sea para favorecer o para castigar. Las mejores prácticas de uso de esta pregunta sugieren comenzar la encuesta con ella sin mencionar nada antes de responder.

5) Las respuestas- Este punto está muy relacionado al anterior. La mayoría de las veces incluimos preguntas en nuestras encuestas que ya inclinan la respuesta. También se incluyen preguntas porque están de moda, o simplemente porque copiamos una encuesta que recibimos y nos gustó. Sin embargo, cuando trabajamos una encuesta debemos tener claro el tipo de respuesta que recibiremos (abierta o cerrada, de selección múltiple, etc.) Y cómo esta respuesta nos dará una perspectiva clara de lo que nos gustaría saber. Hay que recordar, que las encuestas transaccionales o de relación, se hicieron para conocer cómo se sintió el cliente durante su experiencia con nuestra marca o negocio. No pretendamos que en una pregunta por seleccionar una respuesta nos diga los detalles, preguntando por cada una el por qué nos da esa respuesta. Para eso hay otros instrumentos que nos ayudan a profundizar, como lo es la entrevista.

6) Error en la interpretación de los resultados – Otro tema que he visto es cómo interpretamos la métrica. Hay distintas métricas bastante conocidas como, por ejemplo: Top 2 Box/Bottom Box, NPS, Customer Satisfaction (CSAT), Customer Effort Score (CES), First Contact Resolution (FCR), entre otras, que se pueden discutir en otro artículo más adelante. Pero la forma en que se recogen los datos y la puntuación, si no es analizada junto con la historia de la experiencia del cliente, y otras métricas puede inducirse a error en la interpretación de los resultados. Un ejemplo de estos escenarios puede ser, solo tomar las puntuaciones Top 2 Box (10 y 9) y no analizar y comparar con el Bottom Box (1 y 0). Olvidarse del Bottom Box es ignorar que hay clientes que están diciendo que no todo estuvo bien.  Los resultados deben mirarse y analizarse a lo que en realidad importa, lo que vivió el cliente. No a lo que favorece al equipo de trabajo o a la empresa.

7) Objetivo de la medición – ¿Cuál es el verdadero propósito de medir la voz del cliente? ¿Es solo decir que escuchamos al cliente, cuando las acciones de la organización dicen lo contrario? Es importante que, si se solicita la opinión de otros, se note que su opinión cuenta. Si las empresas siguen encuestando a sus clientes en cada transacción,  una y otra vez el cliente le dice lo que está sufriendo, y la organización no ha hecho cambios, la consecuencia será que el cliente no volverá a dar su opinión, no responderá ninguna otra encuesta, no dará más su feedback y la pérdida mayor que tendrá el negocio será que el cliente se irá a dónde sí lo escuchen.

Estos últimos dos puntos invitan a discutir aquellos comportamientos que se generan a raíz de las malas prácticas de interpretación de los resultados y el verdadero objetivo de un programa de voz del cliente. En la segunda parte de este tema, se presentarán las consecuencias de estas prácticas.

Referencias:

  1. CXPA CX Book of Knowledge, 1st Edition, CXPA, www.cxpa.org  

  2. Wow! Customer Experience, ¿Por qué no marcar con colores o iconos la escala de NPS en las encuestas?, 28 de junio de 2022, https://www.wowcx.com/por-que-no-marcar-con-colores-la-escala-de-nps/. 

  3. El Futuro de la Voz del Cliente: Más Allá de las Encuestas, Pablo Fiestas, vicepresidente de CX e Innovación de IZOhttps://lfhm-zgph.campaign-view.com/ua/viewinbrowser?od=3zc799703e1105630f263444f46e26d72de83b091a73a416dd75eb7ee45e4284e1&rd=15403c99d29f0fb4&sd=15403c99d29e9a2b&n=11699e4bf8453e9&mrd=15403c99d29e9a17&m=1 

  4. The Ultimate Question 2.0, Fred Reichheld and Bain & Company, Inc. 2011.

  5. About Bias, VoC & Intelligence Module, Lynn Hunsaker, CCXP, www.clearaction.com

  6. Ley de Goodhar, Zona Económica, https://www.zonaeconomica.com/ley-goodhart




 
 
 

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page