lunes, 24 de julio de 2017

Nuevas métricas para la formación corporativa

"Al final, el no evaluar se está convirtiendo también en un factor de inercia (por si no tuviéramos  pocos)  para no cambiar"

Por Jesús Martínez. Blog Trabajo Colaborativo.- Hace unos días, en la entrada ¿Necesitamos nuevas métricas para la gestión del conocimiento?, concluía que en esta fase en la que se encuentra la gestión del conocimiento, más orgánica, en la cual ya se superaron las etapas en lo que lo importante era el conocimiento explícito depositado en grandes plataformas tecnológicas, las herramientas para medirlo  no  han evolucionado de la misma manera.

Tuvimos la suerte de contar con Javier Martínez Aldanondo que nos vino a decir que si el programa de gestión del conocimiento estaba bien diseñado, debía de responder a un problema concreto detectado que, a su vez, debía estar ligado a un indicador de producción o de mejora de la empresa. Y aquí ya no había más evaluación posible.

La presentación os la podéis bajar desde aquí). Y esta esta foto , tenéis un esquema que la resume.

Es este el mismo planteamiento que aparece en el muy recomendable blog Conversation Matters de Nancy Dixon . Recoge una entrevista al CKO de Microsoft, en el que nos dice básicamente lo mismo que Aldanondo.

Ésta es la pregunta N. Dixon y la respuesta de J.C. Monney  
Recientemente tuve la oportunidad de entrevistar a Jean-Claude Monney , para un proyecto en el que trabajaba para USAID. Él es el CKO de Microsoft Services, la mayor División de Microsoft con más de 22.000 personas. Una de las preguntas que le hice fue:  "¿Conoces la investigación completada o en curso que demuestre el valor o la eficacia de la Gestión del Conocimiento en la entidad?”.

Eficacia
Su sorprendente respuesta fue: “Todo el mundo habla de eficacia como si fuera el Santo Grial.   ¡Es la pregunta incorrecta! KM es clave para proporcionar ideas, por ejemplo, sobre cómo mejorar las ventas y el marketing, pero KM no es el que define el beneficio. No se puede medir el ROI del conocimiento".

Pues bien, también creo que podemos hacer extensiva  la crisis de indicadores de evaluación tradicionales a la formación corporativa. Durante mucho tiempo nos hemos sentido culpables por no haber evaluado suficientemente la formación. Ha habido intentos meritorios de ir más allá de los primeros niveles de Kilpatrick, pero no hemos pasado habitualmente del nivel de asistencia y satisfacción.

Por ello es lícito preguntarnos ¿ al igual que en la gestión del conocimiento podría ser que también estén en crisis  las métricas para evaluar la formación? ¿Hemos de seguir insistiendo poniendo medios y recursos para llegar a los niveles superiores de Kilpatrick? ¿Vale la pena?

Hay una aportación de Robin Hoyle en su obra Informal Learning in Organizations que me ha hecho reflexionar.

Afirma Hoyle que en programas de amplio espectro como son los de aprendizaje informal,  es muy difícil aislar los diferentes componentes que se ponen en juego.  Con ello entiende que no debemos estresarnos por mantener criterios de evaluación estrictos fruto de parámetros organizacionales anteriores. Habla, directamente, de ir a la evaluación del rendimiento. Y, como mucho, de establecer métricas suaves para saber si la salud del programa de aprendizaje informal es la adecuada.

Con lo cual, y siguiendo el razonamiento de Hoyle,  si vamos a escenarios en los que las aportaciones de las propuestas formales son ya sólo una pequeña parte de los aprendizajes totales (escenarios 70 20 10, por ejemplo), ¿tiene sentido aislar programa por programa  para saber cuál es el porcentaje de su aportación al resultado final?

Conseguir objetivos
Quizás,  debamos dedicar más esfuerzos en evaluar bien el rendimiento y confiar en el buen criterio, y la autonomía de las personas, para saber elegir aquello que les ayuda a conseguir sus objetivos profesionales y organizativos.

Es lo que al final, Joaquín Azcue, director de formación de Universitas Telefónica  nos venía a decir, en una visita reciente, cuando le planteamos si seguían los criterios de  KilPatrick para evaluar los programas que desarrollan en su Universidad Corporativa. Nos decía que ya hacía tiempo que se habían olvidado de Kilpatrick y que ahora lo único que les preocupaba era si habían detectado deseo de volver en los participantes.  Si volvían les había sido útil. Lo aprendido les había servido para  mejorar su cuenta de resultados cuando debían de volver a sus áreas de negocio. ¿Acaso importa algo diferente?

No es un planteamiento, como pudiera parecer,  simple.  Creo que debemos seguir reflexionando sobre ello y ser valientes para intentar ir un poco más allá del bucle de no evaluamos porque no tenemos  medios, pero si los tuviéramos, con los ajustes necesarios  a los programas, seguirían siendo útiles ( fruto de la evaluación).


O sea, al final, el no evaluar se está convirtiendo también en un factor de inercia (por si no tuviéramos  pocos)  para no cambiar.

No hay comentarios:

Publicar un comentario