"Al final, el no evaluar se está convirtiendo también en un factor de inercia (por si no tuviéramos pocos) para no cambiar"
Por Jesús Martínez. Blog Trabajo Colaborativo.- Hace unos días, en la entrada ¿Necesitamos
nuevas métricas para la gestión del conocimiento?, concluía que en
esta fase en la que se encuentra la gestión del conocimiento, más orgánica, en
la cual ya se superaron las etapas en lo que lo importante era el conocimiento
explícito depositado en grandes plataformas tecnológicas, las herramientas para
medirlo no han evolucionado de la misma manera.
Tuvimos la suerte de contar con Javier Martínez Aldanondo
que nos vino a decir que si el programa de gestión del conocimiento estaba bien
diseñado, debía de responder a un problema concreto detectado que, a su vez,
debía estar ligado a un indicador de producción o de mejora de la empresa. Y
aquí ya no había más evaluación posible.
La presentación os la podéis bajar desde aquí).
Y esta esta foto , tenéis un esquema que la resume.
Es este el mismo planteamiento que aparece en el muy
recomendable blog Conversation
Matters de Nancy Dixon . Recoge una entrevista al CKO de Microsoft, en el
que nos dice básicamente lo mismo que Aldanondo.
Ésta es la pregunta N. Dixon y la respuesta de J.C. Monney
Recientemente tuve la oportunidad de entrevistar a Jean-Claude Monney ,
para un proyecto en el que trabajaba para USAID. Él es el CKO de Microsoft
Services, la mayor División de Microsoft con más de 22.000 personas. Una de las
preguntas que le hice fue: "¿Conoces la investigación completada o en curso
que demuestre el valor o la eficacia de la Gestión del Conocimiento en la
entidad?”.
Eficacia
Su sorprendente respuesta fue: “Todo el mundo habla de
eficacia como si fuera el Santo Grial. ¡Es la pregunta incorrecta!
KM es clave para proporcionar ideas, por ejemplo, sobre cómo mejorar las ventas
y el marketing, pero KM no es el que define el beneficio. No se puede medir el
ROI del conocimiento".
Pues bien, también creo que podemos hacer extensiva
la crisis de indicadores de evaluación tradicionales a la
formación corporativa. Durante mucho tiempo nos hemos sentido culpables por no
haber evaluado suficientemente la formación. Ha habido intentos meritorios de
ir más allá de los primeros niveles de Kilpatrick, pero no hemos pasado
habitualmente del nivel de asistencia y satisfacción.
Por ello es lícito preguntarnos ¿ al igual que en la gestión
del conocimiento podría ser que también estén en crisis las métricas para
evaluar la formación? ¿Hemos de seguir insistiendo poniendo medios y recursos
para llegar a los niveles superiores de Kilpatrick? ¿Vale la pena?
Hay una aportación de Robin
Hoyle en su obra Informal Learning in Organizations que me ha hecho
reflexionar.
Afirma Hoyle que en programas de amplio espectro como son
los de aprendizaje informal, es muy difícil aislar los diferentes
componentes que se ponen en juego. Con ello entiende que no
debemos estresarnos por mantener criterios de evaluación estrictos
fruto de parámetros organizacionales anteriores. Habla, directamente, de ir a
la evaluación del rendimiento. Y, como mucho, de establecer
métricas suaves para saber si la salud del programa de aprendizaje
informal es la adecuada.
Con lo cual, y siguiendo el razonamiento de Hoyle, si
vamos a escenarios en los que las aportaciones de las propuestas formales son
ya sólo una pequeña parte de los aprendizajes totales (escenarios 70 20 10, por
ejemplo), ¿tiene sentido aislar programa por programa para saber cuál es
el porcentaje de su aportación al resultado final?
Conseguir objetivos
Quizás, debamos dedicar más esfuerzos en evaluar
bien el rendimiento y confiar en el buen criterio, y la autonomía de las
personas, para saber elegir aquello que les ayuda a conseguir sus objetivos
profesionales y organizativos.
Es lo que al final, Joaquín Azcue, director de
formación de Universitas
Telefónica nos venía a decir, en una visita reciente, cuando le
planteamos si seguían los criterios de KilPatrick para evaluar los
programas que desarrollan en su Universidad Corporativa. Nos decía que ya hacía
tiempo que se habían olvidado de Kilpatrick y que ahora lo único que les
preocupaba era si habían detectado deseo de volver en los
participantes. Si volvían les había sido útil. Lo aprendido les había
servido para mejorar su cuenta de resultados cuando debían de volver a
sus áreas de negocio. ¿Acaso importa algo diferente?
No es un planteamiento, como pudiera parecer, simple.
Creo que debemos seguir reflexionando sobre ello y ser valientes para intentar
ir un poco más allá del bucle de no evaluamos porque no tenemos
medios, pero si los tuviéramos, con los ajustes necesarios a los
programas, seguirían siendo útiles ( fruto de la evaluación).
O sea, al final, el no evaluar se está convirtiendo también
en un factor de inercia (por si no tuviéramos pocos) para no
cambiar.
No hay comentarios:
Publicar un comentario