Curated by: Luigi Canali De Rossi
 


21 June 2007

Ciencia Cognitiva: Gestionar Sistemas Complejos – Cuando El Abordaje Lineal No Funciona

Ciencia Cognitiva: Gestionar Sistemas Complejos - Cuando El Abordaje Lineal No Funciona

Wikipedia dice que:

"Hay muchas definiciones de complejidad, por lo tanto muchos objetos o redes naturales, artificiales y abstractos pueden ser considerados sistemas complejos y su estudio (ciencia de la complejidad) es altamente disciplinario. Ejemplos de sistemas complejos incluyen hormigueros, las hormigas mismas, economía humana, clima, sistemas nerviosos, celulas y cosas vivientes, incluyendo seres humanos, como también infraestructuras de electricidad o telecomunicaciones."

complex_network_management.jpg
Photo credit: tasosk

Un sistema complejo es cualquier sistema que está basado en estricta colaboración e interacción: una red, básicamente. ¿Pero cual es la manera correcta de administrar un sistema complejo y hacer que funcione?

En la asistencia medica, los investigadores y consultores que se inician con el tema de la complejidad, a menudo fallan en seguir las implicancias en su trabajo y no son capaces de estimar completamente el grado de cambios necesarios para hacer que funcione en la práctica. La teoría de la complejidad a menudo pierde sentido cuando se aplica en contextos reales.

El artículo que estamos republicando hoy ha sido escrito por Dave Snowden, un experto de ciencia cognitiva quien, partiendo de la discusión de complejidad en los sistemas de asistencia médica, confeccionó una lista de todos los abordajes lineares que no funcionan en complejas situaciones no-lineales, para luego presentar una perspectiva diferente sobre el tema.

 




Entendible "hipocresía"

por Dave Snowden

understandable_hypocrisy_second_image.jpg

La presentación que di hoy se refería al uso de la complejidad en la atención médica . Analicé algunos aspectos básicos, en particular las conexiones con las ciencias cognitivas y el rol de la narrativa. Al final de la sesión presenté un resumen del tipo de cosas que fallan.

Cuando digo que fallan, estoy hacienda mención a los métodos estructurados linealmente que se aplican a situaciones complejas no-lineales, pero también estoy apuntando a investigadores y consultores quienes adoptaron la complejidad y/o narrativa, pero luego fallaron para seguir las implicancias en su trabajo.
El título de este artículo no tiene la intención de ser un ataque per se. La hipocresía es una acusación sería, por eso la coloqué entre comillas y antepuse el termino "entendible". Es muy difícil cambiar si usted ha sido entrenado durante años para utilizar un abordaje en particular.

Incluso si entiende la teoría de la complejidad, la práctica de investigación y consultoría ha sido desarrollada antes que ese conocimiento. Existe por lo tanto el peligro de no entender totalmente el grado de cambio necesario. Este es particularmente el caso con clientes demandantes que quieren saber de antemano que es lo que van a obtener.

Entonces, esta es la lista, con algunas explicaciones...

  1. Creer que su experiencia es más valiosa que el conocimiento de sus temas y que pueden evitar las preconcepciones.

    Demasiados expertos (los investigadores y consultores son igualmente culpables) continúan insistiendo que tienen que entrevistar sujetos en el estudio y sacar conclusiones. Dirán cosas como "Hacemos nuestras sus historias" o "Les permitimos hablar con diferentes voces"

    Hablan de la necesidad de interpretar el material, de deconstruirlo y permitir que se escuchen las voces verdaderas. Algunas veces argumentan que las personas mayores necesitan ser entrevistadas por alguien también mayor para tomar un proyecto seriamente. Por razones que no alcanzo a comprender totalmente, resisten activamente cualquier idea que las historias pueden ser narradas en contexto sin su presencia, o que las personas etiquetando e interpretando sus propias historias proporcionan datos de investigación más ricos y más auténticos que aquellos provistos por el experto.



  2. Buscar imponer el comportamiento o la estructura organizacional.

    He escuchado a mucha gente hablar sobre emergencia, la necesidad de crear una ecología de interacción de agentes y el hecho de que no hay tales cosas como mejores prácticas en un sistema complejo. Luego siguen hablando sobre modelos ideales de comportamiento (implicando tal cosa como mejores prácticas) para empleados y también para lideres.

    Describen la forma ideal de una organización en términos trillados o de consultoría organizacional: abiertos a nuevas ideas, crear una cultura de no echar culpas, etc. Toda su descripción implica que esas cosas pueden ser asignadas, cuando en la práctica evolucionan, no pueden ser definidas o diseñadas, tienen que surgir a través de múltiples interacciones a través del tiempo.



  3. Asumir que un experimento podrá ser repetido a escala o replicado en un contexto diferente.

    El hecho que algo funcione en un contexto (por ejemplo en un hospital en particular) no significa que el resultado pueda ser replicado en otro lugar, incluso aunque fuera regular. No se puede conocer totalmente cada contexto específico y la interacción de agentes en cada contexto será diferente en cada caso.

    Podemos replicar condiciones iniciales y monitorear en búsqueda de patrones emergentes, amortiguando y amplificando de manera acorde su eficacia, pero la replicación del resultado no es posible.

    El investigador o consultor trabajando con complejidad no le hace ningún favor a su cliente siendo indulgente con su necesidad. Es mejor ser honesto y definir las expectativas. Las intervenciones en complejidad crean soluciones singulares contextualmente apropiadas. No replican ni tampoco necesariamente se repiten a escala.



  4. Enfocarse en eficiencia, no en eficacia; pensar en estabilidad en vez de resiliencia.

    Esto es básico. La eficiencia consiste en desembarazarse de funcionalidad superflua, estabilizar el sistema a un estado de equilibrio de modo que se optimiza el rendimiento. Esto está bien siempre y cuando no cambie el contexto. Si lo hace, entonces el tiempo de reacción puede ser demasiado largo. Los sistemas resilientes, por otro lado tienen un grado de redundancia de modo que pueden adaptarse a contextos cambiantes y en consecuencia son más efectivos bajo condiciones dinámicas.



  5. Utilizar objetivos basados en resultados para otras cosas que sistemas ordenados en estado de equilibrio.

    Los resultados implican causalidad y repetibilidad. En un sistema complejo esto no es posible. Cualquier intento para crear un resultado estará sujeto a la ley de las consecuencias no deseadas. Puede tener a lo que había apuntado, pero el sistema se ajusta en maneras que quizás no sean benéficas.

    Por ejemplo, el objetivo de reducir el tiempo en una unidad de emergencias se puede lograr, pero al costo de ocupar camas de guardia (las personas fueron dadas de alta justo antes de la fecha límite fijada) como resultado de lo cual las operaciones tuvieron que ser canceladas. La respuesta clásica es definir un objetivo para las operaciones, pero entonces hay otra consecuencia no deseada. El ciclo de más y más objetivos produce un sistema perverso con tantas medidas que la contextualización e innovación es sofocada en una cultura de culpas.



  6. Utilizar el modelo equivocado de ciencia como evidencia.

    Una política basada en evidencias es correcta, pero si su modelo de evidencia requiere de pruebas por adelantado entonces su modelo de ciencia está encerrado en el siglo pasado. El cambio crítico en un sistema complejo que va del diseño a prueba de fallos a experimentación segura ante los fallos. La evidencia necesita ser enlazada con la experimentación, no con un resultado en un sistema complejo.



  7. Utilizar retrospectiva en vez de previsión.

    Los sistemas complejos son retrospectivamente coherentes. Cualquiera que trabaje en complejidad sabe esto, pero muchos sugieren intervenciones futuras y políticas en el supuesto de que es posible repetir éxitos pasados. El futuro tiene potencial, podemos sentir algo de eso, podemos influenciar su evolución. Podemos aprender de lo que ha sucedido en el pasado. Sin embargo, no podemos usar el pasado para predecir el futuro.



Escrito originalmente por Dave Snowden como "Understandable "hypocrisy"" y publicado el 1 de junio, 2007 en Cognitive Edge.



Sobre el autor

dave_snowden.jpg

Dave Snowden es una figura prominente en el movimiento hacia la integración de abordajes humanísticos al manejo del conocimiento y sensemaking (tener sentido). Su título original es en Filosofía obtenido en la University of Lancaster y también tiene un MBA de la Middlesex University. Es Fundador y Chief Scientific Officer de Cognitive Edge, que se enfoca en el desarrollo de la teoría y práctica del sensemaking.



Photo credits
Network Boxes: Peter Galbraith

Dave Snowden -
Referencia: Cognitive Edge [ Seguir leyendo ]
Si te gustó la nota puedes recibir actualizaciones suscribiéndote via RSS o via email.

O compartirla:
 
 
 
 
Comentar    
blog comments powered by Disqus
 


 

 

 

 

Creative Commons License
This work is licensed under a Creative Commons License.

 

7539


Curated by

Publisher MasterNewMedia.org - New media explorer - Communication designer
Web Analytics