domingo, 28 de septiembre de 2014

Cuantificación del riesgo (I)


“La gente discrepa más acerca de qué es el riesgo que acerca de su cuantificación”. 
B. Fischhoff [FIS1985]

Y este blog es prueba de ello al tratar el tema de su definición hasta en cinco entradas des de sus inicios apenas hace tres meses. (Y seguiremos con ello)

Los motivos de que ésta sea la tónica también entre los expertos atiende a mi parecer a las siguientes causas:

  • Si no sabemos que debemos medir, es difícil encontrar herramientas que nos ayuden a hacerlo.
  • Es un concepto utilizado en multitud de disciplinas y en cada caso puede tener acepciones con implicaciones diferente.
  • Es filosóficamente muy atractivo al llevar implícito el concepto de incertidumbre.


Y dado que está muy bien debatir, discrepar y razonar acerca de lo que se entiende o debe entenderse por riesgo en cada caso, pero sin olvidar que al final su cuantificación es la que nos proporciona utilidad a la gestión, seguiremos tratando el tema del concepto de riesgo pero empezaremos una serie de posts sobre su cuantificación.

El riesgo al final no es más que un tema de creencias y preferencias, pero en estos dos conceptos hay infinidad de variables. En este sentido, una definición de riesgo que me gusta especialmente, es la dada por Rüdiger Escobar, de la Michigan Technological University, y que a continuación reproduzco ampliada con alguna aportación mía (en azul) para hacerla más global:

Riesgo es la probabilidad (o grado de certeza) X1, de que un sistema vulnerable (o modificable) X2, experimente una pérdida/empeoramiento o ganancia/mejora X3, debido a una amenaza/oportunidad X4, en un contexto espacial X5 y en un periodo de tiempo determinado X6.

Pues bien, esta definición tan elaborada se simplifica expresando al riesgo como una función multivariante del tipo:

R = ƒ (X1, X2, X3, X4, X5, X6)


Pero como apuntan el mismo Fischhoff y colaboradores (1984), el riesgo involucra hechos y valores…y por tanto es inevitablemente…incierto y ambivalente.

Y es aquí donde radica la complejidad del análisis para hacer de la cuantificación del riesgo un trabajo útil.

Dado que como hemos dicho, el análisis de riesgos al final no es más que la combinación de creencias y preferencias cuantificadas, veamos los casos en los que podemos encontrarnos a la hora de abordar dichas cuantificaciones.

En este sentido, en relación a las creencias, el tipo de resultados futuros esperables pueden ser:

a) Los resultados son perfectamente definibles y sus probabilidades son conocidas. Es decir, no puede ser esperable un resultado no contemplado y estos son finitos y contables. En el lanzamiento de un dado (de seis caras con seis valores diferentes, uno en cada cara) los resultados esperables serán 6 y no se puede contemplar que haya más o menos de seis.

En este caso, el grado de certeza que tendremos sobre la ocurrencia de cada resultado posible, se ceñirá estrictamente a las leyes de la probabilidad clásica, y a la confianza de que el dado está perfectamente equilibrado y no trucado. Los resultados y la probabilidad de que se de cada uno de ellos se conoce o puede conocer de forma empírica. La probabilidad se ciñe estrictamente a los conceptos de experimento aleatorio y azar.

b) Los resultados son perfectamente definibles pero sus probabilidades NO son   “universales”. Es decir, no puede ser esperable un resultado no contemplado, estos son finitos y contables pero la probabilidad de que suceda uno u otro no se puede valorar con certeza absoluta. Por ejemplo, ante un partido de fútbol, podemos esperar que nuestro equipo, gane, empate o pierda. No se puede dar otro resultado, pero las probabilidades de cada uno de ellos serán siempre estimaciones, ya que dependen de algo más que del azar.

c) Los resultados no pueden ser exhaustivamente definidos o resulta extremadamente costoso establecer su magnitud de forma discreta, incluyendo que pueda suceder algo no contemplado. Por ejemplo, intentar describir con exactitud el tiempo que hará mañana en cualquier lugar de España y a cualquier hora.

En este caso, el grado de certeza que tendremos sobre la ocurrencia de cada resultado posible se basará en estimaciones, y el grado de exactitud de dichas estimaciones también dependerá de:


  • Como hayamos discretizado todos los resultados posibles imaginables. Por ejemplo podríamos agrupar los posibles estados del tiempo en dos grupos: Bueno y Malo, o en tres (soleado, nublado y lluvioso), o en cuatro…
  • Del tipo de cálculos y/o estimaciones que se hayan hecho para determinar esa probabilidad (modelización, opinión de los habitantes de la zona…
  • De los datos que se hayan utilizado para realizar dichos cálculos (des de la simple observación del cielo a el uso de series temporales de cientos de miles de datos).
d) No podemos definir los resultados o acontecimientos posibles y nos limitamos a suponerlos. Por ejemplo, y llevado al extremo, ante preguntas del tipo ¿Qué pasaría si colisionasen de frente dos coches que viajan a la velocidad de la luz?.

En este caso, el grado de certeza que tendremos sobre la ocurrencia de cada resultado posible, dependerá exclusivamente de la credibilidad que le demos a la persona o personas que han imaginado dichos resultados.

Por otro lado, en relación a las preferencias, o a cómo percibimos que nos puede afectar a nosotros o al objeto de análisis cada resultado, tendremos que tener en cuenta la “realidad” de cada persona. Y entendemos por “realidad”, la conjunción de biología y experiencia de cada persona en un momento y en un contexto determinado.

De este modo, la cuantificación de un riesgo será fruto de la elección del método que mejor se ajuste a cada uno de las combinaciones entre los tipos de eventos descritos y los tipos de personas que valorarán sus consecuencias.

Por ejemplo, par eventos que se encuentran dentro del grupo a), la cuantificación del riesgo se basará en determinar el método más útil para medir el impacto de los resultados sobre un individuo o concepto de análisis, ya que la forma en la que abordar las probabilidades de ocurrencia ya está definida. El método a seleccionar tendrá en cuenta las unidades en las que se expresan las consecuencias y la “biología” de quien las recibe.

Por otro lado, en el caso en el que conozcamos los posibles resultados pero no podamos universalizar su probabilidad de ocurrencia, deberemos seleccionar uno o varios métodos para estimarla. Y en este caso, siempre, entrará en juego la cantidad y calidad de la información disponible. Posteriormente, trataremos como en el caso anterior el tema del “impacto” de las consecuencias.

Para eventos cuyos resultados no puedan ser exhaustivamente relacionados, deberemos generar grupos que se comporten como unidades discretas sobre las que inferenciar probabilidad y consecuencias. Posteriormente procederemos como en el caso anterior.

Y finalmente, en régimen de turbulencia o de desconocimiento total de los resultados y consecuencias futuras, afrontaremos el problema teniendo en cuenta que no podemos resolverlo por procedimientos clásicos o que en caso de hacerlo, la incertidumbre asociada será tan grande que no nos serán de ninguna utilidad las conclusiones que de ellos saquemos.


En posts posteriores entraremos en el detalle de cada una de las combinaciones, pero entendiendo que es estrictamente necesario saber a qué problema nos enfrentamos en cada caso.

Un último apunte. En teoría de las decisiones no es raro encontrar la distinción entre decisiones en ambiente de riesgo y decisiones en ambiente de incertidumbre.

Al tomar decisiones bajo riesgo, lo que se suele convenir es que las opciones están definidas y se conocen las probabilidades de cada resultado, pero se matiza que, no obstante, hay incertidumbre tan solo en tanto que no podemos conocer con exactitud el resultado que seguro se obtendrá en un solo evento de un experimento aleatorio. Es decir, puedo saber que la probabilidad de que salga cara será de 0,5, pero no puedo saber si saldrá cara o cruz.

Por otro lado, se dice que al tomar decisiones bajo incertidumbre, las opciones de los resultados no están definidas y en consecuencia sus probabilidades tampoco se conocen. Es decir, la aleatoriedad suele intervenir tanto en los resultados como en la probabilidad de ocurrencia.

Hago este último comentario porque la nueva perspectiva “conceptual” que se le da al riesgo, lo define como los efectos de la incertidumbre sobre los objetivos. Porque por otro lado, al realizar un análisis de riesgos se puede pedir se acompañe de su preceptivo análisis de la incertidumbre y finalmente, porqué el concepto de incertidumbre lleva asociado su propio debate en cuanto a definición y alcance.

En resumen, la frase de Fischhoff, “La gente discrepa más acerca de qué es el riesgo que acerca de su cuantificación” podría ampliarse perfectamente a “La gente discrepa más acerca de qué es el riesgo y la incertidumbre que acerca de su cuantificación”

martes, 23 de septiembre de 2014

Decisión de automatizar un proceso en una PYME


Decidir si automatizar un proceso o no es una decisión a la que las grandes empresas se han enfrentado con relativa facilidad pero en la que una PYME encontrará más de una dificultad.

Cuando tomamos una decisión lo hacemos en función de aproximaciones heurísticas más que en función de procesamientos de tipo algorítmico.

Es decir, nos fiamos más de nuestras intuiciones que de los cálculos.

Cuando tenemos que decidir sobre automatizar, analizamos principalmente las siguientes variables cuantitativas:
  • Psa = Unidades producidas sin automatización (u)
  • Pca = Unidades producidas con automatización (u)
  • Cia = Coste de la inversión para automatizar
  • Cpsa = Coste de producción sin automatizar (€/u)
  • Cpa = Coste de producción automatizando (€/u)
  • Tai = Tiempo estimado de amortización de la inversión
Por regla general, al automatizar, producimos más y a un coste por unidad menor. Visto esto, basándonos en variables puramente cuantitativas, si hiciéramos un procesamiento algorítmico, y dispusiéramos de los recursos económicos necesarios para acometer la inversión, SIEMPRE se decidiría automatizar.

Pero observamos que, aún disponiendo de los recursos necesarios hay cierta aversión a la automatización o a financiar automatización de procesos. ¿Porqué?

La evolución en la teoría de las decisiones puede ayudarnos a entenderlo.

En teoría de decisiones la evolución en el cómo se toma una decisión siguió las siguientes “fases”.

Se pensó que el decisor perseguía maximizar el valor esperado de una apuesta.

Por ejemplo, en un juego de cara o cruz en el que nos apostemos 10 € a que sale cara, y los perdamos si sale cruz, el valor esperado (EV) del juego sería:

EV = (0,5 *10) + (0,5 *-10) = 0

50% de ganar 10 € (0,5 * 10) ó (+) 50% de perder 10€ (0,5 * -10)

Es decir, si juego infinitas veces, lo normal es que me quede como estaba.

Si ahora el juego consiste en perder 10 € si sale cara pero ganar 100 € si sale cruz, el valor esperado del juego es:

EV = (0,5 * 100) + (0,5 * -10) = 50 – 5 = 45 €

Es decir, si juego infinitas veces, lo normal es que acabe ganando 45 €. De esta forma, siempre deberíamos elegir jugar si lo que buscamos es maximizar el valor esperado, ya que si no juego, el valor esperado es de 10 €, pero si juego, el valor esperado es 45 €.

Pero a mediados del s. XVII, Bernoulli publicó el llamado “juego de la paradoja de San Petersburgo” demostrando que la decisión basada en maximizar el valor esperado no explicaba cualquier comportamiento racional. (ver post anterior)

Nace así la teoría de la utilidad esperada. Es decir, los individuos valoran la utilidad o valor moral de las opciones y no el valor objetivo de las mismas.

De esta forma, se observó, por ejemplo, que la utilidad marginal del dinero disminuye al incrementarse la riqueza.

Pero esta teoría, implica que el comportamiento de los individuos sea racional. Es decir, que la suma de las probabilidades que se asigna a cada opción sea 1, que el individuo sea coherente en el orden de las preferencias, que si se da una de las opciones, el decisor tenga el convencimiento de que no puede darse ninguna otra…

Así, este tipo de decisiones, implican que el decisor debe tener un grado de conocimiento sobre las opciones, sus probabilidades y la magnitud de sus consecuencias, tales que le permitan ser racional.

Pero, como señaló Herbert Simon en 1955, en su “Bounded Rationality”:

“Ya que los agentes reales no pueden maximizar, debido a que su racionalidad y conocimiento es limitado, se limitan a satisfacer”.

Ante esta situación, en la que se decide habitualmente en ambiente de incertidumbre, nos encontramos con tres tipos de decisores:

  • El averso al riesgo: prefiere una cantidad segura a un riesgo con consecuencias futuras cuyo valor sea igual o mayor al seguro
  • El tomador de riesgos: prefiere un riesgo con consecuencias futuras cuyo valor sea igual o mayor al de una cantidad segura sin tomar el riesgo.
  • El neutral al riesgo: si es indiferente entre una apuesta y su valor esperado.


     Pero al no conocerse con exactitud las probabilidades de ocurrencia y en muchas ocasiones ni tan siquiera los posibles resultados, decidir entre valor seguro y riesgo no es un juego matemático. Es decir, la incertidumbre estará siempre presente y no será posible el agente que pueda actuar de forma perfectamente racional.

En este sentido, Tversky y Kahneman (1973) describieron que, bajo incertidumbre, el juicio humano realiza aproximaciones heurísticas y no un procesamiento de tipo algorítmico. Los heurísticos son procedimientos rápidos para estimar probabilidades o tomar decisiones, que se activan de manera automática, con poco gasto de recursos atencionales.

Estos heurísticos pueden conducir a sesgos o errores sistemáticos, es decir, una tendencia a tener en cuenta factores irrelevantes o ignorar factores relevantes.

Nace así la teoría prospectiva, en la que las probabilidades objetivas son reemplazadas por el peso de decisiones subjetivas y la función de utilidad es reemplazada por la función de valor que es definida sobre los cambios en la riqueza más que en el estado final propiamente dicho.

Los primeros heurísticos que identificaron, y a mi parecer, los más potentes son:

El de representatividad: consiste en evaluar la probabilidad de un suceso incierto o una muestra, en la medida en la que sus propiedades se parecen a las de su posible población origen. Es decir, si la automatización de un proceso concreto ha hecho mejorar el sector en el que trabajo, es más probable que piense que la automatización de ese proceso concreto en mi empresa mejorará mis resultados. (aunque es posible que, en mi empresa, sea mejor automatizar antes otros procesos)

El de disponibilidad: consiste en evaluar la probabilidad de un suceso en base a la facilidad con la que nos vienen a la mente casos y ejemplos. Parecido al de antes. Si hace poco mi competencia ha automatizado un proceso y han mejorado sus resultados, aunque la automatización no haya tenido una incidencia directa, estaré más predispuesto a automatizar ese proceso.

De este modo podemos concluir que:

Ante la decisión de automatizar un proceso, si solo nos fijamos en el valor esperado, cometeremos errores. No es una cuestión de simples sumas y restas.

Si queremos basarnos en la utilidad esperada, el grado de certeza requerido implica un exhaustivo análisis de los parámetros que condicionan la actual y la potencial cuenta de explotación. Esto nos permitiría ser racionales en nuestra decisión, pero para ello, deberíamos conocer una gran cantidad de información que en gran medida siempre será incierta.

Y finalmente, si dejamos la decisión en manos de un decisor fuertemente condicionado por los heurísticos, es fácil que nos equivoquemos de proceso.

En mi opinión, la decisión debería basarse en:
  • Un análisis de las variables cuantificables y medibles
  • Una identificación de los heurísticos de representatividad y disponibilidad que puedan tener incidencia sobre el decisor y condicionar su elección aportando sesgo a sus valoraciones
  • Una justificación de la elección del proceso a automatizar y la forma de hacerlo.
En posteriores posts analizaremos los riesgos asociados a la decisión de automatizar un proceso.