sábado, 7 de agosto de 2010


El Precio de la Anarquía y el Sector Eléctrico Colombiano


Existe una larga tradición en el análisis económico por determinar las condiciones bajos las cuales una asignación o nivel de producción de recursos es eficiente desde un punto de vista social. El concepto de eficiencia que utilizaremos es el concepto clásico de Pareto. Este dice que, una asignación (o nivel de producción) de recursos es eficiente socialmente si no existe una forma alternativa de reasignar los recursos (producir con los mismo insumos) tal que ningún individuo (empresa) de la sociedad empeore (disminuya sus beneficios) y por lo menos unos de ellos mejore. En cierto sentido la historia de la teoría económica es la historia de este problema. Una contribución revolucionaria al problema fue hecha por Agusitne Cournot (1801-1877), matemático y economista Francés ya hace más de 170 años. Cournot estudió un mercado con apenas dos firmas en el cual cada una de ellas, a través de sus acciones, cree tener influencia en la demanda agregada del mercado y consecuentemente en el precio final de venta del bien que venden. Más aún, cada firma lleva en consideración que la acción de la otra tiene un efecto sobre la asignación final y cada firma sabe que la otra sabe esto y así sucesivamente. Este tipo de competencia es lo que denominamos competencia oligopolística para ponerlo en contraste con el caso de competencia perfecta, en el cual cada firma no cree tener, a través de sus acciones, efectos sobre el resultado final. La idea de competencia perfecta resulta más fácilmente racionalizable en el contexto en el que existen muchas firmas compitiendo y, desde el punto de vista agregado, sus acciones individuales son imperceptibles. La visión de Cournot sobre qué debería de ser el resultado de esta interacción entre dos firmas anticipó el marco conceptual moderno, la teoría de juegos, para el estudio de las interacciones estratégicas entre agentes económicos. Este marco conceptual cogió forma con el trabajo de Morgentern y Von Neumann en 1946 y se consolidó como una nueva y promisoria área de la teoría económica con la tesis doctoral de Nash en 1952.
Uno de los aspectos más notables de este análisis ha sido llamar la atención sobre ciertas condiciones bajo las cuales el resultado final de la interacción entre agentes económicos es ineficiente. Este tipo de situaciones se denominan genéricamente en la literatura como fallas del mercado y la teoría de juegos llama la atención sobre algunas condiciones bajo las cuales el comportamiento individualista y óptimo desde el punto de vista privado tiene como consecuencia un resultado ineficiente desde el punto de vista social. El ejemplo clásico es el de Cournot que tiene versiones elementales e igualmente profundas en la teoría de juegos. El prototipo de éstos es el juego del Dilema de los Prisioneros expuesto en prácticamente cualquier libro de divulgación o texto sobre la teoría de juegos. Sin embargo, para efectos de este ensayo vamos a presentar otro ejemplo igualmente diciente del problema, pero más cercano a la realidad de ciertos problemas cotidianos. Este ejemplo se le atribuye a Dietrich Braess, ingeniero civil quien llamo la atención sobre sus características paradójicas a comienzos de los años 50. Considere la figura 1 en la cual se representa esquemáticamente las posibles formas de ir en carro de la ciudad A a la ciudad B utilizando las dos carreteras que se muestran en la figura.



Debido a las características de las mismas, el tiempo que dura el trayecto de A hasta la ciudad intermedia 1 depende del tráfico mientras que, de la ciudad intermedia 1 hasta la ciudad B, es independiente del tráfico y siempre toma la misma cantidad de minutos. De forma similar, el trayecto de A a la ciudad intermedia 2 es independiente del tráfico mientras que de la ciudad intermedia 2 hasta la ciudad B depende del tráfico. No es difícil convencerse que, dado un cierto número de carros que debe viajar desde el A hasta B, si cada uno de ellos tiene conocimiento sobre los detalles mencionados anteriormente y cada uno evalúa de forma independiente e individualista cuál carretera va utilizar, el flujo esperado es que la mitad de los carros utilizarán un trayecto y la otra mitad el otro. Hasta aquí todo parece trivial y la predicción que hemos hecho es natural y representa un “equilibrio” del problema. Concretamente, este es lo que se denomina el equilibrio de Nash del problema. Su característica principal es que una vez tomada estas acciones ningún agente tiene un incentivo unilateral a desviarse. Ahora, supongamos que las autoridades competentes deciden construir una carretera entre las ciudades intermedias 1 y 2 con el fin de mitigar los problemas de congestión de viajar de A a B (véase figura 2).



Más aún, supongamos que el tiempo de desplazamiento entre 1 y 2 es prácticamente cero. Ahora, la pregunta sobre el flujo vehicular esperado dado que cada individuo actúa de forma individual, conocen las características del problema mencionadas y suponen que los demás actúan de la misma forma, requiere un poco más de esfuerzo. Para simplificar un poco la exposición y por razones de espacio, me limito a mencionar que se puede demostrar que el equilibrio de Nash de este problema es tal que es óptimo para todos los conductores usar la ruta A – 1 – 2 – B y que el tiempo de traslado puede aumentar hasta en un 33%. El resultado es sorprendente dado que el número de carros que viaja de A hacia B es exactamente el mismo, y que las mismas rutas que estaban a disposición anteriormente siguen estándolo una vez construida la variante que comunica 1 y 2. En conclusión, el comportamiento individualista en el segundo caso tiene como consecuencia un resultado ineficiente para la sociedad. Este costo en términos de eficiencia como resultado del comportamiento individualista es lo que se conoce en la literatura como el precio de la anarquía o precio de la competencia. El anterior ejemplo no es de ninguna forma una curiosidad matemática. La literatura especializada brinda un gran número de ejemplos en los cuales la clausura de una carretera en una ciudad ha tenido como resultado una disminución importante en los tiempos de recorrido. La misma lógica tiene aplicaciones a problemas de transmisión de datos a través de redes de comunicación y existe una amplia literatura al respecto.

Ahora, obsérvese que el precio de la anarquía en este ejemplo de Braess es sencillo de mitigar en la medida que se identifique el origen del problema dado que la acción a tomar no es particularmente difícil (cerrar una carretera). Sin embargo, en muchos otros problemas de la vida real, el origen del problema es complejo y la solución es en principio imposible de implementar. Tal es el caso en el mercado de generación de energía eléctrica. Dadas las características del bien que se produce, por ejemplo la imposibilidad de almacenarlo, la compra y venta de energía no es posible realizarla en mercados tradicionales como una galería, supermercado, etc. En esto últimos se observan una gran cantidad de competidores, oferentes y demandantes, existen precios a la vista para cada producto y difícilmente un comprador o vendedor de uno de los productos cree tener mediante sus acciones, influencia sobre el precio de los bienes. En el caso del bien energía, el tamaño de las inversiones que requieren las plantas de generación hace que sea natural que existan apenas unos cuantos empresas dedicadas a la producción de este bien. Tradicionalmente este argumento fue utilizado para sugerir que la producción de energía era un monopolio natural y por lo tanto, era el estado el que debería de controlar y asumir su producción. Dada la imposibilidad para un planificador central de determinar las cantidades y precios adecuados para un despacho eficiente es necesario utilizar un mecanismo que mitigue los problemas de asimetría. Una forma de hacer esto es permitir que los agentes compitan por la generación de energía eléctrica y sea mediante un mecanismo competitivo que se determine la asignación del recurso.

El mecanismo que se utiliza en muchas partes del mundo es una subasta denominada subasta uniforme. En ésta, la ofertas de los agentes se ordenan de mayor a menor y se seleccionan como ganadores todos los oferentes que hacen ofertas inferiores al menor valor tal que los ganadores suplan la demanda del sistema. Este valor se denomina el precio de cierre o precio de equilibrio de la subasta y es el valor que se le reconoce por la energía a todos agentes ganadores. Este es el mismo mecanismo con el cual se asignan muchos recursos en las economías modernas incluyendo algunos mercados colombianos. Tal es el caso de la subasta de deuda pública y liquidez que realizan frecuentemente el Banco de la República así como versiones ligeramente distintas de ésta que se usan para vender el espectro electromagnético (Estados Unidos y Reino Unido) y espacios publicitarios (Google). Al igual que en el segundo caso del problema de Braess, el equilibrio Nash resultante en este mercado es ineficiente sin embargo a diferencia del anterior problema, la forma de evitarlo no es completamente trivial. De una parte la planificación centralizada difícilmente puede determinar la forma de producir óptima y de otra parte, qué mecanismo de asignación competitivo utilizar es una pregunta abierta sobre la que se ha escrito mucho. Peor aún es el hecho de que la ineficiencia presente podría ser aún mayor que lo predicho por la teoría y esto debería de llamar la atención del regulador. En efecto, la ineficiencia teórica, el precio de la anarquía, es de alguna forma inevitable, a no ser que se cambie el sistema de asignación por uno comprobadamente más eficiente, pues ésta tiene origen en la interacción individualista de los competidores en el mercado. Luego la pregunta clave es, dado el mecanismo de asignación utilizado, ¿Es el nivel de ineficiencia óptimo desde el punto de vista social o es éste mayor a lo que se esperaría del precio de la anarquía?

Para responder a esta pregunta en un estudio reciente, Miguel Espinosa y Alvaro Riascos en la Universidad de los Andes, han modelado la competencia en el sector como un juego, más precisamente un juego Bayesiano, para determinar cuál es el grado de ineficiencia óptima que debería de existir en el mercado mayorista de energía eléctrica colombiano. El estudio responde a tres preguntas. Primero, ¿Cuál es el grado de ineficiencia de cada una de las plantas individuales que participan en la subasta en comparación con el grado de ineficiencia inevitable debido al costo de la descentralización (precio de la anarquía)? Segundo, dado que la respuesta a esta pregunta depende estrechamente de los costos marginales de generación de cada unidad es importante evaluar hasta que punto tenemos estimativos públicos confiables de los mismos. El problema es aún más complicado en la medida que el principal determinante de los costo marginales son el recursos de generación (gas, carbón o agua). Dado que en Colombia más de dos terceras partes de la generación es hidráulica, es importante llevar en consideración la valoración del agua como un determinante del comportamiento de los agentes generadores. En efecto, a pesar de que el costo marginal del agua es en una primera aproximación cero, su valoración es para los agentes revelada en el mercado mayorista y es con base en ésta que los generadores deciden sus ofertas en la subasta. Luego, para responder a la segunda pregunta tenemos dos alternativas. Por un lado podemos utilizar los costos marginales estimados por el MPODE, programa de optimización utilizado ampliamente en el sector para estimar los costos marginales de generación o, inferir con base en los resultados de la subasta, ofertas, precio de cierre, etc; ¿Cuál es la verdadera valoración que del recurso tienen los generadores? Ésta última se denomina los costos o valoración revelada. La metodología empleada por los autores permite identificar estas valoraciones reveladas y con base en ésta, calcular la diferencia entre las ofertas y los costos revelados y los costos estimados por el MPODE. Finalmente, las consecuencia a nivel individual de la competencia deben traducirse en consecuencias a nivel agregado luego la tercera pregunta que se hacen es ¿Cuál es el costo social, más allá del óptimo, de las ineficiencia a nivel individual y cómo se comparan ésta contra lo que hubiera sido el costo de social de la generación utilizando un mecanismo alterno conocido como el mecanismo de Vickrey Clark y Grooves. Explicar los detalles de este último mecanismo extendería la longitud razonable de este ensayo. Para efectos prácticos basta con decir que esta es una subasta donde ganan los agentes que más bajo ofertan por la generación de la energía eléctrica y pagan no lo que ofertaron, sino la oferta del competidor que por su participación, desplazaron (no pudo ganar). En otras palabras, los agentes pagan de acuerdo a la externalidad que por su participación introducen en el sistema. La teoría dice que con este mecanismo, agentes racionales actuaran de tal forma que en esta subasta revelaran sus verdaderos costos de generación. Los resultados encontrados fueron los siguientes:
Eficiencia individual
Para las plantas termoeléctricas, en promedio, no se encontró evidencia de ineficiencias más allá de lo óptimo. Cuando se clasifican las plantas de acuerdo a su tamaño y recurso de generación se observa que las plantas de gas grandes y las hidroeléctricas pequeñas son más ineficientes que lo que es óptimo. Luego, o bien estas plantas tiene un poder de mercado considerable (por ejemplo las plantas a gas grandes) o el programa MPODE subestima sus verdaderos costos de generación.
Valoración del recurso
Los costos revelados y los estimados con el programa MPODE son similares para plantas termoeléctricas (gas y carbón). En línea con los resultados de eficiencia mencionados anteriormente, los costos revelados en comparación con los estimados mediante el MPODE son mayores para las plantas grandes a gas y las hidroeléctricas pequeñas.
Eficiencia agregada y costos en otros mecanismos
Se reportan tres resultados hipotéticos. En el primero, se estima cuál hubiera sido el costo de generación si lo agentes actuaran de forma óptima de acuerdo a la teoría. Es decir, estos no introdujeran ineficiencias más allá de las inevitables debido a la competencia. En el segundo, se compara cuál hubiera sido el costo agregado de usar un mecanismo de asignación como es el mecanismo de Vickrey Clarke y Grooves (VCG) en el cuál si lo agentes actúan de forma óptima deben revelar sus verdaderos costos marginales o valoración del recurso. En este último ejercicio se pueden considerar dos opciones. En la primera identificamos los costos marginales con los revelados y, en la segunda, se supone que los costos marginales son los calculados por el programa MPODE. La siguiente tabla compara los costos agregados como proporción de los costos reales que fueron observados cada año



En términos generales los resultados llaman la atención sobre la necesidad de estudiar más a fondo las posibles ineficiencias en el mercado de generación de energía eléctrica. De acuerdo a estas estimaciones, las ganancias en términos sociales de producir más eficientemente o de utilizar mecanismos de asignación alternativos pueden ser sustanciales. Por ejemplo, en el 2003, el costo agregado de la ineficiencia en la generación de energía eléctrica fue aproximadamente el 33% del costo total. Finalmente, obsérvese que la metodología utilizada es cuidadosa en llevar en consideración el hecho de que existe un grado de ineficiencia que es inevitable dado el mecanismo actual de asignación. Esto es justamente lo que se denomina el precio de la anarquía o costo de la descentralización. Este costo es el que la economía debe asumir por no poder asignar eficientemente como un planificador central y verse en la obligación de utilizar al según mecanismo de asignación competitivo que presumiblemente es bastante mejor al mecanismo centralizado. Esto contrasta con la mayoría de estudios en la literatura colombiana en donde la ineficiencia se mide como desviaciones de competencia perfecta (costos de generación igual a costos marginales).

miércoles, 26 de mayo de 2010

Detección de Fraude Electoral

La democracia es un abuso de la estadística: a menudo otorga el poder a quién no lo merece
Jorge Luis Borges (1978)

En 1881, el astrónomo Simon Newcomb notó que las páginas de los libros de tablas de logaritmos – para aquellos que aún recuerdan este tipo libros hoy sustituidos por las calculadoras científicas modernas – tenían un mayor desgaste al comienzo que al final del libro. Newcomb sospechó que en el mundo real las personas tenían mayor necesidad de consultar números menores que números mayores. Éste planteó el problema formal sobre la frecuencia con la que los dígitos de un número tomado al azar en el mundo real deberían observarse y propuso una ley para esta frecuencia. En particular, sugirió que el número 1 debería aparecer aproximadamente el 30% de las veces como primer dígito de un número tomado al azar, el número 2 debería aparecer aproximadamente el 17% y así sucesivamente. Curiosamente, Newcomb termina su artículo de dos páginas, titulado Note on the Frequency of Use of the Different Digits in Natural Numbers y publicado en una revista especializada de matemáticas, con una observación aparentemente inocua. Afirma que, probablemente, la comparación de esta frecuencia teórica con la que en realidad se observa en algunos casos del mundo real, debería ser indicativo del grado de “naturalidad” de los datos observados; alternativamente, sus conclusiones apuntaban a que la ausencia de esta frecuencia teórica podría señalar la existencia de datos deliberadamente manipulados, que contienen errores sistemáticos o que presentan cualquier tipo de alteración de su característica “natural”.
Este artículo estuvo condenado al olvido por casi 60 años. En 1938, un físico de la Compañía General Electric, Frank Benford, inició la extenuante labor de recolectar información de por lo menos 20 fuentes distintas tales como el área cubierta por diferentes ríos, pesos atómicos, números en los periódicos, direcciones, tasa de homicidios, etc., consolidando una base de datos de más de 20.000 registros; un esfuerzo notable para una época que no había visto nacer la era de la tecnología de información. Benford estudió cada una de las bases de datos, y la agregación de las mismas, encontrando una sorprendente conformidad de la frecuencia de los dígitos observados con la que sugería Newcomb. Su trabajo llamo la atención de la comunicada científica que vio en este ejercicio una regularidad empírica en busca de una explicación. Como en muchas ocasiones en las ciencias matemáticas, el descubrimiento no quedó asociado al nombre de la primera persona en llamar la atención sobre el mismo, sino a quien lo divulgó en el momento adecuado. Es así como la idea de que los dígitos de números tomados al azar en el mundo real deberían aparecer con las frecuencias que Newcomb sugirió, pasó a ser llamada la Ley de Benford.
El resultado hizo una carrera vertiginosa en la literatura académica como una regularidad empírica que se verificaba en muchas bases de datos derivadas de fenómenos tan diversos como encuestas, precios de acciones, reportes contables, pronósticos, financiación de campañas, elecciones, etc., a pesar de carecer de una explicación intuitiva, simple y satisfactoria para su natural cumplimiento en el mundo real (Véase Figura 1 en donde se analiza la frecuencia del primer dígito para el número de habitantes de todos los países del mundo). Una búsqueda rápida en sistemas especializados de publicaciones académicas arrojan más de 600 resultados asociados a la aplicación de la Ley de Benford. Con los años, ésta se volvió un referente de la forma como las observaciones de los dígitos de datos no manipulados (“naturales”) se deberían observar en el mundo real. No es esta regularidad empírica la única excepción en el mundo científico (por ejemplo, otra bien discutida en la literatura especializada es la ley de Zipf) pero quizás sí una con la mayor diversidad de aplicaciones.







En particular, en el contexto electoral, la Ley de Benford ha comenzado a utilizarse recientemente para detectar anomalías en el conteo electoral de un candidato en diferentes municipios o puestos de votación, en la totalidad de la votación o en la votación de un partido. Por ejemplo, al analizar el primer dígito (o utilizando la ley análoga para el segundo dígito) del conteo de votos de un candidato particular, desviaciones de la frecuencia observada de cada dígito con respecto a la Ley de Benford se interpretan como una anomalía en los datos. La interpretación de esta anomalía es, ciñéndose estrictamente al rigor científico, apenas una sospecha o alerta sobre la naturalidad de la votación (i.e., posible manipulación de los datos). Esta ley aplicada al contexto electoral es apenas un ejemplo del análisis cuantitativo moderno del fraude electoral, literatura que tiene origen en Sobyanin (1993) y su análisis de las elecciones en Rusia.
El análisis forense de las contiendas electorales, como es conocido en la actualidad, tiene como una de sus grandes herramientas el análisis digital del que la Ley de Benford es apenas un ejemplo. Otras herramientas son, por ejemplo, el análisis de dígitos consecutivos. Para ganar un poco de intuición sobre la esencia del análisis digital, considere el análisis de dígitos consecutivos de un número tomado al azar. Se sabe que bajo condiciones muy generales, los dos últimos dígitos de una muestra aleatoria de números tiene una frecuencia uniforme. Es decir, cualquier pareja de dígitos seguidos – incluidas parejas con dígitos repetidos – tiende a aparecer con la misma frecuencia que cualquier otra pareja. Sin embargo, la psicología experimental documenta la predisposición de los seres humanos, en experimentos de laboratorio, a evitar números repetidos cuando éstos son llamados a generar parejas de dígitos de forma aleatoria. Es decir, los seres humanos parecen no reconocer en los números repetidos el mismo grado de aleatoriedad que en números diferentes: si los números en una votación han sido manipulados usando cierta tipología frauduluenta, probablemente no se encontrará con la misma frecuencia dígitos repetidos, como lo dice la teoría, sino, por el contrario, un patrón más acorde al documentado en la literatura del comportamiento humano en psicología.
En un estudio realizado recientemente por la empresa Quantil | Matemáticas Aplicadas y la Universidad de los Andes, Diego Jara, Luis Felipe Parra, Alvaro Riascos y Mauricio Romero aplicaron una forma de análisis digital, la ley de Benford y una técnica de simulación de contiendas electorales – denominada genéricamente en estadística como aprendizaje supervisado – para estudiar algunas elecciones históricas, así como los recientes comicios electorales para definir el Congreso de la República. Los autores dejan claro que el análisis es apenas la aplicación de una técnica que abre las puertas en Colombia al estudio cuantitativo de las elecciones. La metodología como tal sólo pretende generar alertas sobre la posibilidad de fraude o, más precisamente, pretende dar soporte técnico a sospechas de la presencia de alguna anomalía en la votación de un partido, algunos municipios o el agregado, que podrían interpretarse como resultados atípicos a la luz de la teoría. Esta aproximación científica al problema de detección de fraude electoral ha sido utilizada para analizar elecciones en Estados Unidos, Méjico, Rusia, Bangladesh, Ecuador, Venezuela, Puerto Rico, Nicaragua, Armenia, Canadá, Suecia, y Nigeria. De otra parte, la aplicación específica de la Ley de Benford no deja ser polémica y sujeta a críticas científicamente serias. Existe una discusión interesante en la literatura académica sobre la idoneidad del análisis basado en la Ley de Benford para la detección de fraude electoral. Literatura que, por cierto, abre los ojos sobre la necesidad de pensar en el modus operandi mediante el cual en principio se configura el fraude. La metodología basada en aprendizaje supervisado es un primer paso en esa dirección y este estudio es apenas la puerta de entrada a una ciencia apenas en desarrollo.
En el caso colombiano, los autores investigan las elecciones presidenciales de 1922, 1970 y 2006, la elección de alcaldes de Cali del 2007 y las elecciones parlamentarias del 2010 para Cámara en el Valle del Cauca y para Cámara y Senado a nivel nacional. Cualquiera que sea la prevención natural sobre la capacidad de estas metodologías de detectar fraude, los resultados no puede dejar de llamar la atención.
En las elecciones de 1922, un estudio de Leopoldo Fergusson, James Robinson e Isaías Chaves, publicado en los documentos de trabajo del National Bureau of Economic Research en Estados Unidos, documentan mediante un análisis minucioso a nivel municipal la existencia de fraude a favor del conservador Pedro Nel Ospina derrotando así al candidato Liberal Benjamin Herrera. Interesantemente, la aplicación de un análisis digital usando la Ley de Benford en los municipios señalados por ese estudio como sospechosos de fraude, en efecto genera una alerta. Analizando otro caso, las elecciones de 1970 han sido señaladas frecuentemente por diferentes analistas como sospechosas. De hecho, no ha pasado desapercibido para los historiadores colombianos que, en la noche del 19 de abril, fecha de los comicios presidenciales, hasta el último boletín informativo daba como ganador al candidato de la ANAPO, el General Rojas Pinilla; de manera sorpresiva el presidente en ejercicio, Carlos Lleras Restrepo, suspendió la transmisión de información y en la madrugada del siguiente día se proclamaba a Dr. Misael Pastrana como ganador de las elecciones. Con o sin razón, tales elecciones se han catalogado como sospechosas y marcan un hito histórico al haber motivado la fundación del movimiento guerrillero M-19. El análisis digital de estas elecciones usando la Ley de Benford es apenas sugestivo de la existencia de anomalías (Figura 2). Al revisar el primer dígito del conteo de votos para las elecciones agregadas por municipio y separando la votación entre el Dr. Pastrana y el General Rojas Pinilla, se encuentra que tanto la votación agregada como la votación individual del Dr. Pastrana presentan anomalías. En contraste, cuando el análisis se enfoca en la votación de Rojas Pinilla, no se genera ninguna alerta de una anomalía.
De otra parte, la contienda electoral por la presidencia de la república en el 2006 no fue exactamente una elección atípica, por lo menos desde el punto de vista de denuncias de fraude. El análisis digital valida esta hipótesis y no genera ninguna sospecha (Figura 3). En contraste, las elecciones para la Alcaldía de Cali en el 2007 generan una sospecha de fraude en la votación agregada de los candidatos (agregando por puesto electoral).Cuando el análisis se enfoca en los dos principales contrincantes, el ganador y actual Alcalde, el Dr. Jorge Ivan Ospina y su principal contrincante, el Dr. Francisco Jose Lloreda, se encuentra que en la votación del primero se presenta una anomalía (Ley de Benford en el segundo dígito), mientras que la ley se satisface plenamente en el caso de la votación de Lloreda.




Finalmente, el análisis arrojó algunos resultados interesantes para las recientes elecciones a la Cámara en el Valle del Cauca y a la Cámara y Senado a nivel nacional. En el caso de la elecciones a la Cámara 2010 en el Valle del Cauca, la votación de los municipio del Norte del Valle es atípica, tanto en el sentido del análisis digital y como con la utilización de la metodología de análisis supervisado aplicada por los autores. Para las elecciones al Congreso a nivel nacional, Valle y Antioquia presentan anomalías (Figura 4), siendo éstos los dos departamentos con mayor número de reclamos por fraude ante la Registraduría.




Vale la pena repetir que el análisis propuesto no es de ninguna manera una demostración de la existencia de fraude (de hecho no es una condición ni necesaria ni suficiente). Incluso, no es evidente que la presencia de una anomalía sea necesariamente la consecuencia de algún tipo de manipulación perversa, en contraste con otro tipo de anomalías no intencionadas. Las metodologías propuestas son simplemente un apoyo y un mecanismo de generación de alertas que llaman la atención sobre posibles anomalías en la votación que, en caso de evidencia casuística, sugieren una investigación detallada, y que en algunos casos pueden ayudar a priorizar las investigaciones a seguir. El análisis forense de los resultados electorales no es muy distinto al análisis de un crimen en donde la prueba sólo se configura una vez se levanta todo tipo de información y evidencia sobre un caso, se elabora una teoría y se desechan otras. El análisis digital, así como otros tipos de análisis cuantitativos de las elecciones, son apenas parte de esta evidencia.