Publicado en Portafolio: http://www.portafolio.co/opinion/otros-columnistas-1/alvaro-j-riascos-villegas-loterias-suicidas-analisis-506630
jueves, 8 de junio de 2017
Loterías Suicidas
Publicado en Portafolio: http://www.portafolio.co/opinion/otros-columnistas-1/alvaro-j-riascos-villegas-loterias-suicidas-analisis-506630
lunes, 13 de junio de 2016
Bienestar Social y Poder de Mercado en el Sector Eléctrico
jueves, 5 de noviembre de 2015
La pobreza del análisis económico de las políticas públicas
Publicado en Portafolio: http://www.portafolio.co/opinion/politicas-publicas-analisis
Hace algunos años escuché al profesor Wynand van de Ven decir, en un seminario de la Universidad de los Andes, que no existía nada más práctico que una buena teoría. El análisis económico de algunas de las políticas públicas en Colombia es un ejemplo alarmante de la falta de una buena teoría para estudiar los problemas económicos. Un caso ejemplar es el reciente debate mediático, mas no académico, sobre los carteles en el país y, principalmente, el presunto ‘cartel’ del azúcar.
Primero, la Superintendencia de Industria y Comercio (SIC) en la Resolución No. 80847 de 2015, que impone sanciones a los ingenios azucareros, ha desconocido que el equilibrio en el mercado del azúcar no es más que la respuesta óptima de los productores a los incentivos creados por los mecanismos de protección amparados en la ley. Los productores de azúcar no acuerdan cuotas como lo sugiere la SIC, cuya evidencia es muy pobre y refleja la carencia de una teoría para pensar sobre el mercado. Si lo que se observa en el mercado son precios internos como los que resultarían bajo competencia monopolística, esto no es porque los productores actúen de forma coordinada, sino porque el mecanismo del Fepa genera los incentivos y señales públicas adecuadas para que cada productor, actuando en función de su propio beneficio e independientemente de los demás, actúe como si hiciera parte de un cartel perfecto, sin serlo. Este es el equilibrio de Nash de este juego. Ahora, algunas observaciones sobre la Resolución: se habla de “equilibrios óptimos”, lo que deja muchas dudas de si saben de qué están hablando. Los equilibrios en situaciones de interacción estratégica son rara vez óptimos. Enfocarse en la dependencia de las fórmulas del Fepa en las participaciones de mercado, es también un error. Las fórmulas fundamentales pueden escribirse como desviaciones del precio promedio de venta de cada ingenio del el precio promedio indicativo del Fepa. En principio, cualquier participación de mercado es un equilibrio, y cuál es el que ellos juegan puede ser más fácil de explicar como un problema de focalización, con base en la historia. Esto es una mejor teoría de por qué las participaciones no varían mucho en vez de utilizar esa observación para decir que hay colusión. Y este no es el único mecanismo del Gobierno que actúa de esta forma (el FEP hace lo mismo).
Segundo, es un elemento esencial de la política de competencia determinar la sanción, y cuando se trata de castigos monetarias, estimar el daño causado de una práctica anticompetitiva. Sobresale la Resolución de la SIC por la ausencia de cualquier análisis en este sentido. La teoría económica está plagada de técnicas para construir escenarios contrafactuales y estimar costos de una forma científica que reflejen los daños y no con base en reglas imposibles de sustentar técnicamente. No tengo nada que decir sobre la obstrucción de importaciones, si las hubo que se multen a los responsables, pero que se estime técnicamente el daño.
Otro punto totalmente ausente de las discusiones es la competencia en el mercado internacional del azúcar. Hace algunos años (2011) hice el siguiente cálculo: en ausencia del Fepa, el precio interno de equilibrio sería el precio de exportación. Con base en la estimación de costos marginales que tenía, el resultado daba que la industria apenas sobreviviría. Un estudio de Abare, en Australia, ‘Sugar: International Policies Affecting Market Expansion’, sugiere que en ausencia de estas políticas proteccionistas en el mundo, el precio sería entre 28 y 41por ciento más alto. Si calculamos el precio promedio al que venden los productores de azúcar en presencia del Fepa y el Sistema Andino de Franjas de Precios, vemos que el precio promedio no es muy distinto a 28 por ciento más alto que el precio de exportación. La conclusión es obvia.
La SIC también desconoce la cadena que va del productor de azúcar al consumidor final. Vale la pena preguntarse si todas las medidas recientes en contra del sector no van a ser nada más que una transferencia de rentas de un sector económico a otro sin ningún beneficio para el consumidor final. Recordemos los objetivos de la política de competencia: promover una competencia sana y no restrictiva en una forma que no reduzca el bienestar social. En este sentido, sobresale la Resolución de la SIC por no hacer ningún tipo de cuantificación del efecto de las políticas sobre el excedente del productor o el del consumidor.
Esto nos lleva a lo fundamental, que no es preguntarse si los productores están actuando correctamente o no, sino, si el mecanismo del Gobierno se justifica y está bien diseñado desde el punto de vista del bienestar social. Sin embargo, no existe ningún estudio al respecto.
En el fondo, esta columna no es más que un llamado a utilizar más la ciencia para guiar nuestras decisiones de políticas públicas y pasarnos a los estudios, teorías y modelos para discutir de forma disciplinada y rigurosa, dejando de lado los medios y las redes sociales para otros menesteres.
sábado, 19 de julio de 2014
Una Evaluación Económica del Mecanismo de Despacho de Compromiso Centralizado en Colombia
|
|
|
Figura
1:
El eje vertical muestra el precio promedio para cada día de la semana en
precios constantes de Diciembre de 2012. La línea verde punteada muestra el
promedio desde que entró en vigencia la resolución 51. La línea punteada
color magenta muestra el promedio simulado en el escenario contrafactual en
ausencia de Resolución. La línea continua azul muestra el promedio observado
con anterioridad a la entrada en vigencia de la Resolución.
|
|
|
|
Figura
2: La
línea punteada magenta muestra el margen promedio (oferta menos costo en
valor constantes de Diciembre de 2012) por hora antes de la resolución 51. La
línea verde lo mismo pero después de la Resolución 51.
|
Figura 3: Precios promedio de contratos bilaterales usuarios no regulados (Unr), usuarios regulados (Ur), usuarios intermedios (Inter.) y todos los usuarios (Todos).
|
viernes, 21 de septiembre de 2012
- Torgo (2007). Resource Bounded Fraud Detection
- Jardine y Sibson (1971). Mathematical Taxonomy.
- Breuning, M. Kriegel, H., NG, R,. y Sander, J (2000). LOF: Identifying density-based local outliers.
- Major y Riedinger (2002). EFD: A Hybrid Knowledge/Statistical – Based System for the Detection of Fraud.
- Deng, X., Roshan, J., Sudjianto, A., Wu, J. Active Learning via Sequential Design with Applications to Detection of Money Laundering.
- Hastie, T., Tibhirani, R., y J. Friedman (2009). The Elements of Statistical Learning: Data Mining, Inference , and Prediction.
- Reshef, D., Reshef, Y., Finucane, H., Grossman, Sh., McVean, G., Turnbaugh., Lander, E., Mitzenmacher, M., y P. Sabeti (2011). Detecting Novel Associations in Large Data Sets.
- Zhu (2006). Semi supervised learning: Literature Review
lunes, 29 de agosto de 2011
¿1+1=3? Sobre el Procedimiento para Calcular Apoyos Válidos de la Registraduría
Como se dio a conocer en los documentos publicados por la Registraduría, de las 75.157 firmas analizadas en el caso de Guerrero, se anularon 28.940 por razones varias diferentes a uniprocedencia (cuando una misma persona firma varias veces). Esto implica que el ejercicio de muestra generó un estimado de la proporción de firmas “inválidas” del 38,51%. Lo que no aparece claramente en los documentos públicos de la Registraduría, pero se pudo dilucidar por un artículo de La Silla Vacía (www.lasillavacia.com/historia/el-registrador-esta-dispuesto-contar-una-una-las-firmas-de-susana-correa-y-rodrigo-guerrero), es que, adicionalmente, la Registraduría seleccionó 3.758 firmas de las 46.217 firmas calificadas como “válidas” tras la revisión de la muestra inicial para realizar un análisis grafológico. No es claro el por qué de este tamaño de muestra. Si tomáramos como universo estas 46.217 firmas “válidas”, se debió seleccionar una muestra de 17.133 firmas para respetar el margen de error de la resolución (como lo muestra la figura anterior). Dado que esta es una submuestra de una muestra aleatoria, el tamaño de la muestra en realidad debería ser mayor. Aunque la resolución no regula sobre el tamaño de la muestra que se debe seleccionar para pruebas de “uniprocedencia”, el tamaño de la muestra seleccionado no permite tener un estimador preciso de las firmas inválidas según el análisis de grafología. El margen de error y confianza asociados a esta muestra para el análisis grafológico no reflejan la intención del artículo 6 de la Resolución 0757 de 2011. Sin embargo, éste no es el peor error cometido por la Registraduría.
martes, 23 de agosto de 2011
La Estadística de la Registraduría Nacional
He hecho mi mejor esfuerzo por entender la técnica estadística plasmada en la Resolución 0757 de La Registrduría (Diario Oficial del 7 de febrero de 2011) para la revisión de firmas para la inscripción de candidatos. Como mínimo tengo que decir que la falta de transparencia y claridad en la descripción de un procedimiento técnico tan importante para los destinos de una ciudad es absolutamente reprochable. Esta nota tiene como objeto analizar y esclarecer el procedimiento y resaltar que no se ha aplicado la norma como debería de ser. La metodología de la Resolución 0757 corresponde a la metodología expuesta en un libro clásico y autoritario en el tema: Cochrane W, 1977. Sampling Techniques. John Wiley & Sons, Inc. Utilizaré los datos del candidato Rodrigo Guerrero, uno de los aspirantes perjudicados, para quién tengo a la mano los resultados oficiales (el caso de Susana Correa es similar pero no tengo los datos oficiales a la mano).
El primer paso de la metodología estadística consignada en la Resolución 0757 (artículo 6) consiste en utilizar una muestra de datos para hacer una estimación de proporciones que tenga un margen de error a lo sumo de 0.5% con un 90% de confianza (en este caso específico se asume normalidad de la variable que mide el número de firmas anuladas o válidas como proporción del universo de apoyos y el cálculo se hace a dos colas).
La primera conclusión es que no existe un universo de datos (apoyos) para los cuales la metodología tenga como consecuencia que se necesita una muestra de 75.157 apoyos como aparentemente dice el documento oficial de la Registraduría que se utilizó como muestra para el caso del Dr. Guerrero (véase Figura 1).
En efecto, si el universo es de 115.250 datos (apoyos) como aparece en el documento oficial, la muestra utilizada debía ser, en ausencia de algún conocimiento preciso sobre la proporción de apoyos válidos en el universo, 21.912 apoyos a revisar. Sin embargo, se revisaron 75.157. Algo totalmente incomprensible a la luz de la Resolución.
Supongamos que por alguna razón la Registraduría decidió utilizar una muestra más grande y utilizó 75.157 apoyos muestreados de forma aleatoria e independiente. El segundo paso cosiste en calcular la varianza del estimador de la proporción (como una demostración más de la ligereza de la Registraduría en este asunto técnico es que la formula de la varianza del Diario Oficial contiene un error sin mayores consecuencia en este caso pero, que sí podría ser determinante en otros casos: en la fórmula de la varianza no se debe dividir por n multiplicado por (N-n) sino por N multiplicado por (n-1)). De nuevo, en ausencia de cualquier conocimiento preciso sobre la proporción verdadera de firmas válidas en la muestra, la varianza es a lo sumo 0.0001%. Ahora se debe calcular la proporción de apoyos anuladas en la muestra que son 29.870 de 75.157 lo que da una proporción, en la muestra, de aproximadamente 39.8%. Ahora se compara la proporción estimada en la muestra 39.8%, con el verdadero valor (proporción de apoyos nulos del universo) más la desviación estándar multiplicada por 1.28 (esto equivale a una prueba de hipótesis al 90% de una sola cola asumiendo normalidad). Técnicamente este segundo cálculo no es posible hacerlo pues no se conoce el verdadero valor mencionado anteriormente pero la Registraduria da instrucciones para hacerlo: Restar del número de datos del universo (115.250) el número mínimo de apoyos requeridos (50.000) y dividir por el número de datos del universo (115.250). Este cálculo da 56.6% y sumando 1.28 veces la desviación estándar calculada anteriormente se obtiene aproximadamente 56.7%. Luego, siguiendo con la metodología de la Resolución, se debe comparar 39.8% con 56.7%. Como el primer número es menor, según la Resolución se deberían de aprobar el listado de firmas. Más aún, en ausencia de volatilidad en la estimación de la proporción de apoyos anulados en la muestra, 39% es menor que 56.6% luego la proporción de apoyos anulados en la muestra es menor que la máxima tolerable en el universo. Es apenas obvio que la Registraduría no está aplicando, o no lo está haciendo correctamente, el análisis estadístico en la Resolución.
El resultado de este ejercicio sumado a las declaraciones del Registrador en la radio elevando a principio elemental de la estadística que entre mayor sea el universo menor puede ser la muestra son una clara ofensa a la inteligencia (no hay tamaño de muestra sin error y nivel de confianza y, si se fijan estos últimos, entre mayor sea el universo mayor debe ser la muestra – véase Figura 1). Por el bien de Cali, debería de reconsiderase los cálculos hechos sin necesidad de pasar a los estrados judiciales y aumentar los ya altos costos sociales de realizar una sana contienda electoral.


