Posts

Showing posts from March, 2020

¿Puede predecirse la Autocorrelación? ¿Qué relación tiene la volatilidad con la autocorrelación? [MARTIN, JM]

Image
José-Manuel Martin Coronado https://www.linkedin.com/in/jmmartinc Docente principal del Instituto de Econometría de Lima www.institutoeconometria.com Chief Economist en EMECEP Consultoría Macroeconométrica www.emecep-consultoria.com La autocorrelación es uno de los problemas básicos principales de la econometría, después de la normalidad*. No sólo por las consecuencias en las propiedades del estimador MCO ó la estructura del modelo, sino también por el supuesto IID que debería tener toda variable aleatoria, para la aplicación de probabilidades conjuntas.  En términos sencillos la autocorrelación es un problema del modelo, en este caso, de los errores en materia específica, aunque es posible, mediante un análisis exploratorio preventivo, visualizar los factores de riesgo que podrían desencadernar que su modelo deba llevar un tratamiento por autocorrelación.  Cabe precisar que el elemento dinámico puede o no existir en un modelo, pero su presencia per se , no impli

Data Mining, overfitting, patrones y leyes económicas [MARTIN, J.M.]

José-Manuel Martin Coronado Instituto de Econometría de Lima | EMECEP Consultoría www.institutoeconometria.com www.emecep-consultoria.com Lima 08 de marzo de 2020 El Data Mining es un tema muy de moda: Lo ofrecen en diversos cursos, en diversos lugares, en diversos países. Y obviamente es atractivo como tema porque básicamente implica la exploración y el descubrimiento de nuevas cosas a través de la tecnología, computación, entre otros.  Pero lo que no se dice, y es algo muy curioso, es que el Data Mining lo puede hacer, al igual que la minería real, más que todo las máquinas. Es más, las máquinas en principio son más eficientes para hacer el Data Mining que los seres humanos, porque el Data Mining como tal en esencia se trata de encontrar patrones dentro de un cúmulo de datos.  Ahora bien, no necesariamente estos datos pueden ser grandes, porque Data Mining no es lo mismo que Big Data . Este quiere decir que son datos grandes, datos inmensos, en cada segundo, por

La Maximización de la Normalidad y los coeficientes óptimos [MARTIN, J.M]

Image
José-Manuel Martin Coronado Chief Economist EMECEP Consultoría www.emecep-consultoria.com wp-0305-2020-emecep-normalidad La normalidad de los errores es un requisito indispensable para que funcione un modelo MCO, bajo los supuestos de Gauss-Markov. Así mismo, dicha característica permite la coincidencia con el estimador de Máximo Verosimilitud (MV), así como una correcta interpretabilidad de los coeficientes y las pruebas asociadas a éstos.  No obstante, en las clases de econometría básica no se hace mayor énfasis en lo que hay detrás de este requisito básico. Se presenta una prueba y se asume que el alumno es capaz de identificar si es normal o anormal. De ser anormal, tendrá que hacer transformaciones arbitrarias a las variables, usualmente las de tipo logarítmica, presumiendo que es una técnica válida per se .  Si bien los resultados de un modelo de regresión puede ser espurios y/o aleatorios respecto a la coeficientes, existen algunos indicios que pueden ayuda