A RIMA significa Autoregressive Integrated Moving Average modelos. Univariante (vector único) ARIMA es una técnica de previsión que proyecta los valores futuros de una serie basada enteramente en su propia inercia. Su aplicación principal es en el área de pronósticos a corto plazo que requieren al menos 40 puntos de datos históricos. Funciona mejor cuando los datos muestran un patrón estable o consistente en el tiempo con una cantidad mínima de valores atípicos. A veces llamado Box-Jenkins (después de los autores originales), ARIMA suele ser superior a las técnicas de suavización exponencial cuando los datos son razonablemente largos y la correlación entre las observaciones pasadas es estable. Si los datos son cortos o muy volátiles, entonces algún método de suavizado puede funcionar mejor. Si usted no tiene por lo menos 38 puntos de datos, debe considerar algún otro método que ARIMA. El primer paso para aplicar la metodología ARIMA es verificar la estacionariedad. La estacionariedad implica que la serie permanece a un nivel bastante constante en el tiempo. Si existe una tendencia, como en la mayoría de las aplicaciones económicas o de negocios, sus datos NO son estacionarios. Los datos también deben mostrar una variación constante en sus fluctuaciones en el tiempo. Esto se ve fácilmente con una serie que es muy estacional y que crece a un ritmo más rápido. En tal caso, los altibajos en la estacionalidad se harán más dramáticos con el tiempo. Sin que se cumplan estas condiciones de estacionariedad, no se pueden calcular muchos de los cálculos asociados con el proceso. Si un gráfico gráfico de los datos indica nonstationarity, entonces usted debe diferenciar la serie. La diferenciación es una excelente forma de transformar una serie no estacionaria en una serie estacionaria. Esto se hace restando la observación en el período actual a la anterior. Si esta transformación se realiza sólo una vez en una serie, se dice que los datos se han diferenciado por primera vez. Este proceso esencialmente elimina la tendencia si su serie está creciendo a una tasa bastante constante. Si está creciendo a un ritmo creciente, puede aplicar el mismo procedimiento y diferenciar los datos de nuevo. Sus datos entonces serían segundos diferenciados. Las autocorrelaciones son valores numéricos que indican cómo una serie de datos se relaciona a sí misma con el tiempo. Más precisamente, mide cuán fuertemente están correlacionados los valores de datos en un número específico de períodos separados entre sí a lo largo del tiempo. El número de períodos separados se llama generalmente el retraso. Por ejemplo, una autocorrelación en el retardo 1 mide cómo los valores 1 período aparte están correlacionados entre sí a lo largo de la serie. Una autocorrelación en el retraso 2 mide cómo los datos dos períodos aparte están correlacionados a lo largo de la serie. Las autocorrelaciones pueden variar de 1 a -1. Un valor próximo a 1 indica una alta correlación positiva, mientras que un valor cercano a -1 implica una correlación negativa alta. Estas medidas se evalúan con mayor frecuencia a través de tramas gráficas llamadas correlagramas. Un correlagrama traza los valores de autocorrelación para una serie dada con diferentes retardos. Esto se conoce como la función de autocorrelación y es muy importante en el método ARIMA. La metodología ARIMA intenta describir los movimientos en una serie temporal estacionaria como una función de lo que se llaman parámetros de media móvil y autorregresiva. Estos parámetros se denominan parámetros AR (autoregessivos) y MA (medias móviles). Un modelo de AR con un solo parámetro se puede escribir como. X (t) A (1) X (t-1) E (t) donde X (t) serie temporal bajo investigación A (1) el parámetro autorregresivo de orden 1 X (t-1) (T) el término de error del modelo Esto simplemente significa que cualquier valor dado X (t) puede explicarse por alguna función de su valor anterior, X (t-1), más algún error aleatorio inexplicable, E (t). Si el valor estimado de A (1) fue de 0,30, entonces el valor actual de la serie estaría relacionado con 30 de su valor hace 1 período. Por supuesto, la serie podría estar relacionada con más de un valor pasado. Por ejemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Esto indica que el valor actual de la serie es una combinación de los dos valores inmediatamente anteriores, X (t-1) y X (t-2), más algún error aleatorio E (t). Nuestro modelo es ahora un modelo autorregresivo de orden 2. Modelos de media móvil: Un segundo tipo de modelo de Box-Jenkins se denomina modelo de media móvil. Aunque estos modelos parecen muy similares al modelo de AR, el concepto detrás de ellos es muy diferente. Los parámetros de la media móvil relacionan lo que sucede en el período t sólo con los errores aleatorios que ocurrieron en períodos de tiempo pasados, es decir, E (t-1), E (t-2), etc., en lugar de X (t-1), X T-2), (Xt-3) como en los enfoques autorregresivos. Un modelo de media móvil con un término MA puede escribirse como sigue. El término B (1) se denomina MA de orden 1. El signo negativo frente al parámetro se utiliza para convención solamente y normalmente se imprime La mayoría de los programas de ordenador. El modelo anterior simplemente dice que cualquier valor dado de X (t) está directamente relacionado solamente al error aleatorio en el período anterior, E (t-1), y al término de error actual, E (t). Como en el caso de modelos autorregresivos, los modelos de media móvil pueden extenderse a estructuras de orden superior que abarcan diferentes combinaciones y longitudes móviles. La metodología ARIMA también permite la construcción de modelos que incorporen parámetros tanto de autorregresión como de media móvil. Estos modelos se refieren a menudo como modelos mixtos. Aunque esto hace que sea una herramienta de pronóstico más complicada, la estructura puede simular mejor la serie y producir un pronóstico más preciso. Los modelos puros implican que la estructura consiste solamente en los parámetros AR o MA - no ambos. Los modelos desarrollados por este enfoque usualmente se llaman modelos ARIMA porque usan una combinación de autoregresión (AR), integración (I), que se refiere al proceso inverso de diferenciación para producir las operaciones de predicción y de media móvil (MA). Un modelo de ARIMA se indica generalmente como ARIMA (p, d, q). Esto representa el orden de los componentes autorregresivos (p), el número de operadores de diferenciación (d) y el orden más alto del término medio móvil. Por ejemplo, ARIMA (2,1,1) significa que usted tiene un modelo autorregresivo de segundo orden con un componente de media móvil de primer orden cuya serie se ha diferenciado una vez para inducir la estacionariedad. Elegir la especificación correcta: El principal problema en el clásico Box-Jenkins es tratar de decidir qué especificación ARIMA utilizar-i. e. Cuántos AR y / o MA parámetros para incluir. Esto es lo que gran parte de Box-Jenkings 1976 se dedicó al proceso de identificación. Dependía de la eva - luación gráfica y numérica de las funciones de autocorrelación de la muestra y de autocorrelación parcial. Bueno, para sus modelos básicos, la tarea no es demasiado difícil. Cada uno tiene funciones de autocorrelación que se ven de cierta manera. Sin embargo, cuando se sube en complejidad, los patrones no se detectan tan fácilmente. Para hacer las cosas más difíciles, sus datos representan sólo una muestra del proceso subyacente. Esto significa que los errores de muestreo (valores atípicos, errores de medición, etc.) pueden distorsionar el proceso teórico de identificación. Por eso el modelado ARIMA tradicional es un arte más que una ciencia. Simulación media móvil en movimiento (First Order) DETALLES La demostración se establece de tal manera que la misma serie aleatoria de puntos se utiliza independientemente de las constantes y varía. Sin embargo, cuando se pulsa el botón quotrandomizequot, se generará y utilizará una nueva serie aleatoria. Mantener la serie aleatoria idéntica permite al usuario ver exactamente los efectos en la serie ARMA de cambios en las dos constantes. La constante se limita a (-1,1) porque la divergencia de la serie ARMA resultados cuando. La demostración es sólo para un proceso de primer orden. Los términos AR adicionales permitirían generar series más complejas, mientras que los términos MA adicionales aumentarían el suavizado. Para una descripción detallada de los procesos ARMA, véase, por ejemplo, G. Box, G. M. Jenkins y G. Reinsel, Análisis de series temporales: predicción y control. 3ª ed. Englewood Cliffs, NJ: Prentice-Hall, 1994. ENLACES RELACIONADOS La documentación es la media incondicional del proceso, y x03C8 (L) es un polinomio racional de operador de retardo de grado infinito, (1 x03C8 1 L x03C8 2 L 2 x 2026). Nota: La propiedad Constant de un objeto modelo arima corresponde a c. Y no la media incondicional 956. Por la descomposición de Wolds 1. La ecuación 5-12 corresponde a un proceso estocástico estacionario siempre que los coeficientes x03C8 i sean absolutamente sumables. Este es el caso cuando el polinomio AR, x03D5 (L). es estable . Lo que significa que todas sus raíces están fuera del círculo unitario. Adicionalmente, el proceso es causal siempre que el polinomio MA sea invertible. Lo que significa que todas sus raíces están fuera del círculo unitario. Econometrics Toolbox refuerza la estabilidad y la invertibilidad de los procesos ARMA. Cuando se especifica un modelo ARMA utilizando arima. Se obtiene un error si se introducen coeficientes que no corresponden a un polinomio AR estable oa un polinomio MA inversible. De forma similar, la estimación impone restricciones de estacionariedad e invertibilidad durante la estimación. Referencias 1 Wold, H. Un estudio en el análisis de series de tiempo estacionarias. Uppsala, Suecia: Almqvist amp Wiksell, 1938. Seleccione su modelo de media móvil de origen (ARMA) Modelo de predicción o proceso en el que tanto el análisis de autorregresión como los métodos de media móvil se aplican a datos de series temporales bien comportadas. ARMA asume que la serie temporal es estacionaria-fluctúa más o menos uniformemente alrededor de una media invariable en el tiempo. Las series no estacionarias necesitan ser diferenciadas una o más veces para lograr la estacionariedad. Los modelos ARMA se consideran inadecuados para el análisis de impacto o para datos que incorporan choques aleatorios. Véase también modelo de media móvil integrada autoregresiva (ARIMA). El mejor de BusinessDictionary, entregado cotidiano comunismo hipótesis fascismo variable independiente método científico fotosíntesis modo la cultura ingreso bruto gama ética arbitraria media globalización población perspectiva bacteria epifanía iniciativa sinopsis Tradicional vs Universidades en línea - Cuál es la diferencia Consejos para iniciar un negocio exitoso sitio web Cómo pueden las pequeñas empresas Utilice el Viernes Negro a su ventaja Cómo encontrar un nuevo trabajo Guía de Six Sigma para la formación y certificación Fuentes de financiación para su inicio Doula vs partera Cómo comprar bienes raíces comerciales Copyright copy 2016 WebFinance Inc. Todos los derechos reservados. Modelos de análisis de series de tiempo - Parte 2 Por Michael Halls-Moore el 24 de agosto de 2015 En la Parte 1 se consideró el modelo de orden auto-regresivo P, también conocido como el modelo AR (p). Lo presentamos como una extensión del modelo de caminata aleatoria en un intento de explicar la correlación serial adicional en series de tiempo financieras. En última instancia, nos dimos cuenta de que no era lo suficientemente flexible para capturar verdaderamente toda la autocorrelación en los precios de cierre de Amazon Inc. (AMZN) y el SampP500 US Equity Index. La razón principal de esto es que ambos de estos activos son condicionalmente heteroskedastic. Lo que significa que son no estacionarias y tienen períodos de variación variable o agrupación de volatilidad, lo que no es tenido en cuenta por el modelo AR (p). En los futuros artículos, finalmente, construiremos los modelos ARREM, así como los modelos condicionalmente heteroscédticos de las familias ARCH y GARCH. Estos modelos nos proporcionarán nuestros primeros intentos realistas de pronosticar los precios de los activos. En este artículo, sin embargo, vamos a introducir el promedio móvil de orden q modelo, conocido como MA (q). Este es un componente del modelo ARMA más general y, como tal, necesitamos entenderlo antes de seguir avanzando. Le recomiendo que lea los artículos anteriores en la colección de Análisis de series de tiempo si no lo ha hecho. Todos se pueden encontrar aquí. Motivación media (MA) Modelos de orden q Justificación Un modelo de media móvil es similar a un modelo autorregresivo, excepto que en lugar de ser una combinación lineal de valores de series temporales pasadas, es una combinación lineal de los últimos términos de ruido blanco. Intuitivamente, esto significa que el modelo MA ve tales choques de ruido blanco aleatorios directamente en cada valor actual del modelo. Esto es en contraste con un modelo de AR (p), donde los choques de ruido blanco sólo se ven indirectamente. Vía regresión a términos previos de la serie. Una diferencia clave es que el modelo MA sólo verá los últimos q choques para cualquier modelo MA (q) particular, mientras que el modelo AR (p) tomará en cuenta todos los shocks anteriores, aunque de una manera decreciente y débil. Definición Matemáticamente, el MA (q) es un modelo de regresión lineal y está estructurado de forma similar a AR (p): Modelo de orden móvil de orden q Un modelo de serie temporal,, es un modelo de media móvil de orden q. MA (q), si: begin xt wt beta1 w ldots betaq w Dónde está el ruido blanco con E (wt) 0 y variance sigma2. Si consideramos al operador de cambio hacia atrás. (Ver un artículo anterior), entonces podemos reescribir lo anterior como una función phi de: begin xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Hacemos uso de la función phi en artículos posteriores. Propiedades de segundo orden Como con AR (p), la media de un proceso MA (q) es cero. Esto es fácil de ver, ya que la media es simplemente una suma de medios de términos de ruido blanco, que son todos ellos mismos cero. Comienza el texto enspace mux E (xt) suma E (wi) 0 fin comienza el texto enspace sigma2w (1 beta21 ldots beta2q) final texto enspace rhok izquierda 1 texto enspace k 0 suma betai beta / sumq beta2i texto enspace k 1, ldots, q 0 Texto enspace k gt q final derecho. Donde beta0 1. Ahora vamos a generar algunos datos simulados y utilizarlo para crear correlogramas. Esto hará que la fórmula anterior sea algo más concreta. Simulaciones y Correlogramas MA (1) Comencemos con un proceso MA (1). Si establecemos beta1 0.6 obtenemos el siguiente modelo: Como con los modelos AR (p) del artículo anterior, podemos usar R para simular tal serie y luego trazar el correlograma. Dado que hemos tenido mucha práctica en la serie anterior de series de análisis de series de series de realizar parcelas, escribiré el código R en su totalidad, en lugar de dividirlo: La salida es la siguiente: Como vimos anteriormente en la fórmula para rhok , Para k gt q, todas las autocorrelaciones deben ser cero. Puesto que q 1, deberíamos ver un pico significativo en k1 y luego picos insignificantes posteriores a eso. Sin embargo, debido al sesgo de muestreo debemos esperar ver 5 (marginalmente) picos significativos en un gráfico de autocorrelación de la muestra. Esto es precisamente lo que nos muestra el correlograma en este caso. Tenemos un pico significativo en k1 y luego picos insignificantes para k gt 1, excepto en k4 donde tenemos un pico marginalmente significativo. De hecho, esta es una forma útil de ver si un modelo de MA (q) es apropiado. Tomando una mirada en el correlogram de una serie particular podemos ver cuántos retrasos secuenciales no diferentes existen. Si q tales retrasos existen entonces podemos intentar legítimamente ajustar un modelo de MA (q) a una serie particular. Dado que tenemos pruebas de nuestros datos simulados de un proceso de MA (1), ahora vamos a tratar de ajustar un modelo MA (1) a nuestros datos simulados. Desafortunadamente, no hay un comando ma equivalente al comando ar de modelo autorregresivo en R. En su lugar, debemos usar el comando arima más general y establecer los componentes autoregresivos e integrados a cero. Hacemos esto creando un 3-vector y poniendo a cero los dos primeros componentes (los parámetros auto - gresivos e integrados, respectivamente): Recibimos algunos resultados útiles del comando arima. En primer lugar, podemos ver que el parámetro ha sido estimado como hat 0.602, que está muy cerca del verdadero valor de beta1 0.6. En segundo lugar, los errores estándar ya están calculados para nosotros, por lo que es sencillo calcular los intervalos de confianza. En tercer lugar, recibimos una varianza estimada, log-verosimilitud y criterio de información Akaike (necesario para la comparación de modelos). La principal diferencia entre arima y ar es que arima estima un término de intercepción porque no resta el valor medio de la serie. Por lo tanto, debemos tener cuidado al realizar predicciones usando el comando arima. Bueno volver a este punto más tarde. Como una comprobación rápida se va a calcular los intervalos de confianza para hat: Podemos ver que el intervalo de confianza 95 contiene el verdadero valor de parámetro de beta1 0,6 y por lo que podemos juzgar el modelo un buen ajuste. Obviamente esto debería esperarse ya que simulamos los datos en el primer lugar Cómo cambian las cosas si modificamos el signo de beta1 a -0.6 Lets realizar el mismo análisis: La salida es la siguiente: Podemos ver que en k1 tenemos un significado Pico en el correlograma, excepto que muestra correlación negativa, como se espera de un modelo MA (1) con primer coeficiente negativo. Una vez más todos los picos más allá de k1 son insignificantes. Permite ajustar un modelo MA (1) y estimar el parámetro: hat -0.730, que es una pequeña subestimación de beta1 -0.6. Finalmente, podemos calcular el intervalo de confianza: Podemos ver que el verdadero valor de parámetro de beta1-0.6 está contenido dentro del intervalo de confianza de 95, proporcionando evidencia de un buen ajuste de modelo. MA (3) Permite ejecutar el mismo procedimiento para un proceso MA (3). Esta vez debemos esperar picos significativos en k en, y picos insignificantes para k gt 3. Vamos a utilizar los siguientes coeficientes: beta1 0,6, beta2 0,4 y beta 3 0,2. Permite simular un proceso MA (3) a partir de este modelo. Ive aumentó el número de muestras al azar a 1000 en esta simulación, lo que hace más fácil ver la verdadera estructura de autocorrelación, a expensas de hacer la serie original más difícil de interpretar: La salida es la siguiente: Como era de esperar los primeros tres picos son significativos . Sin embargo, también lo es la cuarta. Pero podemos sugerir legítimamente que esto puede deberse a un sesgo de muestreo, ya que esperamos ver 5 de los picos que son significativos más allá de kq. Permite ahora ajustar un modelo MA (3) a los datos para intentar y estimar parámetros: Las estimaciones hat 0.544, hat 0.345 y hat 0.298 están cerca de los valores verdaderos de beta10.6, beta20.4 y beta30.3, respectivamente. También podemos producir intervalos de confianza usando los respectivos errores estándar: En cada caso los 95 intervalos de confianza contienen el verdadero valor del parámetro y podemos concluir que tenemos un buen ajuste con nuestro modelo MA (3), como es de esperar. Datos Financieros En la Parte 1 consideramos a Amazon Inc. (AMZN) y el SampP500 US Equity Index. Se ajustó el modelo AR (p) a ambos y se encontró que el modelo no era capaz de capturar efectivamente la complejidad de la correlación serial, especialmente en el elenco de la SampP500, donde los efectos de memoria larga parecen estar presentes. No trazaré las cartas otra vez para los precios y la autocorrelación, en vez de enfermo referiré usted al poste anterior. Amazon Inc. (AMZN) Comencemos por intentar ajustar una selección de modelos MA (q) a AMZN, es decir, con q in. Como en la Parte 1, use bien cuánmod para descargar los precios diarios de AMZN y luego convertirlos en un registro devuelve la corriente de los precios de cierre: Ahora que tenemos el flujo de devoluciones de log podemos usar el comando arima para ajustar MA (1), MA (2) y MA (3) modelos y luego estimar los parámetros de cada uno. Para MA (1) tenemos: Podemos representar gráficamente los residuos de los retornos diarios del registro y del modelo ajustado: Obsérvese que tenemos picos significativos en los retrasos k2, k11, k16 y k18, indicando que el modelo MA (1) es Poco probable que sea un buen ajuste para el comportamiento de las devoluciones de registro AMZN, ya que esto no parece una realización de ruido blanco. Vamos a intentar un modelo MA (2): Ambas estimaciones de los coeficientes beta son negativas. Vamos a trazar los residuos una vez más: Podemos ver que hay casi autocorrelación cero en los primeros retrasos. Sin embargo, tenemos cinco picos marginalmente significativos en los retrasos k12, k16, k19, k25 y k27. Esto es sugerente que el modelo MA (2) está capturando una gran parte de la autocorrelación, pero no todos los efectos de memoria larga. Qué tal un modelo MA (3) Una vez más, podemos trazar los residuos: El gráfico de los residuos MA (3) parece casi idéntico al del modelo MA (2). Esto no es sorprendente, al igual que la adición de un nuevo parámetro a un modelo que ha explicado aparentemente gran parte de las correlaciones en los rezagos más cortos, pero que no tendrá mucho de un efecto en los retrasos a más largo plazo. Toda esta evidencia es sugestiva del hecho de que un modelo de MA (q) es poco probable que sea útil para explicar toda la correlación serial en forma aislada. Al menos para AMZN. SampP500 Si usted recuerda, en la Parte 1 vimos que el primer orden diferenciado diaria log devuelve estructura de la SampP500 poseía muchos picos significativos en varios rezagos, tanto corto como largo. Esto proporcionó evidencia tanto de heterocedasticidad condicional (es decir, agrupación de volatilidad) como de efectos de memoria larga. Esto nos lleva a concluir que el modelo AR (p) era insuficiente para capturar toda la autocorrelación presente. Como vimos arriba el modelo de MA (q) fue insuficiente para capturar la correlación serial adicional en los residuos del modelo ajustado a la serie de precios diarios diferenciados de primer orden. Ahora intentaremos ajustar el modelo MA (q) al SampP500. Uno podría preguntar por qué estamos haciendo esto es si sabemos que es poco probable que sea un buen ajuste. Esta es una buena pregunta. La respuesta es que necesitamos ver exactamente cómo no es un buen ajuste, porque este es el proceso final que seguiremos cuando encontremos modelos mucho más sofisticados, que son potencialmente más difíciles de interpretar. Comencemos por la obtención de los datos y la conversión a una serie de primer orden diferenciado de los precios de cierre diario logarítmicamente transformado como en el artículo anterior: Ahora vamos a ajustar un modelo MA (1), MA (2) y MA (3) para La serie, como lo hicimos anteriormente para AMZN. Comencemos con MA (1): Vamos a hacer una gráfica de los residuos de este modelo ajustado: El primer pico significativo se produce en k2, pero hay muchos más en k en. Esto claramente no es una realización de ruido blanco y por lo tanto debemos rechazar el modelo MA (1) como un buen ajuste potencial para el SampP500. (2) Una vez más, vamos a hacer una gráfica de los residuos de este modelo ajustado MA (2): Mientras que el pico en k2 ha desaparecido (como esperamos), todavía nos quedan con los picos significativos en Muchos retrasos más largos en los residuos. Una vez más, encontramos que el modelo MA (2) no es un buen ajuste. Deberíamos esperar, para el modelo MA (3), ver menos correlación serial en k3 que para la MA (2), pero una vez más también debemos esperar ninguna reducción en retrasos adicionales. Por último, vamos a hacer un gráfico de los residuos de este modelo instalado MA (3): Esto es precisamente lo que vemos en el correlograma de los residuos. Por lo tanto el MA (3), al igual que con los otros modelos anteriores, no es un buen ajuste para el SampP500. Próximos Pasos Hemos examinado ahora dos modelos de series temporales importantes en detalle, a saber, el modelo Autogressivo de orden p, AR (p) y luego Promedio Móvil de orden q, MA (q). Hemos visto que ambos son capaces de explicar algunos de la autocorrelación en los residuos de primer orden diferenciado diario de los precios de registro de las acciones y los índices, pero la volatilidad de agrupación y de larga memoria efectos persisten. Es finalmente el momento de dirigir nuestra atención a la combinación de estos dos modelos, a saber, el promedio móvil auto-regresivo de orden p, q, ARMA (p, q) para ver si mejorará la situación. Sin embargo, tendremos que esperar hasta el siguiente artículo para una discusión completa Michael Halls-Moore Mike es el fundador de QuantStart y ha estado involucrado en la industria de finanzas cuantitativas durante los últimos cinco años, principalmente como un desarrollador cuán y más tarde como un quant Consultoría de comerciantes para fondos de cobertura.
No comments:
Post a Comment