A RIMA significa Autoregressive Integrated Moving Average modelos. Univariante (vector único) ARIMA es una técnica de previsión que proyecta los valores futuros de una serie basada enteramente en su propia inercia. Su aplicación principal es en el área de pronósticos a corto plazo que requieren al menos 40 puntos de datos históricos. Funciona mejor cuando los datos muestran un patrón estable o consistente en el tiempo con una cantidad mínima de valores atípicos. A veces llamado Box-Jenkins (después de los autores originales), ARIMA suele ser superior a las técnicas de suavización exponencial cuando los datos son razonablemente largos y la correlación entre las observaciones pasadas es estable. Si los datos son cortos o muy volátiles, entonces algún método de suavizado puede funcionar mejor. Si usted no tiene por lo menos 38 puntos de datos, debe considerar algún otro método que ARIMA. El primer paso para aplicar la metodología ARIMA es verificar la estacionariedad. La estacionariedad implica que la serie permanece a un nivel bastante constante en el tiempo. Si existe una tendencia, como en la mayoría de las aplicaciones económicas o de negocios, sus datos NO son estacionarios. Los datos también deben mostrar una variación constante en sus fluctuaciones en el tiempo. Esto se ve fácilmente con una serie que es muy estacional y que crece a un ritmo más rápido. En tal caso, los altibajos en la estacionalidad se harán más dramáticos con el tiempo. Si no se cumplen estas condiciones de estacionariedad, no se pueden calcular muchos de los cálculos asociados con el proceso. Si un gráfico gráfico de los datos indica nonstationarity, entonces usted debe diferenciar la serie. La diferenciación es una excelente forma de transformar una serie no estacionaria en una serie estacionaria. Esto se hace restando la observación en el período actual a la anterior. Si esta transformación se realiza sólo una vez en una serie, se dice que los datos se han diferenciado primero. Este proceso esencialmente elimina la tendencia si su serie está creciendo a una tasa bastante constante. Si está creciendo a un ritmo creciente, puede aplicar el mismo procedimiento y diferenciar los datos de nuevo. Sus datos entonces serían segundos diferenciados. Las autocorrelaciones son valores numéricos que indican cómo una serie de datos se relaciona a sí misma con el tiempo. Más precisamente, mide cuán fuertemente están correlacionados los valores de datos en un número específico de períodos separados entre sí a lo largo del tiempo. El número de períodos separados se llama generalmente el retraso. Por ejemplo, una autocorrelación en el retardo 1 mide cómo los valores 1 período aparte están correlacionados entre sí a lo largo de la serie. Una autocorrelación en el retraso 2 mide cómo los datos dos períodos aparte están correlacionados a lo largo de la serie. Las autocorrelaciones pueden variar de 1 a -1. Un valor próximo a 1 indica una alta correlación positiva, mientras que un valor cercano a -1 implica una correlación negativa alta. Estas medidas se evalúan con mayor frecuencia a través de tramas gráficas llamadas correlagramas. Un correlagrama traza los valores de autocorrelación para una serie dada con diferentes retardos. Esto se conoce como la función de autocorrelación y es muy importante en el método ARIMA. La metodología ARIMA intenta describir los movimientos en una serie temporal estacionaria como una función de lo que se llaman parámetros de media móvil y autorregresiva. Estos parámetros se denominan parámetros AR (autoregessivos) y MA (medias móviles). Un modelo de AR con un solo parámetro se puede escribir como. X (t) A (1) X (t-1) E (t) donde X (t) serie temporal bajo investigación A (1) el parámetro autorregresivo de orden 1 X (t-1) (T) el término de error del modelo Esto simplemente significa que cualquier valor dado X (t) puede explicarse por alguna función de su valor anterior, X (t-1), más algún error aleatorio inexplicable, E (t). Si el valor estimado de A (1) fue de 0,30, entonces el valor actual de la serie estaría relacionado con 30 de su valor hace 1 período. Por supuesto, la serie podría estar relacionada con más de un valor pasado. Por ejemplo, X (t) A (1) X (t-1) A (2) X (t-2) E (t) Esto indica que el valor actual de la serie es una combinación de los dos valores inmediatamente anteriores, X (t-1) y X (t-2), más algún error aleatorio E (t). Nuestro modelo es ahora un modelo autorregresivo de orden 2. Modelos de media móvil: Un segundo tipo de modelo de Box-Jenkins se denomina modelo de media móvil. Aunque estos modelos parecen muy similares al modelo de AR, el concepto detrás de ellos es muy diferente. Los parámetros de la media móvil relacionan lo que sucede en el período t sólo con los errores aleatorios que ocurrieron en períodos de tiempo pasados, es decir, E (t-1), E (t-2), etc., en lugar de X (t-1), X T-2), (Xt-3) como en los enfoques autorregresivos. Un modelo de media móvil con un término MA puede escribirse como sigue. El término B (1) se denomina un MA de orden 1. El signo negativo delante del parámetro se utiliza para la convención solamente y se imprime generalmente La mayoría de los programas de ordenador. El modelo anterior simplemente dice que cualquier valor dado de X (t) está directamente relacionado solamente al error aleatorio en el período anterior, E (t-1), y al término de error actual, E (t). Como en el caso de los modelos autorregresivos, los modelos de media móvil pueden extenderse a estructuras de orden superior que abarcan diferentes combinaciones y longitudes móviles. La metodología ARIMA también permite la construcción de modelos que incorporen parámetros tanto de autorregresión como de media móvil. Estos modelos se refieren a menudo como modelos mixtos. Aunque esto hace que sea una herramienta de pronóstico más complicada, la estructura puede simular mejor la serie y producir un pronóstico más preciso. Los modelos puros implican que la estructura consiste solamente en los parámetros AR o MA - no ambos. Los modelos desarrollados por este enfoque usualmente se llaman modelos ARIMA porque usan una combinación de autoregresión (AR), integración (I), que se refiere al proceso inverso de diferenciación para producir las operaciones de predicción y de media móvil (MA). Un modelo de ARIMA se indica generalmente como ARIMA (p, d, q). Esto representa el orden de los componentes autorregresivos (p), el número de operadores de diferenciación (d) y el orden más alto del término medio móvil. Por ejemplo, ARIMA (2,1,1) significa que usted tiene un modelo autorregresivo de segundo orden con un componente de media móvil de primer orden cuya serie se ha diferenciado una vez para inducir la estacionariedad. Elegir la especificación correcta: El principal problema en el clásico Box-Jenkins es tratar de decidir qué especificación ARIMA utilizar-i. e. Cuántos AR y / o MA parámetros para incluir. Esto es lo que gran parte de Box-Jenkings 1976 se dedicó al proceso de identificación. Dependía de la eva - luación gráfica y numérica de las funciones de autocorrelación de la muestra y de autocorrelación parcial. Bueno, para sus modelos básicos, la tarea no es demasiado difícil. Cada uno tiene funciones de autocorrelación que se ven de cierta manera. Sin embargo, cuando se sube en complejidad, los patrones no se detectan tan fácilmente. Para hacer las cosas más difíciles, sus datos representan sólo una muestra del proceso subyacente. Esto significa que los errores de muestreo (valores atípicos, errores de medición, etc.) pueden distorsionar el proceso teórico de identificación. Es por eso que el modelado ARIMA tradicional es un arte más que una ciencia. Hay una serie de enfoques para modelar las series temporales. Describimos algunos de los enfoques más comunes a continuación. Tendencia, Descomposiciones Estacionales, Residuales Un enfoque consiste en descomponer las series temporales en un componente de tendencia, estacional y residual. El triple alisado exponencial es un ejemplo de este enfoque. Otro ejemplo, denominado loess estacional, se basa en mínimos cuadrados ponderados localmente y es discutido por Cleveland (1993). No discutimos el loess estacional en este manual. Métodos basados en la frecuencia Otro enfoque, comúnmente utilizado en aplicaciones científicas y de ingeniería, es analizar las series en el dominio de la frecuencia. Un ejemplo de este enfoque en el modelado de un conjunto de datos de tipo sinusoidal se muestra en el estudio de caso de deflexión de haz. La gráfica espectral es la principal herramienta para el análisis de frecuencia de series temporales. Modelos autoregresivos (AR) Un modelo común para el modelado de series temporales univariadas es el modelo autorregresivo (AR): Xt delta phi1 X phi2 X cdots phip X En, donde (Xt) es la serie temporal, (At) es ruido blanco y delta Izquierda (1 - sum p phii derecha) mu. Con (mu) denotando la media del proceso. Un modelo autorregresivo es simplemente una regresión lineal del valor actual de la serie contra uno o más valores previos de la serie. El valor de (p) se denomina el orden del modelo AR. Los modelos AR pueden ser analizados con uno de varios métodos, incluyendo técnicas lineales lineales por mínimos cuadrados. También tienen una interpretación directa. Modelos de media móvil (MA) Otro enfoque común para el modelado de modelos de series de tiempo univariados es el modelo de media móvil (MA): Xt mu At - theta1 A - theta2 A - cdots - thetaq A, donde (Xt) es la serie temporal ) Es la media de la serie, (A) son términos de ruido blanco, y (theta1,, ldots,, thetaq) son los parámetros del modelo. El valor de (q) se llama el orden del modelo MA. Es decir, un modelo de media móvil es conceptualmente una regresión lineal del valor actual de la serie contra el ruido blanco o choques aleatorios de uno o más valores anteriores de la serie. Se supone que los choques aleatorios en cada punto provienen de la misma distribución, normalmente una distribución normal, con ubicación a cero y escala constante. La distinción en este modelo es que estos choques aleatorios se propagan a los valores futuros de las series temporales. El ajuste de las estimaciones de MA es más complicado que con los modelos de AR porque los términos de error no son observables. Esto significa que los procedimientos de ajuste no lineales iterativos deben ser usados en lugar de mínimos cuadrados lineales. Los modelos MA también tienen una interpretación menos obvia que los modelos AR. A veces, el ACF y PACF sugieren que un modelo de MA sería una mejor elección de modelo y, a veces, ambos AR y MA términos se deben utilizar en el mismo modelo (véase la Sección 6.4.4.5). Tenga en cuenta, sin embargo, que los términos de error después de que el modelo sea apropiado deberían ser independientes y seguir las suposiciones estándar para un proceso univariante. Box y Jenkins popularizaron un enfoque que combina el promedio móvil y los enfoques autorregresivos en el libro Análisis de series temporales: previsión y control (Box, Jenkins y Reinsel, 1994). Aunque tanto los enfoques de media móvil como autoregresivos ya eran conocidos (y fueron investigados originalmente por Yule), la contribución de Box y Jenkins fue desarrollar una metodología sistemática para identificar y estimar modelos que pudieran incorporar ambos enfoques. Esto hace que los modelos de Box-Jenkins sean una clase poderosa de modelos. En el último artículo analizamos los paseos aleatorios y el ruido blanco como modelos básicos de series de tiempo para ciertos instrumentos financieros, Tales como los precios diarios de acciones y de índices bursátiles. Encontramos que en algunos casos un modelo de caminata aleatoria era insuficiente para capturar el comportamiento de autocorrelación completo del instrumento, lo que motiva modelos más sofisticados. En el próximo par de artículos vamos a discutir tres tipos de modelo, a saber, el modelo autorregresivo (AR) de orden p, el modelo de media móvil (MO) de orden q y el modelo de media móvil movida autogenerada (ARMA) de orden p , Q. Estos modelos nos ayudarán a intentar capturar o explicar más de la correlación serial presente dentro de un instrumento. En última instancia, nos proporcionará un medio de pronosticar los precios futuros. Sin embargo, es bien sabido que las series de tiempo financiero poseen una propiedad conocida como agrupación de volatilidad. Es decir, la volatilidad del instrumento no es constante en el tiempo. El término técnico para este comportamiento se conoce como heterocedasticidad condicional. Dado que los modelos AR, MA y ARMA no son condicionalmente heteroscedásticos, es decir, no toman en cuenta el agrupamiento de volatilidad, en última instancia, necesitaremos un modelo más sofisticado para nuestras predicciones. Dichos modelos incluyen el modelo de Heteroskedastic condicional autogenerante (ARCH) y el modelo Heteroskedastic condicional generalizado (GARCH), y las muchas variantes del mismo. GARCH es particularmente bien conocido en las finanzas de Quant y se utiliza principalmente para simulaciones de series temporales financieras como un medio de estimar el riesgo. Sin embargo, como con todos los artículos de QuantStart, quiero construir a estos modelos a partir de versiones más simples para que podamos ver cómo cada nueva variante cambia nuestra capacidad de predicción. A pesar del hecho de que AR, MA y ARMA son modelos de series temporales relativamente simples, son la base de modelos más complicados como el ARREM y la familia GARCH. Por lo tanto, es importante que los estudiemos. Una de nuestras primeras estrategias de negociación en la serie de artículos de series de tiempo será combinar ARIMA y GARCH con el fin de predecir precios n períodos de antelación. Sin embargo, tendremos que esperar hasta que hemos discutido ARIMA y GARCH por separado antes de aplicarlos a una estrategia real. ¿Cómo vamos a proceder? En este artículo vamos a esbozar algunos nuevos conceptos de series de tiempo que bien necesitan para los restantes métodos, Stationarity y el criterio de información Akaike (AIC). Después de estos nuevos conceptos, seguiremos el patrón tradicional para estudiar nuevos modelos de series temporales: Justificación - La primera tarea es proporcionar una razón por la cual estaban interesados en un modelo particular, como quants. ¿Por qué estamos introduciendo el modelo de series temporales ¿Qué efectos puede capturar ¿Qué ganamos (o perdemos) añadiendo complejidad extra Definición - Necesitamos proporcionar la definición matemática completa (y la notación asociada) del modelo de serie temporal para minimizar Cualquier ambigüedad. Propiedades de Segundo Orden - Vamos a discutir (y en algunos casos derivar) las propiedades de segundo orden del modelo de serie temporal, que incluye su media, su varianza y su función de autocorrelación. Correlograma - Usaremos las propiedades de segundo orden para trazar un correlograma de una realización del modelo de series temporales para visualizar su comportamiento. Simulación - Simularemos las realizaciones del modelo de series de tiempo y luego adaptaremos el modelo a estas simulaciones para asegurarnos de tener implementaciones exactas y entender el proceso de ajuste. Datos financieros reales: ajustaremos el modelo de la serie temporal a los datos financieros reales y consideraremos el correlograma de los residuos para ver cómo el modelo da cuenta de la correlación serial en la serie original. Predicción - Vamos a crear n-paso adelante las previsiones de la serie de modelos de tiempo para realizaciones particulares con el fin de producir en última instancia señales comerciales. Casi todos los artículos que escribo sobre los modelos de series temporales caerán en este patrón y nos permitirá comparar fácilmente las diferencias entre cada modelo a medida que agregamos más complejidad. Vamos a empezar por mirar la estacionariedad estricta y la AIC. Strictly Stationary Proporcionamos la definición de estacionariedad en el artículo sobre la correlación serial. Sin embargo, debido a que vamos a entrar en el reino de muchas series financieras, con varias frecuencias, debemos asegurarnos de que nuestros (eventuales) modelos tengan en cuenta la volatilidad variable en el tiempo de estas series. En particular, necesitamos considerar su heterocedasticidad. Encontraremos este problema cuando tratamos de adaptar ciertos modelos a series históricas. Generalmente, no toda la correlación serial en los residuos de los modelos ajustados puede ser considerada sin tener en cuenta la heterocedasticidad. Esto nos lleva a la estacionariedad. Una serie no es estacionaria en la varianza si tiene volatilidad variable en el tiempo, por definición. Esto motiva una definición más rigurosa de la estacionariedad, es decir, la estacionariedad estricta: estrictamente estacionaria Serie A, modelo de serie temporal, es estrictamente estacionario si la distribución estadística conjunta de los elementos x, ldots, x es la misma que xm, ldots, xm, Para todo ti, m. Se puede pensar en esta definición como simplemente que la distribución de la serie temporal no cambia para ningún cambio abritario en el tiempo. En particular, la media y la varianza son constantes en el tiempo para una serie estrictamente estacionaria y la autocovariancia entre xt y xs (por ejemplo) depende sólo de la diferencia absoluta de t y s, t-s. Estaremos revisitando estrictamente las series estacionarias en futuros puestos. Criterio de información de Akaike He mencionado en artículos anteriores que eventualmente tendríamos que considerar cómo escoger entre mejores modelos separados. Esto es cierto no sólo en el análisis de series temporales, sino también en el aprendizaje automático y, en general, en las estadísticas. Los dos métodos principales que utilizaremos (por el momento) son el Criterio de Información Akaike (AIC) y el Criterio Bayesiano de Información (a medida que avanzamos con nuestros artículos sobre Estadísticas Bayesianas). Pues brevemente considerar el AIC, como se utilizará en la Parte 2 del ARMA artículo. AIC es esencialmente una herramienta para ayudar en la selección de modelos. Es decir, si tenemos una selección de modelos estadísticos (incluyendo series temporales), entonces la AIC estima la calidad de cada modelo, en relación con los otros que tenemos disponibles. Se basa en la teoría de la información. Que es un tema muy interesante, profundo que desafortunadamente no podemos entrar en demasiados detalles sobre. Intenta equilibrar la complejidad del modelo, que en este caso significa el número de parámetros, con qué tan bien se ajusta a los datos. Vamos a proporcionar una definición: Akaike Criterio de Información Si tomamos la función de verosimilitud para un modelo estadístico, que tiene k parámetros, y L maximiza la probabilidad. Entonces el Criterio de Información de Akaike es dado por: El modelo preferido, a partir de una selección de modelos, tiene el AIC mínimo del grupo. Se puede ver que el AIC crece a medida que aumenta el número de parámetros, k, pero se reduce si aumenta la probabilidad de logaritmos negativos. Esencialmente penaliza los modelos que son overfit. Vamos a crear AR, MA y ARMA modelos de diferentes órdenes y una forma de elegir el mejor modelo de ajuste de un conjunto de datos es utilizar el AIC. Esto es lo que bien estaremos haciendo en el próximo artículo, principalmente para los modelos ARMA. Modelos autorregresivos de orden p El primer modelo que se va a considerar, que forma la base de la Parte 1, es el modelo autorregresivo de orden p, a menudo acortado a AR (p). Justificación En el artículo anterior consideramos el paseo aleatorio. Donde cada término, xt depende únicamente del término anterior, xy un término de ruido blanco estocástico, wt: El modelo autorregresivo es simplemente una extensión de la caminata aleatoria que incluye términos más atrás en el tiempo. La estructura del modelo es lineal. Que es el modelo depende linealmente de los términos anteriores, con coeficientes para cada término. Aquí es donde el regresivo viene en autorregresivo. Es esencialmente un modelo de regresión donde los términos previos son los predictores. Modelo autorregresivo de orden p Un modelo de serie temporal,, es un modelo autorregresivo de orden p. AR (p), si: begin xt alfa1 x ldots alfa x wt suma p alphai x wt fin ¿Dónde está el ruido blanco y el alfai en mathbb, con alfap neq 0 para un proceso autorregresivo de orden p. Si consideramos al operador de cambio hacia atrás. (Véase el artículo anterior), entonces podemos reescribir lo anterior como una función theta de: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt end Tal vez lo primero que se note sobre el modelo AR (p) Es que una caminata aleatoria es simplemente AR (1) con alfa1 igual a la unidad. Como se ha dicho anteriormente, el modelo auto - gresivo es una extensión de la caminata aleatoria, por lo que tiene sentido. Es fácil hacer predicciones con el modelo AR (p), para cualquier tiempo t, ya que una vez que tengamos los coeficientes alfa determinados, nuestra estimación Simplemente se convierte en: empezar hat t alfa1 x ldots alfa x final Por lo tanto, podemos hacer n-paso adelante previsiones mediante la producción de sombrero t, sombrero, sombrero, etc hasta el sombrero. De hecho, una vez que consideremos los modelos de ARMA en la Parte 2, utilizaremos la función de predicción de R para crear pronósticos (junto con bandas de intervalo de confianza de error estándar) que nos ayudarán a producir señales de negociación. Estacionariedad para procesos autorregresivos Uno de los aspectos más importantes del modelo AR (p) es que no siempre es estacionario. De hecho, la estacionariedad de un modelo particular depende de los parámetros. He tocado esto antes en un artículo anterior. Para determinar si un proceso AR (p) es estacionario o no, necesitamos resolver la ecuación característica. La ecuación característica es simplemente el modelo autorregresivo, escrito en forma de cambio hacia atrás, puesto a cero: Resolvemos esta ecuación para. Para que el proceso autorregresivo particular sea estacionario necesitamos que todos los valores absolutos de las raíces de esta ecuación excedan la unidad. Esta es una propiedad extremadamente útil y nos permite calcular rápidamente si un proceso AR (p) está parado o no. Consideremos algunos ejemplos para concretizar esta idea: Random Walk - El proceso AR (1) con alpha1 1 tiene la ecuación característica theta 1 -. Claramente esto tiene raíz 1 y como tal no es estacionario. AR (1) - Si elegimos el fracción alfa1 obtenemos xt frac x wt. Esto nos da una ecuación característica de 1 - frac 0, que tiene una raíz 4 gt 1 y por lo que este particular AR (1) proceso es estacionario. AR (2) - Si ponemos alpha1 alpha2 frac entonces tenemos xt frac x frac x wt. Su ecuación característica se convierte en - frac () () 0, lo que da dos raíces de 1, -2. Dado que tiene una raíz unitaria, es una serie no estacionaria. Sin embargo, otras series AR (2) pueden estar estacionarias. Propiedades de segundo orden La media de un proceso AR (p) es cero. Sin embargo, las autocovariancias y autocorrelaciones están dadas por funciones recursivas, conocidas como las ecuaciones de Yule-Walker. Las propiedades completas se dan a continuación: begin mux E (xt) 0 end begin gammak suma p alphai gamma, enspace k 0 fin comienzo rhok suma p alphai rho, enspace k 0 end Note que es necesario conocer los valores de los parámetros alfai antes de Calculando las autocorrelaciones. Ahora que hemos establecido las propiedades de segundo orden podemos simular varios órdenes de AR (p) y trazar los correlogramas correspondientes. Simulaciones y Correlogramas AR (1) Comencemos con un proceso AR (1). Esto es similar a una caminata aleatoria, excepto que alfa1 no tiene que igualar la unidad. Nuestro modelo va a tener alpha1 0.6. El código R para crear esta simulación se da de la siguiente manera: Observe que nuestro bucle for se lleva a cabo de 2 a 100, no 1 a 100, como xt-1 cuando t0 no es indexable. De manera similar para los procesos AR (p) de orden superior, t debe variar de p a 100 en este bucle. Podemos trazar la realización de este modelo y su correlogram asociado usando la función de disposición: Vamos a intentar ahora ajustar un proceso AR (p) a los datos simulados que acabamos de generar, para ver si podemos recuperar los parámetros subyacentes. Usted puede recordar que llevamos a cabo un procedimiento similar en el artículo sobre el ruido blanco y paseos aleatorios. Como resulta que R proporciona un comando útil ar para ajustar modelos autorregresivos. Podemos utilizar este método para decirnos primero la mejor orden p del modelo (según lo determinado por la AIC) y proporcionarnos estimaciones de parámetros para el alfai, que luego podemos usar para formar intervalos de confianza. Para completar, vamos a recrear la serie x: Ahora usamos el comando ar para ajustar un modelo autorregresivo a nuestro proceso de AR (1) simulado, usando la estimación de máxima verosimilitud (MLE) como procedimiento de ajuste. Primero extraeremos el orden mejor obtenido: El comando ar ha determinado con éxito que nuestro modelo de serie cronológica subyacente es un proceso AR (1). Podemos entonces obtener las estimaciones del parámetro (s) alfai (s): El procedimiento MLE ha producido una estimación, sombrero 0.523, que es ligeramente inferior al valor verdadero de alpha1 0.6. Finalmente, podemos usar el error estándar (con la varianza asintótica) para construir 95 intervalos de confianza alrededor del parámetro (s) subyacente (s). Para lograr esto, simplemente creamos un vector c (-1.96, 1.96) y luego lo multiplicamos por el error estándar: El parámetro verdadero cae dentro del intervalo de confianza de 95, como esperamos del hecho de haber generado la realización desde el modelo específicamente . ¿Qué tal si cambiamos el alpha1 -0.6 Como antes podemos ajustar un modelo AR (p) usando ar: Una vez más recuperamos el orden correcto del modelo, con una muy buena estimación hat -0.597 de alpha1-0.6. También vemos que el verdadero parámetro cae dentro del intervalo de confianza 95 una vez más. AR (2) Permite añadir algo más de complejidad a nuestros procesos autorregresivos mediante la simulación de un modelo de orden 2. En particular, estableceremos alpha10.666, pero también estableceremos alpha2 -0.333. Heres el código completo para simular y trazar la realización, así como el correlograma de dicha serie: Como antes podemos ver que el correlogram difiere significativamente de la del ruido blanco, como wed esperan. Hay picos estadísticamente significativos en k1, k3 y k4. Una vez más, iban a utilizar el comando ar para ajustar un modelo AR (p) a nuestra realización AR (2) subyacente. El procedimiento es similar al ajuste de AR (1): Se ha recuperado el orden correcto y las estimaciones de parámetro hat 0.696 y hat -0.395 no están muy lejos de los valores de parámetro verdadero de alfa10.666 y alfa2-0.333. Observe que recibimos un mensaje de advertencia de convergencia. Observe también que R utiliza realmente la función arima0 para calcular el modelo AR. Los modelos AR (p) son simplemente modelos ARIMA (p, 0, 0) y, por lo tanto, un modelo AR es un caso especial de ARIMA sin componente de Moving Average (MA). Bueno, también estar usando el comando arima para crear intervalos de confianza en torno a múltiples parámetros, por lo que hemos omitido hacerlo aquí. Ahora que hemos creado algunos datos simulados, es hora de aplicar los modelos AR (p) a la serie temporal de activos financieros. Datos Financieros Amazon Inc. Comencemos por obtener el precio de las acciones de Amazon (AMZN) utilizando el método de los cuantos como en el último artículo: La primera tarea es siempre trazar el precio de una breve inspección visual. En este caso, bien usando los precios de cierre diarios: Youll aviso de que quantmod añade algún formato para nosotros, a saber, la fecha, y una carta ligeramente más bonita que los gráficos habituales R: Ahora vamos a tomar los retornos logarítmicos de AMZN y luego el primer - order de la serie con el fin de convertir la serie de precios originales de una serie no estacionaria a una (potencialmente) estacionaria. Esto nos permite comparar las manzanas con las manzanas entre las acciones, los índices o cualquier otro activo, para su uso en estadísticas multivariantes posteriores, como al calcular una matriz de covarianza. Si desea una explicación detallada de por qué las devoluciones de registros son preferibles, eche un vistazo a este artículo en Quantivity. Permite crear una nueva serie, amznrt. Para sostener nuestra vuelta de registro diferenciada: Una vez más, podemos trazar la serie: En esta etapa queremos trazar el correlograma. Estaban buscando para ver si la serie diferenciada parece ruido blanco. Si no lo hace, entonces hay una correlación serial inexplicada, que podría ser explicada por un modelo autorregresivo. Observamos un pico estadísticamente significativo en k2. Por lo tanto existe una posibilidad razonable de correlación seriada inexplicada. Tenga en cuenta, sin embargo, que esto puede ser debido al sesgo de muestreo. Como tal, podemos intentar ajustar un modelo AR (p) a la serie y producir intervalos de confianza para los parámetros: El ajuste del modelo autorregresivo ar a la serie diferenciada de primer orden de los precios de los registros produce un modelo AR (2), con sombrero -0.0278 Y sombrero -0.0687. Ive también la salida de la varianza aystoptotic para que podamos calcular errores estándar para los parámetros y producir intervalos de confianza. Queremos ver si cero es parte del intervalo de confianza de 95, como si lo fuera, reduce nuestra confianza de que tenemos un verdadero proceso AR (2) subyacente para la serie AMZN. Para calcular los intervalos de confianza en el nivel 95 para cada parámetro, usamos los siguientes comandos. Tomamos la raíz cuadrada del primer elemento de la matriz de varianza asintótica para producir un error estándar, luego creamos intervalos de confianza multiplicándolo por -1.96 y 1.96 respectivamente, para el nivel 95: Tenga en cuenta que esto se vuelve más directo cuando se usa la función arima , Pero bien esperar hasta la Parte 2 antes de introducirla correctamente. Así podemos ver que para alpha1 cero está contenido dentro del intervalo de confianza, mientras que para alpha2 cero no está contenido en el intervalo de confianza. Por lo tanto, debemos tener mucho cuidado al pensar que realmente tenemos un modelo AR (2) generativo subyacente para AMZN. En particular, observamos que el modelo autorregresivo no tiene en cuenta el agrupamiento de volatilidad, lo que conduce a la agrupación de la correlación serial en series de tiempo financiero. Cuando consideramos los modelos ARCH y GARCH en artículos posteriores, vamos a explicar esto. Cuando lleguemos a utilizar la función arima completa en el siguiente artículo, haremos predicciones de la serie de precios de registro diario para poder crear señales comerciales. SampP500 US Equity Index Junto con acciones individuales también podemos considerar el índice de renta variable estadounidense, el SampP500. Vamos a aplicar todos los comandos anteriores a esta serie y producir las parcelas como antes: Podemos trazar los precios: Como antes, así crear la diferencia de primer orden de los precios de cierre de log: Una vez más, podemos trazar la serie: Es claro De este gráfico que la volatilidad no es estacionaria en el tiempo. Esto también se refleja en la trama del correlograma. Hay muchos picos, incluyendo k1 y k2, que son estadísticamente significativos más allá de un modelo de ruido blanco. Además, vemos pruebas de procesos de memoria larga, ya que hay algunos picos estadísticamente significativos en k16, k18 y k21: En última instancia, necesitaremos un modelo más sofisticado que un modelo autorregresivo de orden p. Sin embargo, en esta etapa todavía podemos intentar encajar tal modelo. Vamos a ver lo que tenemos si lo hacemos: El uso de ar produce un modelo AR (22), es decir, un modelo con 22 parámetros distintos de cero ¿Qué nos dice esto Es indicativo de que hay probablemente más complejidad en la correlación serial de Un modelo lineal simple de precios pasados puede realmente explicar. Sin embargo, ya lo sabíamos porque podemos ver que hay una correlación serial significativa en la volatilidad. Por ejemplo, considere el período altamente volátil alrededor de 2008. Esto motiva el siguiente conjunto de modelos, a saber, el promedio móvil (q) y el promedio móvil móvil ARMA (p, q). Bien aprender sobre ambos de estos en la Parte 2 de este artículo. Como lo mencionamos repetidamente, estos últimos nos llevarán a la familia de modelos ARIMA y GARCH, los cuales proveerán un ajuste mucho mejor a la complejidad de correlación serial del Samp500. Esto nos permitirá mejorar significativamente nuestros pronósticos y finalmente producir estrategias más rentables. Haga clic abajo para aprender más sobre. La información contenida en este sitio web es la opinión de los autores individuales sobre la base de su observación personal, investigación y años de experiencia. El editor y sus autores no son asesores de inversiones, abogados, CPA u otros profesionales de servicios financieros registrados y no prestan asesoría legal, fiscal, contable, de inversión u otros servicios profesionales. La información ofrecida por este sitio web es sólo educación general. Debido a que cada situación de hecho individual es diferente, el lector debe buscar a su propio asesor personal. Ni el autor ni el editor asumen responsabilidad alguna por errores u omisiones y no tendrán responsabilidad ni responsabilidad con ninguna persona o entidad con respecto a los daños causados o presuntamente causados directa o indirectamente por la información contenida en este sitio. Úselo bajo su propio riesgo. Además, este sitio web puede recibir compensación financiera de las empresas mencionadas a través de publicidad, programas de afiliados o de otra manera. Las tarifas y ofertas de los anunciantes que se muestran en este sitio web cambian con frecuencia, a veces sin previo aviso. Mientras nos esforzamos por mantener información oportuna y precisa, los detalles de la oferta pueden estar desactualizados. Los visitantes deben verificar los términos de tales ofertas antes de participar en ellas. El autor y su editor renuncian a la responsabilidad de actualizar la información y renunciar a la responsabilidad por el contenido, productos y servicios de terceros, incluso cuando se accede a través de hipervínculos y / o anuncios en este sitio.
No comments:
Post a Comment