¿Método de prueba de linealidad de *** múltiples?
¿Cuáles son los métodos de prueba para la regresión lineal múltiple en econometría?
1. Regresión lineal general:
proc reg data=abc;
modelo y=x1-x4
ejecución;
2. Prueba de linealidad múltiple
1. Método de prueba de coeficiente de correlación simple
proc corr data=abc;
var x1-x4;
run;
2. Método del factor de expansión de varianza
proc reg data=abc;
modelo y=x1-x4/vif;
ejecutar;
3. Método de análisis intuitivo (omitido)
4. Método de detección de regresión por pasos
Existen múltiples métodos para seleccionar variables explicativas en SAS: forward, backword, stepwise, maxr, minr, rsquare, principalmente utilizando datos de registro de proc por pasos
=abc;
modelo y=x1-x4/selection=stepwise sle=0.05 sls=0.10;
ejecutar;
5. Valores propios e índice patológico
proc reg data=abc;
model y=x1-x4/collin;
run;
3. Remedios para la linealidad multi-***
1. Proponer el método de variables (eliminar variables con valores de vif grandes según la detección anterior... omitido)
2. Incrementar el tamaño de la muestra (omitido)
3. Transformar la forma del modelo
A menudo se utiliza el método de diferencia de variables. La forma de diferencia de primer orden es la siguiente:
datos abc;
establecer abc;
x1lag1=lag(x1);
x2lag1=lag(x2);
x3lag1=lag(x3) ;
x4lag1=lag(x4);
ylag1=lag(y);
if nmiss(x1lag1,x2lag1,x3lag1 ,x4lag1,ylag1)> 0 luego eliminar;
dx1=x1-x1lag1;
dx2=x1-x2lag1;
dx3=x1-x3lag1;
dx4=x1-x4lag1;
dy=x1-ylag1;
ejecutar;
proc reg data=abc;
modelar y =x1-x4;
run;quit;
4. Usar información previa que no sea muestral (es decir, conocer las ecuaciones entre ciertas variables explicativas para eliminar algunas explicaciones Variables, omitidas)
5. Utilice datos transversales y datos de series de tiempo juntos
Es una variante del método de información previa Primero, utilice datos transversales para. estime algunos parámetros y sustitúyalos en la ecuación original, y luego utilice datos de series de tiempo para estimar parámetros parciales adicionales, la premisa es que los parámetros anteriores cambian muy poco en diferentes momentos.
6. Transformación de variables
Los indicadores absolutos se convierten en indicadores relativos
Los datos nominales se convierten en datos reales
Indicadores de subcategoría; se fusionan Es una categoría grande de indicadores (análisis de componentes principales y análisis factorial, que se complementarán más adelante)
7. Método de regresión por pasos (consulte la sección de prueba, omitida)
8. Regresión de cresta
Cuando las variables independientes tienen múltiples relaciones lineales, el error cuadrático medio será muy grande. Por lo tanto, desde la perspectiva del error cuadrático medio, la estimación de mínimos cuadrados ordinarios no es una buena estimación. de los coeficientes. Es importante reducir el error cuadrático medio. El método consiste en utilizar la estimación de regresión de cresta en lugar de la estimación de mínimos cuadrados.
Sin embargo, el valor k que minimiza el error cuadrático medio depende de los coeficientes de los parámetros desconocidos y la varianza de los términos de interferencia aleatoria, por lo que la determinación del valor k es clave en el análisis de regresión de crestas.
En aplicaciones prácticas, generalmente existen varios métodos para determinar el valor k: ① Método de trazado de cresta, es decir, para cada variable independiente xi, dibujar una curva de cambio de la estimación de regresión de cresta como el valor k cambios . Generalmente, se selecciona k para que la traza de cresta de cada variable independiente tienda a ser estable; ② Método del factor de expansión de varianza, elija k para que el VIF estimado mediante regresión de cresta sea <10; ③ Controle el método de suma de cuadrados residual, es decir, limitando la suma residual de cuadrados estimada mediante regresión de crestas. El valor k máximo no se puede encontrar más allá de cQ (donde c>1 es una constante especificada y Q es la suma de los residuos cuadrados de la estimación de mínimos cuadrados).
datos abc;
entrada x1-x3 y;
tarjetas;
149,3 4,2 108,1 15,9
161,2 4,1 114,8 16,4
171,5 3,1 123,2 19,0
175,5 3,1 126,9 19,1
180,8 1,1 132,1 18,8
190,7 2,2 137, 7. .. ...
En el método de prueba de linealidad multi***
, existe el problema de que el coeficiente de correlación y el coeficiente de la ecuación de regresión tienen signos opuestos. investigación, se confirma que es un problema multilineal y se exploran soluciones.
Aquí, el conocimiento relevante de la linealidad multi*** se organiza de la siguiente manera.
No existe una relación necesaria entre la alta correlación teórica de las variables explicativas y la alta correlación de los valores observados. Es posible que dos variables explicativas estén altamente correlacionadas en teoría, pero los valores observados pueden no estarlo. altamente correlacionados y viceversa. Por tanto, la multilinealidad es esencialmente un problema de datos.
Hay varias razones para la multilinealidad:
1. Todas las variables explicativas comparten la misma tendencia temporal
2. Una variable explicativa es un desfase de la variable; entre sí, y los dos tienden a seguir una tendencia;
3. Debido a que la base de la recopilación de datos no es lo suficientemente amplia, algunas variables explicativas pueden cambiar juntas;
4 , hay algunas relación lineal aproximada entre algunas variables explicativas;
Identificación:
1. Se encuentra que el signo de la estimación del coeficiente es incorrecto;
2. Una cierta Algunas variables explicativas importantes tienen valores t bajos, pero el R-cuadrado no es bajo
3. Cuando se elimina una variable explicativa menos importante, los resultados de la regresión cambian significativamente;
Prueba;
1. Análisis de correlación, el coeficiente de correlación es superior a 0,8, lo que indica la existencia de multilinealidad, pero el bajo coeficiente de correlación no significa que no exista multilinealidad;
> 2, prueba vif;
3. Prueba de coeficiente condicional;
Solución:
1. Agregar datos
2. Verificar; el modelo impone ciertas restricciones;
3. Elimina una o varias variables lineales
4. Deforma el modelo adecuadamente
5. Regresión del componente principal
p>
Principios para abordar la multilinealidad:
1. La multilinealidad es omnipresente y no se pueden tomar medidas para problemas multilineales menores;
2. Los problemas lineales múltiples graves generalmente se pueden descubrir basándose en la experiencia o analizando los resultados de la regresión. Por ejemplo, si el signo del coeficiente se ve afectado, el valor t de la importante variable explicativa es muy bajo. Se deben tomar las medidas necesarias según las diferentes situaciones.
3. Si el modelo solo se usa para predicción, siempre que el grado de ajuste sea bueno, no es necesario abordar el problema de multilinealidad cuando se usa un modelo con multilinealidad. predicción, a menudo no afecta los resultados de la predicción;
Cómo usar SPSS para realizar múltiples pruebas lineales
Por ejemplo, en el análisis de regresión, las estadísticas de regresión lineal tienen un diagnóstico lineal. . Linealidad multi***: existe una relación lineal aproximada entre variables independientes, es decir, una determinada variable independiente puede describirse aproximadamente mediante funciones lineales de otras variables independientes.
Consecuencias de la linealidad múltiple: la prueba estadística Pa de toda la ecuación de regresión no se puede incluir en la ecuación para eliminar una o dos variables o registros. El valor del coeficiente de regresión de la ecuación fluctuará violentamente y es muy inestable. Confirmación de linealidad múltiple: Haga una matriz de coeficientes de correlación entre variables independientes: si el coeficiente de correlación excede 0,9, las variables tendrán problemas de linealidad durante el análisis. Puede haber problemas por encima de 0,8. Sin embargo, este método sólo puede emitir un juicio preliminar sobre la linealidad y no es exhaustivo. Tolerancia: Fue propuesta por Norusis, es decir, la proporción de residuos que se obtienen al realizar análisis de regresión sobre otras variables independientes con cada variable independiente como variable dependiente. El tamaño se expresa mediante 1 menos el coeficiente de determinación. Cuanto más pequeño sea el indicador, con mayor precisión otras variables predicen la variable independiente y más severa puede ser la linealidad. Chen Xiru y otros concluyeron basándose en la experiencia: si la tolerancia de una variable independiente es inferior a 0,1, puede haber un problema lineal. Factor de inflación de varianza (VIF): propuesto por Marquardt en 1960, en realidad es el inverso de la tolerancia. Valor propio: este método es en realidad un análisis de componentes principales de las variables independientes. Si los valores propios de muchas dimensiones son iguales a 0, puede haber una linealidad grave. Índice de Condición (Condition Idex): Propuesto por Stewart et al. Cuando el valor de este índice en algunas dimensiones es mayor a 30, puede existir máxima linealidad. Contramedidas para la regresión lineal múltiple: aumentar el tamaño de la muestra puede resolver parcialmente el problema de la regresión lineal al combinar múltiples métodos de detección de variables independientes para establecer una ecuación de regresión por pasos óptima. Desde una perspectiva profesional, elimine artificialmente los factores lineales que son relativamente menores en términos profesionales, o que tienen más valores faltantes y mayores errores de medición. Realice un análisis de componentes principales y utilice los factores extraídos para reemplazar las variables originales para el análisis de regresión. Realice un análisis de regresión de crestas, que puede resolver eficazmente múltiples problemas lineales. Realice un análisis de ruta, que pueda describir en detalle la relación entre variables independientes.
Cómo utilizar SPSS para realizar pruebas de regresión lineal múltiple
Hay un diagnóstico lineal en el análisis de regresión de SPSS, análisis-regresión-regresión lineal-estadísticas, en la ventana emergente Simplemente seleccione " ***Diagnóstico lineal" en el cuadro de diálogo
Cómo juzgar si la ***linealidad se basa en los resultados del análisis de SPSS
Si la tolerancia (tolerancia) <=0,1 o varianza Si el factor de expansión VIF (que es el recíproco de la tolerancia)>=10, significa que existe una situación lineal grave entre las variables independientes
Índice de condición (índice de condición)>10 o proporciones de varianza <0.5 Cuando , existe una gran linealidad entre variables independientes
¿Cómo hacer una prueba de linealidad múltiple en spss y cómo obtener la matriz de coeficientes de correlación? Esperando en línea
Baidu Hola lo ha enviado, échale un vistazo
Regresión lineal múltiple *** prueba lineal y métodos de evitación, simple
Múltiple* ** Lineal significa que existe una correlación lineal entre variables independientes, es decir, una variable independiente puede expresarse mediante una expresión lineal de una o varias otras variables independientes. Si hay multilinealidad, al calcular el coeficiente de regresión parcial β de la variable independiente, la matriz es irreversible, lo que resulta en soluciones infinitas o ninguna solución para β.
En el proceso de utilizar la regresión lineal múltiple para construir un modelo, también es común tener múltiples problemas lineales entre variables. Entonces, ¿cómo debemos lidiar cuando encontramos que hay regresión lineal múltiple en el modelo de regresión lineal múltiple?
Se puede resolver mediante los siguientes métodos:
(1) Regresión por pasos
El uso de la regresión por pasos puede filtrar los fenómenos naturales con linealidad múltiple *** para hasta cierto punto, las variables de la combinación de variables que explican una mayor cantidad de variación en la variable de respuesta se excluyen del modelo, mientras que las variables que explican una cantidad menor se excluyen del modelo.
Sin embargo, la desventaja de este método es que cuando la linealidad es grave, el método de selección automática de variables no puede resolver completamente el problema.
(2) Regresión de cresta
La regresión de cresta es una estimación sesgada, pero puede controlar eficazmente el error estándar del coeficiente de regresión.
(3) Regresión de componentes principales
El método de análisis de componentes principales se puede utilizar para extraer los componentes principales de las combinaciones de variables independientes con linealidad multi-*** y luego usar el valor propio más grande (si es mayor que 1), varios componentes principales se someten a regresión lineal múltiple junto con otras variables independientes. Los coeficientes de regresión del componente principal obtenidos se utilizan luego para derivar estimaciones de parámetros de las variables independientes originales basadas en las expresiones de los componentes principales.
Este método pierde parte de la información al extraer los componentes principales. Cuanto más fuerte es la multilinealidad entre varias variables independientes, menos información se pierde al extraer los componentes principales.
(4) Análisis de ruta
Si tiene una comprensión clara de la relación entre variables independientes, puede considerar establecer un modelo de análisis de ruta para una investigación más profunda.
Cómo interpretar los resultados del diagnóstico lineal de SPSS *** y cómo resolver problemas lineales de *** múltiples
El diagnóstico lineal de *** múltiples se realiza en regresión, así que ábralo primero Regresión cuadro de diálogo: *** yse--regression--linear, abra el cuadro de diálogo de regresión lineal
Coloque las variables independientes y las variables dependientes en sus respectivas posiciones y luego haga clic en estadístico
En este cuadro de diálogo, hay una opción para el diagnóstico lineal multi-*** Verifíquelo, como se muestra en la figura, haga clic en el botón Continuar para regresar al cuadro de diálogo principal
Haga clic en el botón Aceptar para. comience a generar los resultados del diagnóstico
Echemos un vistazo a estos dos parámetros primero: el valor propio en múltiples dimensiones es aproximadamente 0, lo que demuestra la existencia de índice de condición multilineal: cuando es mayor que; 10, nos sugiere que es posible la existencia de linealidad múltiple
6
A continuación, observe la matriz de coeficientes de correlación y encuentre una correlación con un valor cercano a 1, que También sugiere que puede haber linealidad múltiple.
¿Cuáles son las manifestaciones típicas de la linealidad multi***? ¿Cuáles son los métodos para determinar si existe una regresión lineal múltiple?
Una manifestación típica de la regresión lineal múltiple es que las variables explicativas en el modelo de regresión lineal tienen una correlación precisa o un alto grado de correlación entre ellas. Distorsionado o difícil de estimar con precisión. Debido a las limitaciones de los datos económicos, el diseño del modelo es inadecuado, lo que da lugar a correlaciones generalizadas entre las variables explicativas de la matriz de diseño. Las razones principales son las mismas tendencias relacionadas con las variables económicas, la introducción de variables rezagadas y las limitaciones de los datos muestrales.
El método para determinar si existe linealidad *** múltiple es el valor propio. Los valores para las dimensiones 3 y 4 son aproximadamente iguales a 0, lo que indica la existencia de linealidad *** grave. Las columnas tercera y cuarta de la columna del índice condicional son mayores que 10, lo que puede indicar la existencia de una linealidad grave. Hay un número cercano a 1 en la varianza proporcional, lo que puede indicar la existencia de una linealidad grave.