信息发布→ 登录 注册 退出

如何用python做逐步回归

发布时间:2026-01-11

点击量:
目录
  • 算法介绍
  • 数据情况
    • 案例
    • 数据
  • 代码
    • 结果

      算法介绍

      逐步回归是一种线性回归模型自变量选择方法;
      逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的变量之前回归方程中只包含显著性变量。这是一个反复的过程,直到既没有显著的解释变量选入回归方程,也没有不显著的解释变量从回归方程中剔除为止。以保证最后所得到的解释变量集是最优的。
      这里我们选择赤池信息量(Akaike Information Criterion)来作为自变量选择的准则,赤池信息量(AIC)达到最小:基于最大似然估计原理的模型选择准则。

      数据情况

      案例

      在现实生活中,影响一个地区居民消费的因素有很多,例如一个地区的人均生产总值、收入水平等等,本案例选取了9个解释变量研究城镇居民家庭平均每人全年的消费新支出y,解释变量为:
      x1——居民的食品花费
      x2——居民的衣着消费
      x3——居民的居住花费
      x4——居民的医疗保健花费
      x5——居民的文教娱乐花费
      x6——地区的职工平均工资
      x7——地区的人均GDP
      x8——地区的消费价格指数
      x9——地区的失业率(%)

      数据

      代码

      # -*- coding: UTF-8 -*-
      
      import numpy as np
      import statsmodels.api as sm
      import statsmodels.formula.api as smf
      from statsmodels.stats.api import anova_lm
      import matplotlib.pyplot as plt
      import pandas as pd
      from patsy import dmatrices
      import itertools as it
      import random
      
      
      # Load data 读取数据
      df = pd.read_csv('data3.1.csv',encoding='gbk')
      print(df)
      
      
      target = 'y'
      variate = set(df.columns) #获取列名
      variate.remove(target) #去除无关列
      variate.remove('地区')
      
      #定义多个数组,用来分别用来添加变量,删除变量
      x = []
      variate_add = []
      variate_del = variate.copy()
      # print(variate_del)
      y = random.sample(variate,3) #随机生成一个选模型,3为变量的个数
      print(y)
      #将随机生成的三个变量分别输入到 添加变量和删除变量的数组
      for i in y:
       variate_add.append(i)
       x.append(i)
       variate_del.remove(i)
      
      global aic #设置全局变量 这里选择AIC值作为指标
      formula="{}~{}".format("y","+".join(variate_add)) #将自变量名连接起来
      aic=smf.ols(formula=formula,data=df).fit().aic #获取随机函数的AIC值,与后面的进行对比
      print("随机化选模型为:{}~{},对应的AIC值为:{}".format("y","+".join(variate_add), aic))
      print("\n")
      
      
      
      #添加变量
      def forwark():
       score_add = []
       global best_add_score
       global best_add_c
       print("添加变量")
       for c in variate_del:
        formula = "{}~{}".format("y", "+".join(variate_add+[c]))
        score = smf.ols(formula = formula, data = df).fit().aic
        score_add.append((score, c)) #将添加的变量,以及新的AIC值一起存储在数组中
        
        print('自变量为{},对应的AIC值为:{}'.format("+".join(variate_add+[c]), score))
      
       score_add.sort(reverse=True) #对数组内的数据进行排序,选择出AIC值最小的
       best_add_score, best_add_c = score_add.pop()
       
       print("最小AIC值为:{}".format(best_add_score))
       print("\n")
      
      #删除变量
      def back():
       score_del = []
       global best_del_score
       global best_del_c
       print("剔除变量")
       for i in x:
      
        select = x.copy() #copy一个集合,避免重复修改到原集合
        select.remove(i)
        formula = "{}~{}".format("y","+".join(select))
        score = smf.ols(formula = formula, data = df).fit().aic
        print('自变量为{},对应的AIC值为:{}'.format("+".join(select), score))
        score_del.append((score, i))
      
       score_del.sort(reverse=True) #排序,方便将最小值输出
       best_del_score, best_del_c = score_del.pop() #将最小的AIC值以及对应剔除的变量分别赋值
       print("最小AIC值为:{}".format(best_del_score))
       print("\n")
      
      print("剩余变量为:{}".format(variate_del))
      forwark()
      back()
      
      while variate:
        
      #  forwark()
      #  back()
       if(aic < best_add_score < best_del_score or aic < best_del_score < best_add_score):
        print("当前回归方程为最优回归方程,为{}~{},AIC值为:{}".format("y","+".join(variate_add), aic))
        break
       elif(best_add_score < best_del_score < aic or best_add_score < aic < best_del_score):
        print("目前最小的aic值为{}".format(best_add_score))
        print('选择自变量:{}'.format("+".join(variate_add + [best_add_c]))) 
        print('\n')
        variate_del.remove(best_add_c)
        variate_add.append(best_add_c)
        print("剩余变量为:{}".format(variate_del))
        aic = best_add_score
        forwark()
       else:
        print('当前最小AIC值为:{}'.format(best_del_score))
        print('需要剔除的变量为:{}'.format(best_del_c))
        aic = best_del_score #将AIC值较小的选模型AIC值赋给aic再接着下一轮的对比
        x.remove(best_del_c) #在原集合上剔除选模型所对应剔除的变量
        back()
        
      
      

      结果

      以上就是如何用python 做逐步回归的详细内容,更多关于python 逐步回归的资料请关注其它相关文章!

      在线客服
      服务热线

      服务热线

      4008888355

      微信咨询
      二维码
      返回顶部
      ×二维码

      截屏,微信识别二维码

      打开微信

      微信号已复制,请打开微信添加咨询详情!