(2)paddle---简单线性回归和波士顿房价预测

news2025/8/10 9:23:44

1、参考地址

(1)blibli网站地址

251-03_PaddlePaddle求解线性模型_dec_哔哩哔哩_bilibili

(2)波士顿数据集介绍参考了

机器学习:波士顿房价数据集_mjiansun的博客-CSDN博客

 2、简单线性回归

(1)测试一个简单线性回归例子

 y = 2*x + 10

(2)测试代码如下

import paddle

# test y = 2x +10

#线性回归例子
x_data = paddle.to_tensor([[1.0],[3.0],[5.0],[9.0],[10.0],[20.0]])
y_data = paddle.to_tensor([[12.0],[16.0],[20.0],[28.0],[30.0],[50.0]])

linear = paddle.nn.Linear(in_features=1, out_features=1)
w_before_opt = linear.weight.numpy().item()
b_before_opt = linear.bias.numpy().item()
print("w: ",w_before_opt," b: ", b_before_opt)

mse_loss = paddle.nn.MSELoss()
sgd_optimizer = paddle.optimizer.SGD(learning_rate=0.001, parameters=linear.parameters())

total_epoch = 5000
for i in range(total_epoch):
    y_predict = linear(x_data)
    loss = mse_loss(y_predict, y_data)
    loss.backward()
    sgd_optimizer.step()
    sgd_optimizer.clear_gradients()

    if i % 1000 == 0:
        print(i, loss.numpy())

print("finish training, loss = {}".format(loss.numpy()))
w_finial_opt = linear.weight.numpy().item()
b_finial_opt = linear.bias.numpy().item()
print("w: ",w_finial_opt," b: ", b_finial_opt)

 (3)测试效果图

 3、波士顿房价数据集

(1)数据集下载地址

https://archive.ics.uci.edu/ml/machine-learning-databases/housing/housing.data

(2)数据集内容

 该数据集是一个回归问题。每个类的观察值数量是均等的,共有 506 个观察,13 个输入变量和1个输出变量。每条数据包含房屋以及房屋周围的详细信息。其中包含城镇犯罪率,一氧化氮浓度,住宅平均房间数,到中心区域的加权距离以及自住房平均房价等等。

CRIM:城镇人均犯罪率。

ZN:住宅用地超过 25000 sq.ft. 的比例。

INDUS:城镇非零售商用土地的比例。

CHAS:查理斯河空变量(如果边界是河流,则为1;否则为0)。

NOX:一氧化氮浓度。

RM:住宅平均房间数。

AGE:1940 年之前建成的自用房屋比例。

DIS:到波士顿五个中心区域的加权距离。

RAD:辐射性公路的接近指数。

TAX:每 10000 美元的全值财产税率。

PTRATIO:城镇师生比例。

B:1000(Bk-0.63)^ 2,其中 Bk 指代城镇中黑人的比例。

LSTAT:人口中地位低下者的比例。

MEDV:自住房的平均房价,以千美元计。

预测平均值的基准性能的均方根误差(RMSE)是约 9.21 千美元。

注意: 因为涉及种族问题(有一个和黑人人口占比相关的变量B),请大家保持理性,认真严肃对待:(。

(3)用notepad++打开这个.data的数据集,如下图所示

(4)代码实现,感觉效果不好

import paddle
from paddle.nn import Linear
import paddle.nn.functional as F
import numpy as np
import os
import random

def load_data():
    #从文件道路数据
    datafile = './housing.data'
    data = np.fromfile(datafile, sep=' ', dtype=np.float32)

    #每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
    feature_names = ['CRIM','ZN','INDUS','CHAS','NOX','RM','AGE',
                    'DIS','RAD','TAX','PTRATIO','B','LSTAT','MEDV']
    feature_num = len(feature_names)

    #将原始数据进行Reshape,变成[N, 14]这样的形状
    data = data.reshape([data.shape[0] // feature_num, feature_num])

    #将原始数据集拆分成训练集和测试集
    #这里使用80%的数据做训练,20%的数据做测试
    # 测试集和训练集必须是没有交集的
    ratio = 0.8
    offset = int(data.shape[0] * ratio)
    training_data = data[:offset]

    #计算train数据集的最大值,最小值,平均值
    maximums, minimums, avgs = training_data.max(axis=0),training_data.min(axis=0), \
                               training_data.sum(axis=0)/training_data.shape[0]

    print(maximums.shape)
    # 记录数据的归一化参数,在预测时对数据做归一化
    # global max_values
    # global min_values
    # global avg_values
    max_values = maximums
    min_values = minimums
    avg_values = avgs

    #对所有的数据进行归一化处理
    for i in range(feature_num):
        data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])
    
    #训练集合测试集的划分比例
    training_data = data[:offset]
    test_data = data[offset:]
    return training_data, test_data, max_values, min_values, avg_values, feature_num

class Regressor(paddle.nn.Layer):
    #self代表类的实例自身
    def __init__(self) -> None:
        #初始化父类中的一些参数
        super(Regressor, self).__init__()

        #定义一层全连接层,输入维度是13,输出维度是1
        self.fc = Linear(in_features=13, out_features=1)
    
    #网络的前向计算
    def forward(self, inputs):
        x = self.fc(inputs)
        return x

#陈修改
def load_one_test(testdata):
    #从测试数据中,随机选择一条数据作为测试数据
    idx = np.random.randint(0,testdata.shape[0])
    # idx = -10  # 或者直接指定
    one_data, label = testdata[idx, :-1], testdata[idx, -1]
    print("one_data.shape: ",one_data.shape)
    #修改该条数据shape为[1,13]
    one_data = one_data.reshape([1,-1])
    print("one_data.shape: ",one_data.shape)

    return one_data,label




def house_price():
    # 定义线性模型
    model = Regressor()
    #开启模型训练模式
    model.train()
    # 加载数据
    training_data, test_data, max_values, min_values, avg_values, feature_num = load_data()
    
    #定义优化算法,使用随机梯度下降SGD
    #学习率设置为0.01
    opt = paddle.optimizer.SGD(learning_rate=0.01, parameters=model.parameters())

    EPOCH_NUM = 10 #总共多少轮训练
    BATCH_SIZE = 10 #batch siza大小

    #每一轮训练
    for epoch_id in range(EPOCH_NUM):
        #在每轮迭代开始之前,将训练数据的顺序随机的打乱
        np.random.shuffle(training_data)
        #将训练数据进行拆分,每个batch包含10条数据
        mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
        
        #每一轮训练中,每个batch训练一遍
        for iter_id, mini_batch in enumerate(mini_batches):
            x = np.array(mini_batch[:,:-1]) #获得当前批次训练数据,前面13个值
            y = np.array(mini_batch[:,-1:]) #获得当前批次训练标签(真实放假),最后一个房价值
            #将numpy数据转为paddle的tensor形式
            house_features = paddle.to_tensor(x)
            prices = paddle.to_tensor(y)

            #前向计算
            predicts = model(house_features)

            #计算损失
            loss = F.square_error_cost(predicts,label=prices)
            avg_loss = paddle.mean(loss)
            if iter_id % 20 == 0:
                print("epoch:{}, iter:{}, loss is: {}".format(epoch_id, iter_id, avg_loss.numpy()))

            #反向传播
            avg_loss.backward()
            #最小化loss,更新参数
            opt.step()
            #清除梯度
            opt.clear_grad()
    
    #保存模型参数
    paddle.save(model.state_dict(), 'LR_model.pdparams')
    print("模型已保存,文件为LR_model.pdparams")

    #-------------------------------------------------------
    #读取模型
    model_dict = paddle.load('LR_model.pdparams')
    model.load_dict(model_dict)
    #设置为测试模式
    model.eval

    #获取测试数据,注意要做归一化
    one_data, label = load_one_test(test_data)
    #转为tensor
    one_data = paddle.to_tensor(one_data)
    predict = model(one_data)

    #对结果做反向归一化处理
    predict = predict *(max_values[-1] - min_values[-1]) + avg_values[-1]
    #对label数据做反向归一化处理
    label = label * (max_values[-1] - min_values[-1]) + avg_values[-1]

    print("Inference result is{}, the corresponding label is{}".format(predict.numpy(),label))



if __name__ == "__main__":
    house_price()

(5)改进一下,修改神经网络为2层,训练100epoch,效果看看还可以,如下

import paddle
from paddle.nn import Linear
import paddle.nn.functional as F
import numpy as np
import os
import random

def load_data():
    #从文件道路数据
    datafile = './housing.data'
    data = np.fromfile(datafile, sep=' ', dtype=np.float32)

    #每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
    feature_names = ['CRIM','ZN','INDUS','CHAS','NOX','RM','AGE',
                    'DIS','RAD','TAX','PTRATIO','B','LSTAT','MEDV']
    feature_num = len(feature_names)

    #将原始数据进行Reshape,变成[N, 14]这样的形状
    data = data.reshape([data.shape[0] // feature_num, feature_num])

    #将原始数据集拆分成训练集和测试集
    #这里使用80%的数据做训练,20%的数据做测试
    # 测试集和训练集必须是没有交集的
    ratio = 0.8
    offset = int(data.shape[0] * ratio)
    training_data = data[:offset]

    #计算train数据集的最大值,最小值,平均值
    maximums, minimums, avgs = training_data.max(axis=0),training_data.min(axis=0), \
                               training_data.sum(axis=0)/training_data.shape[0]

    print(maximums.shape)
    # 记录数据的归一化参数,在预测时对数据做归一化
    # global max_values
    # global min_values
    # global avg_values
    max_values = maximums
    min_values = minimums
    avg_values = avgs

    #对所有的数据进行归一化处理
    for i in range(feature_num):
        data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])
    
    #训练集合测试集的划分比例
    training_data = data[:offset]
    test_data = data[offset:]
    return training_data, test_data, max_values, min_values, avg_values, feature_num

class Regressor(paddle.nn.Layer):
    #self代表类的实例自身
    def __init__(self) -> None:
        #初始化父类中的一些参数
        super(Regressor, self).__init__()

        #定义一层全连接层,输入维度是13,输出维度是1
        self.fc1 = Linear(in_features=13, out_features=20)
        self.fc2 = Linear(in_features=20, out_features=1)
    
    #网络的前向计算
    def forward(self, inputs):
        x1 = self.fc1(inputs)
        x2 = self.fc2(x1)
        return x2

#陈修改
def load_one_test(testdata):
    #从测试数据中,随机选择一条数据作为测试数据
    idx = np.random.randint(0,testdata.shape[0])
    # idx = -10  # 或者直接指定
    one_data, label = testdata[idx, :-1], testdata[idx, -1]
    print("one_data.shape: ",one_data.shape)
    #修改该条数据shape为[1,13]
    one_data = one_data.reshape([1,-1])
    print("one_data.shape: ",one_data.shape)

    return one_data,label




def house_price():
    # 定义线性模型
    model = Regressor()
    #开启模型训练模式
    model.train()
    # 加载数据
    training_data, test_data, max_values, min_values, avg_values, feature_num = load_data()
    
    #定义优化算法,使用随机梯度下降SGD
    #学习率设置为0.01
    opt = paddle.optimizer.SGD(learning_rate=0.01, parameters=model.parameters())

    EPOCH_NUM = 100 #总共多少轮训练
    BATCH_SIZE = 10 #batch siza大小

    #每一轮训练
    for epoch_id in range(EPOCH_NUM):
        #在每轮迭代开始之前,将训练数据的顺序随机的打乱
        np.random.shuffle(training_data)
        #将训练数据进行拆分,每个batch包含10条数据
        mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
        
        #每一轮训练中,每个batch训练一遍
        for iter_id, mini_batch in enumerate(mini_batches):
            x = np.array(mini_batch[:,:-1]) #获得当前批次训练数据,前面13个值
            y = np.array(mini_batch[:,-1:]) #获得当前批次训练标签(真实放假),最后一个房价值
            #将numpy数据转为paddle的tensor形式
            house_features = paddle.to_tensor(x)
            prices = paddle.to_tensor(y)

            #前向计算
            predicts = model(house_features)

            #计算损失
            loss = F.square_error_cost(predicts,label=prices)
            avg_loss = paddle.mean(loss)
            if iter_id % 20 == 0:
                print("epoch:{}, iter:{}, loss is: {}".format(epoch_id, iter_id, avg_loss.numpy()))

            #反向传播
            avg_loss.backward()
            #最小化loss,更新参数
            opt.step()
            #清除梯度
            opt.clear_grad()
    
    #保存模型参数
    paddle.save(model.state_dict(), 'LR_model.pdparams')
    print("模型已保存,文件为LR_model.pdparams")

    #-------------------------------------------------------
    #读取模型
    model_dict = paddle.load('LR_model.pdparams')
    model.load_dict(model_dict)
    #设置为测试模式
    model.eval

    #获取测试数据,注意要做归一化
    one_data, label = load_one_test(test_data)
    #转为tensor
    one_data = paddle.to_tensor(one_data)
    predict = model(one_data)

    #对结果做反向归一化处理
    predict = predict *(max_values[-1] - min_values[-1]) + avg_values[-1]
    #对label数据做反向归一化处理
    label = label * (max_values[-1] - min_values[-1]) + avg_values[-1]

    print("Inference result is{}, the corresponding label is{}".format(predict.numpy(),label))



if __name__ == "__main__":
    house_price()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/15480.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

上海亚商投顾:沪指失守3100点 教育板块逆势大涨

上海亚商投顾前言:无惧大盘大跌,解密龙虎榜资金,跟踪一线游资和机构资金动向,识别短期热点和强势个股。 市场情绪大小指数今日走势分化,沪指震荡调整,尾盘再度失守3100点,创业板指盘中涨超1%&am…

定制activemq_RPM包,注册系统服务并开机自启

rpmbuild命令用于创建软件的二进制包和源代码包。 1.准备环境 系统:Centos7 安装所需编译环境: # yum install epel-release -y # yum install rpmdevtools rpm-build gcc make tcl jemalloc -y 2.提前编译安装redis,此处以activemq-5…

nodejs学习week01

说明:学习nodejs之气那应该掌握html,css,JavaScript等前端基础技术 目录 一、什么是nodejs 二、nodejs的内部模块 1.fs文件系统模块 2.path路径模块 3.http服务器模块 三、module.exports对象 四、时间格式化 1.使用JavaScript的方…

Python自动化运维之一(Python入门)

Python简介 python是吉多范罗苏姆发明的一种面向对象的脚本语言,可能有些人不知道面向对象和脚本具体是什么意思,但是对于一个初学者来说,现在并不需要明白。大家都知道,当下全栈工程师的概念很火,而Python是一种全栈的…

docker-compose模板文件、命令的使用

docker-compose官网 一、docker-compose的命令 1、up(启动) 格式为 docker-compose up [options] [SERVICE…] 该命令十分强大,它将尝试自动完成包括构建镜像,(重新)创建服务,启动服务,并关联服务相关容器…

FAQ是什么?该如何编辑FAQ?

“FAQ”这个关键词可能很多人都见过,但是如果不是行业内的人,大概还不知道它的含义,所以本文将介绍 FAQ和 FAQ文档的编写。 “FAQ”是中文意思,意思是“常见问题解答”或“帮助中心”。研究显示,客户服务支持每天要花…

第四章. Pandas进阶—数据分组统计

第四章. Pandas进阶 4.3 数据分组统计 1.分组统计函数(groupby函数) 1).功能: 根据给定的条件将数据拆分成组每个组否可以独立应用函数(sum,mean,min)将结果合并到一个数据结构中 2).语法: DataFrame.gro…

5G无线技术基础自学系列 | 物理上行共享信道

素材来源:《5G无线网络优化实践》 一边学习一边整理内容,并与大家分享,侵权即删,谢谢支持! 附上汇总贴:5G无线技术基础自学系列 | 汇总_COCOgsta的博客-CSDN博客 NR PUSCH支持两种波形(参阅TS…

Python入门自学进阶-Web框架——26、DjangoAdmin项目应用-数据记录操作

对于每个表显示的数据,点击其中一条,进入这条数据的修改页面,显示此条数据的具体内容,并提供修改、删除等功能。主要是ModelForm的应用。 一、记录数据修改 首先是路由项的添加,点击一条记录后,进入相应的…

MaxEnt模型融合技术的物种分布模拟、参数优化方法、结果分析制图与论文写作

什么是MaxEnt模型? MaxEnt模型的原理是什么?有哪些用途? MaxEnt运行需要哪些输入文件?注意那些事项? 融合R语言的MaxEnt模型的优势? 常用数据检索与R语言自动化下载及可视化方法 常用数据下载网站&…

第一章《初学者问题大集合》第7节:编写第一个Java程序

下载并安装好IDEA之后,就可以编写Java程序啦!前文曾经讲过,Java程序最初的存在形式是Java源文件,经过编译之后又会产生字节码文件。当今时代,软件项目的规模越来越大,因此软件项目中会有多个Java源文件和字…

Android Gradle - AGP(Android Gradle Plugin)更新失败,你遇到了吗?

因为项目中有Java和Kt,同时也是组件化项目,所以配置方面一直存在一些问题(项目可正常运行,只是影响开发效率),此处仅记录我在AndroidStudio中更新AGP(Android Gradle Plugin,即Android 官方开发…

jmeter 使用

下载安装 去官网下载binary文件https://jmeter.apache.org/download_jmeter.cgi 解压后,进入解压目录的 /bin/ ,通过 sh jmeter 命令来启动 Jmeter。 使用jmeter GUI创建test plan 创建线程组流程:测试计划–>右键–>添加–>线程…

threeJS与模型交互

效果预览 该场景是模拟两个楼层,当鼠标放到不同的楼层上时改变其透明度 blender中的模型如下图: 首先导入模型 import { FBXLoader } from three/examples/jsm/loaders/FBXLoader.js addfbx () {const loader new FBXLoader()loader.load(/models/…

算法:最长递增子序列

一、题目描述 给定一个长度为N的数组a0,a1,a2…,an-1&#xff0c;找出一个最长的单调递增子序列&#xff08;注&#xff1a;递增的意思是对于任意的i<j&#xff0c;都满足ai<aj&#xff0c;此外子序列的意思是不要求连续&#xff0c;顺序不乱即可&#xff09;。例如&…

K8s自动化集群环境搭建

文章目录一、环境规划1.1 集群类型1.2 安装方式二、环境搭建1、主机安装2、主机名分配3、时钟同步4. 禁用firewalld、selinux、postfix5. 禁用swap分区6. 开启IP转发&#xff0c;和修改内核信息7. 配置IPVS功能8. ssh免密认证三、安装docker1、更换阿里云镜像仓库2、安装docker…

【前端】HTTP —— HTTP 协议中的细节(超详细!!)

JavaEE传送门JavaEE 【前端】JavaScript —— JS的基本语法之数组, 函数… 【前端】JavaScript —— WebAPI 目录HTTP 协议抓包工具 fiddler协议格式RequestResponseHTTP 协议中的细节认识 URLURL 基本格式URL encode/ decode认识 "方法" methodGETPOSTGET 和 POST…

感叹之余随手记—他山之石,可以攻玉

如上是开源webRTC项目的一个OC代码文件&#xff0c;注意到文件名是mm后缀了吗&#xff1f; 是的&#xff0c;它是一个OC特性之OC跟C/C代码混编&#xff0c;上面的代码就C runtime跟OC runtime的string对象的互相转化。 开源成就了很多人很多事&#xff01; 开源提升了我们的工作…

MySQL高级学习笔记(二)

文章目录MySQL高级学习笔记(二)1.Mysql的体系结构概览2. 存储引擎2.1 存储引擎概述2.2 各种存储引擎特性2.2.1 InnoDB2.2.2 MyISAM2.2.3 MEMORY2.2.4 MERGE2.3 存储引擎的选择3. 优化SQL步骤3.1 查看SQL执行频率3.2 定位低效率执行SQL3.3 explain分析执行计划3.3.1 环境准备3.3…

【JavaSE】内部类介绍与总结

文章目录内部类的概念静态内部类实例内部类局部内部类匿名内部类内部类的概念 什么是内部类呢&#xff1f;在一个类里面定义了另一个类&#xff0c;我们就把前者称为外部类&#xff0c;后者称为内部类。 静态内部类 内部类也是有分类的&#xff0c;我们先来看看静态的内部类…