D2L-Kaggle-房价预测
本文最后更新于:1 年前
实战Kaggle比赛:预测房价
Kaggle的房价预测比赛是一个很好的起点。 此数据集由Bart de Cock于2011年收集 (De Cock, 2011), 涵盖了2006-2010年期间亚利桑那州埃姆斯市的房价。 这个数据集是相当通用的,不会需要使用复杂模型架构。 它比哈里森和鲁宾菲尔德的波士顿房价 数据集要大得多,也有更多的特征。
https://www.kaggle.com/c/house-prices-advanced-regression-techniques
下载和缓存数据集
1 |
|
- 下面的
download
函数用来下载数据集, 将数据集缓存在本地目录(默认情况下为../data
)中, 并返回下载文件的名称。 如果缓存目录中已经存在此数据集文件,并且其sha-1与存储在DATA_HUB
中的相匹配, 我们将使用缓存的文件,以避免重复的下载。
1 |
|
- 我们还需实现两个实用函数: 一个将下载并解压缩一个zip或tar文件, 另一个是将本书中使用的所有数据集从
DATA_HUB
下载到缓存目录中。
1 |
|
Kaggle
Kaggle是一个当今流行举办机器学习比赛的平台, 每场比赛都以至少一个数据集为中心。 许多比赛有赞助方,他们为获胜的解决方案提供奖金。 该平台帮助用户通过论坛和共享代码进行互动,促进协作和竞争。 虽然排行榜的追逐往往令人失去理智: 有些研究人员短视地专注于预处理步骤,而不是考虑基础性问题。 但一个客观的平台有巨大的价值:该平台促进了竞争方法之间的直接定量比较,以及代码共享。 这便于每个人都可以学习哪些方法起作用,哪些没有起作用。
在房价预测比赛页面(如所示)的”Data”选项卡下可以找到数据集。我们可以通过下面的网址提交预测,并查看排名:https://www.kaggle.com/c/house-prices-advanced-regression-techniques
访问和读取数据集
1 |
|
我们可以使用上面定义的脚本下载并缓存Kaggle房屋数据集。
1 |
|
- 我们使用
pandas
分别加载包含训练数据和测试数据的两个CSV文件。
1 |
|
- 训练数据集包括1460个样本,每个样本80个特征和1个标签, 而测试数据集包含1459个样本,每个样本80个特征。
1 |
|
- 看看前四个和最后两个特征,以及相应标签(房价)。
1 |
|
- 在每个样本中,第一个特征是ID, 这有助于模型识别每个训练样本。 虽然这很方便,但它不携带任何用于预测的信息。 因此,在将数据提供给模型之前,我们将其从数据集中删除。
1 |
|
数据预处理
我们有各种各样的数据类型。 在开始建模之前,我们需要对数据进行预处理。 首先,我们将所有缺失的值替换为相应特征的平均值。然后,为了将所有特征放在一个共同的尺度上, 我们通过将特征重新缩放到零均值和单位方差来标准化数据:
$$
x \leftarrow \frac{x - \mu}{\sigma},
$$
- 其中和$\mu$和$\sigma$分别表示均值和标准差。 现在,这些特征具有零均值和单位方差,即$E[\frac{x-\mu}{\sigma}] = \frac{\mu - \mu}{\sigma} = 0$和$E[(x-\mu)^2] = (\sigma^2 + \mu^2) - 2\mu^2+\mu^2 = \sigma^2$。 直观地说,我们标准化数据有两个原因: 首先,它方便优化。 其次,因为我们不知道哪些特征是相关的, 所以我们不想让惩罚分配给一个特征的系数比分配给其他任何特征的系数更大。
1 |
|
- 我们处理离散值。 这包括诸如“MSZoning”之类的特征。 我们用独热编码替换它们, 方法与前面将多类别标签转换为向量的方式相同 (请参见 3.4.1节)。 例如,“MSZoning”包含值“RL”和“Rm”。 我们将创建两个新的指示器特征“MSZoning_RL”和“MSZoning_RM”,其值为0或1。 根据独热编码,如果“MSZoning”的原始值为“RL”, 则:“MSZoning_RL”为1,“MSZoning_RM”为0。
pandas
软件包会自动为我们实现这一点。
1 |
|
可以看到此转换会将特征的总数量从79个增加到331个。 最后,通过
values
属性,我们可以 从pandas
格式中提取NumPy格式,并将其转换为张量表示用于训练。
1 |
|
训练
- 首先,我们训练一个带有损失平方的线性模型。 显然线性模型很难让我们在竞赛中获胜,但线性模型提供了一种健全性检查, 以查看数据中是否存在有意义的信息。 如果我们在这里不能做得比随机猜测更好,那么我们很可能存在数据处理错误。 如果一切顺利,线性模型将作为基线(baseline)模型, 让我们直观地知道最好的模型有超出简单的模型多少。
1 |
|
- 房价就像股票价格一样,我们关心的是相对数量,而不是绝对数量。 因此,我们更关心相对误差$\frac{y - \hat{y}}{y}$, 而不是绝对误差$y - \hat{y}$。 例如,如果我们在俄亥俄州农村地区估计一栋房子的价格时, 假设我们的预测偏差了10万美元, 然而那里一栋典型的房子的价值是12.5万美元, 那么模型可能做得很糟糕。 另一方面,如果我们在加州豪宅区的预测出现同样的10万美元的偏差, (在那里,房价中位数超过400万美元) 这可能是一个不错的预测。
- 解决这个问题的一种方法是用价格预测的对数来衡量差异。 事实上,这也是比赛中官方用来评价提交质量的误差指标。 即将$\delta$ for $|\log y - \log \hat{y}| \leq \delta$ 转换为$e^{-\delta} \leq \frac{\hat{y}}{y} \leq e^\delta$。 这使得预测价格的对数与真实标签价格的对数之间出现以下均方根误差:
$$
\sqrt{\frac{1}{n}\sum_{i=1}^n\left(\log y_i -\log \hat{y}_i\right)^2}.
$$
1 |
|
torch.clamp
是 PyTorch 中的一个函数,用于对张量中的元素进行裁剪(clamp)操作。它的使用格式为torch.clamp(input, min, max, out=None)
,其中:
input
是需要进行裁剪的输入张量。min
是裁剪的下界,即小于该值的元素将被替换为该值。max
是裁剪的上界,即大于该值的元素将被替换为该值。out
是可选参数,表示输出张量。
- 与前面的部分不同,我们的训练函数将借助Adam优化器 (我们将在后面章节更详细地描述它)。 Adam优化器的主要吸引力在于它对初始学习率不那么敏感。
1 |
|
$K$折交叉验证
- K折交叉验证, 它有助于模型选择和超参数调整。 我们首先需要定义一个函数,在$K$折交叉验证过程中返回第$i$折的数据。 具体地说,它选择第$i$个切片作为验证数据,其余部分作为训练数据。 注意,这并不是处理数据的最有效方法,如果我们的数据集大得多,会有其他解决办法。
1 |
|
- 当我们在$K$折交叉验证中训练$K$次后,返回训练和验证误差的平均值。
1 |
|
模型选择
- 我们选择了一组未调优的超参数,并将其留给读者来改进模型。 找到一组调优的超参数可能需要时间,这取决于一个人优化了多少变量。 有了足够大的数据集和合理设置的超参数,$K$折交叉验证往往对多次测试具有相当的稳定性。 然而,如果我们尝试了不合理的超参数,我们可能会发现验证效果不再代表真正的误差。
1 |
|
请注意,有时一组超参数的训练误差可能非常低,但$K$折交叉验证的误差要高得多, 这表明模型过拟合了。 在整个训练过程中,我们希望监控训练误差和验证误差这两个数字。 较少的过拟合可能表明现有数据可以支撑一个更强大的模型, 较大的过拟合可能意味着我们可以通过正则化技术来获益。
提交Kaggle预测
- 既然我们知道应该选择什么样的超参数, 我们不妨使用所有数据对其进行训练 (而不是仅使用交叉验证中使用的$1-1/K$的数据)。 然后,我们通过这种方式获得的模型可以应用于测试集。 将预测保存在CSV文件中可以简化将结果上传到Kaggle的过程。
1 |
|
- 如果测试集上的预测与$K$倍交叉验证过程中的预测相似, 那就是时候把它们上传到Kaggle了。 下面的代码将生成一个名为
submission.csv
的文件。
1 |
|
接下来, 我们可以提交预测到Kaggle上,并查看在测试集上的预测与实际房价(标签)的比较情况。 步骤非常简单。
- 登录Kaggle网站,访问房价预测竞赛页面。
- 点击“Submit Predictions”或“Late Submission”按钮(在撰写本文时,该按钮位于右侧)。
- 点击页面底部虚线框中的“Upload Submission File”按钮,选择要上传的预测文件。
- 点击页面底部的“Make Submission”按钮,即可查看结果。
进一步Plus参考
- https://www.bilibili.com/video/BV1NK4y1P7Tu/?p=3&vd_source=ff957cd8fbaeb55d52afc75fbcc87dfd
- AutoGluon好强
- 使用AutoGluon自动进行预测,这个包自己就提供了很牛逼的特征分析等功能,效果很好
- 数据预处理plus,根据不同的数据进行优化:
- 数据里比较大的数值,样本之间变化也比较大,取log,其余的不便
- 房子介绍是大段文本,使用Transformer提取特征,做多模型融合(GPU才跑得动) + 多层模型ensemble