0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

PyTorch教程-5.7. 在 Kaggle 上预测房价

jf_pJlTbmA9 来源:PyTorch 作者:PyTorch 2023-06-05 15:43 次阅读

现在我们已经介绍了一些用于构建和训练深度网络并使用包括权重衰减和丢失在内的技术对其进行正则化的基本工具,我们准备通过参加 Kaggle 竞赛将所有这些知识付诸实践。房价预测竞赛是一个很好的起点。数据相当通用,没有表现出可能需要专门模型(如音频视频可能)的奇异结构。该数据集由 De Cock ( 2011 )收集,涵盖 2006 年至 2010 年爱荷华州埃姆斯的房价。 它比Harrison 和 Rubinfeld (1978)著名的波士顿住房数据集大得多,拥有更多的例子和更多的特征。

在本节中,我们将带您了解数据预处理、模型设计和超参数选择的详细信息。我们希望通过实践方法,您将获得一些直觉,这些直觉将指导您作为数据科学家的职业生涯。

%matplotlib inline
import pandas as pd
import torch
from torch import nn
from d2l import torch as d2l

%matplotlib inline
import pandas as pd
from mxnet import autograd, gluon, init, np, npx
from mxnet.gluon import nn
from d2l import mxnet as d2l

npx.set_np()

%matplotlib inline
import jax
import numpy as np
import pandas as pd
from jax import numpy as jnp
from d2l import jax as d2l

No GPU/TPU found, falling back to CPU. (Set TF_CPP_MIN_LOG_LEVEL=0 and rerun for more info.)

%matplotlib inline
import pandas as pd
import tensorflow as tf
from d2l import tensorflow as d2l

5.7.1. 下载数据

在整本书中,我们将在各种下载的数据集上训练和测试模型。在这里,我们实现了两个实用函数来下载文件和提取 zip 或 tar 文件。同样,我们将它们的实现推迟到 第 23.7 节。

def download(url, folder, sha1_hash=None):
  """Download a file to folder and return the local filepath."""

def extract(filename, folder):
  """Extract a zip/tar file into folder."""

5.7.2. 格格

Kaggle是一个举办机器学习竞赛的流行平台。每场比赛都以数据集为中心,许多比赛由利益相关者赞助,他们为获胜的解决方案提供奖励。该平台帮助用户通过论坛和共享代码进行交互,促进协作和竞争。虽然排行榜追逐经常失控,研究人员短视地关注预处理步骤而不是提出基本问题,但平台的客观性也具有巨大价值,该平台有助于竞争方法之间的直接定量比较以及代码共享,以便每个人都可以了解哪些有效,哪些无效。如果你想参加 Kaggle 比赛,你首先需要注册一个账号(见图 5.7.1)。

poYBAGR3IKiAAYRAAAKeYMfXAiY589.png

图 5.7.1 Kaggle 网站。

在房价预测比赛页面,如图 5.7.2所示,可以找到数据集(在“数据”选项卡下),提交预测,就可以看到你的排名,网址在这里:

https://www.kaggle.com/c/house-prices-advanced-regression-techniques

pYYBAGR3IK2AIz08AAJE64c9ZKo210.png

图 5.7.2房价预测比赛页面。

5.7.3. 访问和读取数据集

请注意,比赛数据分为训练集和测试集。每条记录包括房屋的属性值和街道类型、建造年份、屋顶类型、地下室状况等属性。特征由各种数据类型组成。例如,建造年份用整数表示,屋顶类型用离散的分类分配表示,其他特征用浮点数表示。这就是现实使事情复杂化的地方:例如,一些数据完全缺失,缺失值简单地标记为“na”。每个房子的价格仅包含在训练集中(毕竟这是一场比赛)。我们希望对训练集进行分区以创建验证集,但我们只能在将预测上传到 Kaggle 后才能在官方测试集上评估我们的模型。图 5.7.2有下载数据的链接。

首先,我们将pandas使用我们在第 2.2 节中介绍的方法读入和处理数据。为了方便起见,我们可以下载并缓存 Kaggle 住房数据集。如果与此数据集对应的文件已存在于缓存目录中并且其 SHA-1 匹配sha1_hash,我们的代码将使用缓存文件以避免因冗余下载而阻塞您的互联网。

class KaggleHouse(d2l.DataModule):
  def __init__(self, batch_size, train=None, val=None):
    super().__init__()
    self.save_hyperparameters()
    if self.train is None:
      self.raw_train = pd.read_csv(d2l.download(
        d2l.DATA_URL + 'kaggle_house_pred_train.csv', self.root,
        sha1_hash='585e9cc93e70b39160e7921475f9bcd7d31219ce'))
      self.raw_val = pd.read_csv(d2l.download(
        d2l.DATA_URL + 'kaggle_house_pred_test.csv', self.root,
        sha1_hash='fa19780a7b011d9b009e8bff8e99922a8ee2eb90'))

训练数据集包含 1460 个示例、80 个特征和 1 个标签,而验证数据包含 1459 个示例和 80 个特征。

data = KaggleHouse(batch_size=64)
print(data.raw_train.shape)
print(data.raw_val.shape)

Downloading ../data/kaggle_house_pred_train.csv from http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_train.csv...
Downloading ../data/kaggle_house_pred_test.csv from http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_test.csv...
(1460, 81)
(1459, 80)

data = KaggleHouse(batch_size=64)
print(data.raw_train.shape)
print(data.raw_val.shape)

Downloading ../data/kaggle_house_pred_train.csv from http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_train.csv...
Downloading ../data/kaggle_house_pred_test.csv from http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_test.csv...
(1460, 81)
(1459, 80)

data = KaggleHouse(batch_size=64)
print(data.raw_train.shape)
print(data.raw_val.shape)

Downloading ../data/kaggle_house_pred_train.csv from http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_train.csv...
Downloading ../data/kaggle_house_pred_test.csv from http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_test.csv...
(1460, 81)
(1459, 80)

data = KaggleHouse(batch_size=64)
print(data.raw_train.shape)
print(data.raw_val.shape)

Downloading ../data/kaggle_house_pred_train.csv from http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_train.csv...
Downloading ../data/kaggle_house_pred_test.csv from http://d2l-data.s3-accelerate.amazonaws.com/kaggle_house_pred_test.csv...
(1460, 81)
(1459, 80)

5.7.4. 数据预处理

我们来看看前四个和最后两个特征以及前四个示例中的标签 (SalePrice)。

print(data.raw_train.iloc[:4, [0, 1, 2, 3, -3, -2, -1]])

  Id MSSubClass MSZoning LotFrontage SaleType SaleCondition SalePrice
0  1     60    RL     65.0    WD    Normal   208500
1  2     20    RL     80.0    WD    Normal   181500
2  3     60    RL     68.0    WD    Normal   223500
3  4     70    RL     60.0    WD    Abnorml   140000

print(data.raw_train.iloc[:4, [0, 1, 2, 3, -3, -2, -1]])

  Id MSSubClass MSZoning LotFrontage SaleType SaleCondition SalePrice
0  1     60    RL     65.0    WD    Normal   208500
1  2     20    RL     80.0    WD    Normal   181500
2  3     60    RL     68.0    WD    Normal   223500
3  4     70    RL     60.0    WD    Abnorml   140000

print(data.raw_train.iloc[:4, [0, 1, 2, 3, -3, -2, -1]])

  Id MSSubClass MSZoning LotFrontage SaleType SaleCondition SalePrice
0  1     60    RL     65.0    WD    Normal   208500
1  2     20    RL     80.0    WD    Normal   181500
2  3     60    RL     68.0    WD    Normal   223500
3  4     70    RL     60.0    WD    Abnorml   140000

print(data.raw_train.iloc[:4, [0, 1, 2, 3, -3, -2, -1]])

  Id MSSubClass MSZoning LotFrontage SaleType SaleCondition SalePrice
0  1     60    RL     65.0    WD    Normal   208500
1  2     20    RL     80.0    WD    Normal   181500
2  3     60    RL     68.0    WD    Normal   223500
3  4     70    RL     60.0    WD    Abnorml   140000

我们可以看到,在每个示例中,第一个特征是 ID。这有助于模型识别每个训练示例。虽然这很方便,但它不携带任何用于预测目的的信息。因此,我们将在将数据输入模型之前将其从数据集中删除。此外,鉴于数据类型多种多样,我们需要在开始建模之前对数据进行预处理。

让我们从数字特征开始。首先,我们应用启发式方法,用相应特征的平均值替换所有缺失值。然后,为了将所有特征放在一个共同的尺度上,我们通过将特征重新缩放为零均值和单位方差来标准化数据:

(5.7.1)x←x−μσ,

在哪里μ和σ分别表示平均值和标准偏差。为了验证这确实改变了我们的特征(变量),使其具有零均值和单位方差,请注意 E[x−μσ]=μ−μσ=0然后 E[(x−μ)2]=(σ2+μ2)−2μ2+μ2=σ2. 直觉上,我们标准化数据有两个原因。首先,证明它便于优化。其次,因为我们先验地不知道 哪些特征是相关的,所以我们不想惩罚分配给一个特征的系数比其他任何特征更多。

接下来我们处理离散值。这包括诸如“MSZoning”之类的功能。我们将它们替换为 one-hot 编码,其方式与我们之前将多类标签转换为向量的方式相同(请参阅 第 4.1.1 节)。例如,“MSZoning”采用值“RL”和“RM”。删除“MSZoning”特征,创建两个新的指标特征“MSZoning_RL”和“MSZoning_RM”,其值为0或1。根据one-hot编码,如果“MSZoning”的原始值为“RL”,则“ MSZoning_RL” 为 1,“MSZoning_RM” 为 0。pandas包会自动为我们完成此操作。

@d2l.add_to_class(KaggleHouse)
def preprocess(self):
  # Remove the ID and label columns
  label = 'SalePrice'
  features = pd.concat(
    (self.raw_train.drop(columns=['Id', label]),
     self.raw_val.drop(columns=['Id'])))
  # Standardize numerical columns
  numeric_features = features.dtypes[features.dtypes!='object'].index
  features[numeric_features] = features[numeric_features].apply(
    lambda x: (x - x.mean()) / (x.std()))
  # Replace NAN numerical features by 0
  features[numeric_features] = features[numeric_features].fillna(0)
  # Replace discrete features by one-hot encoding
  features = pd.get_dummies(features, dummy_na=True)
  # Save preprocessed features
  self.train = features[:self.raw_train.shape[0]].copy()
  self.train[label] = self.raw_train[label]
  self.val = features[self.raw_train.shape[0]:].copy()

您可以看到此转换将特征数量从 79 增加到 331(不包括 ID 和标签列)。

data.preprocess()
data.train.shape

(1460, 332)

data.preprocess()
data.train.shape

(1460, 332)

data.preprocess()
data.train.shape

(1460, 332)

data.preprocess()
data.train.shape

(1460, 332)

5.7.5. 误差测量

首先,我们将训练一个具有平方损失的线性模型。毫不奇怪,我们的线性模型不会导致提交竞赛获胜,但它提供了完整性检查以查看数据中是否存在有意义的信息。如果我们在这里不能比随机猜测做得更好,那么我们很可能遇到数据处理错误。如果一切正常,线性模型将作为基线,让我们直观地了解简单模型与最佳报告模型的接近程度,让我们了解我们应该从更高级的模型中获得多少收益。

对于房价,就像股票价格一样,我们更关心相对数量而不是绝对数量。因此我们更倾向于关心相对误差y−y^y比关于绝对误差y−y^. 例如,如果我们在估计俄亥俄州农村地区的房屋价格时预测偏离 100,000 美元,那里典型房屋的价值为 125,000 美元,那么我们可能做得很糟糕。另一方面,如果我们在加利福尼亚州的 Los Altos Hills 出现这个数额的错误,这可能代表了一个惊人准确的预测(那里的房价中位数超过 400 万美元)。

解决这个问题的一种方法是衡量价格估计的对数差异。事实上,这也是比赛用来评估提交质量的官方误差衡量标准。毕竟价值不高δ为了 |log⁡y−log⁡y^|≤δ翻译成 e−δ≤y^y≤eδ. 这导致预测价格的对数与标签价格的对数之间存在以下均方根误差:

(5.7.2)1n∑i=1n(log⁡yi−log⁡y^i)2.

@d2l.add_to_class(KaggleHouse)
def get_dataloader(self, train):
  label = 'SalePrice'
  data = self.train if train else self.val
  if label not in data: return
  get_tensor = lambda x: torch.tensor(x.values, dtype=torch.float32)
  # Logarithm of prices
  tensors = (get_tensor(data.drop(columns=[label])), # X
        torch.log(get_tensor(data[label])).reshape((-1, 1))) # Y
  return self.get_tensorloader(tensors, train)

@d2l.add_to_class(KaggleHouse)
def get_dataloader(self, train):
  label = 'SalePrice'
  data = self.train if train else self.val
  if label not in data: return
  get_tensor = lambda x: np.array(x.values, dtype=np.float32)
  # Logarithm of prices
  tensors = (get_tensor(data.drop(columns=[label])), # X
        np.log(get_tensor(data[label])).reshape((-1, 1))) # Y
  return self.get_tensorloader(tensors, train)

@d2l.add_to_class(KaggleHouse)
def get_dataloader(self, train):
  label = 'SalePrice'
  data = self.train if train else self.val
  if label not in data: return
  get_tensor = lambda x: jnp.array(x.values, dtype=jnp.float32)
  # Logarithm of prices
  tensors = (get_tensor(data.drop(columns=[label])), # X
        jnp.log(get_tensor(data[label])).reshape((-1, 1))) # Y
  return self.get_tensorloader(tensors, train)

@d2l.add_to_class(KaggleHouse)
def get_dataloader(self, train):
  label = 'SalePrice'
  data = self.train if train else self.val
  if label not in data: return
  get_tensor = lambda x: tf.constant(x.values, dtype=tf.float32)
  # Logarithm of prices
  tensors = (get_tensor(data.drop(columns=[label])), # X
        tf.reshape(tf.math.log(get_tensor(data[label])), (-1, 1))) # Y
  return self.get_tensorloader(tensors, train)

5.7.6.K-折叠交叉验证

您可能还记得我们在第 3.6.3 节中介绍了交叉验证 ,我们在那里讨论了如何处理模型选择。我们将充分利用它来选择模型设计和调整超参数。我们首先需要一个返回ith将数据折叠成 K-折叠交叉验证程序。它通过切出ith段作为验证数据并将其余部分作为训练数据返回。请注意,这不是处理数据的最有效方式,如果我们的数据集相当大,我们肯定会做一些更聪明的事情。但是这种增加的复杂性可能会不必要地混淆我们的代码,因此由于问题的简单性,我们可以在这里安全地省略它。

def k_fold_data(data, k):
  rets = []
  fold_size = data.train.shape[0] // k
  for j in range(k):
    idx = range(j * fold_size, (j+1) * fold_size)
    rets.append(KaggleHouse(data.batch_size, data.train.drop(index=idx),
                data.train.loc[idx]))
  return rets

我们训练时返回平均验证错误K时间在K- 折叠交叉验证。

def k_fold(trainer, data, k, lr):
  val_loss, models = [], []
  for i, data_fold in enumerate(k_fold_data(data, k)):
    model = d2l.LinearRegression(lr)
    model.board.yscale='log'
    if i != 0: model.board.display = False
    trainer.fit(model, data_fold)
    val_loss.append(float(model.board.data['val_loss'][-1].y))
    models.append(model)
  print(f'average validation log mse = {sum(val_loss)/len(val_loss)}')
  return models

5.7.7. 选型

在这个例子中,我们选择了一组未调整的超参数,并留给读者来改进模型。找到一个好的选择可能需要时间,具体取决于优化了多少变量。有了足够大的数据集和正常的超参数,K-折叠交叉验证往往对多重测试具有合理的弹性。然而,如果我们尝试了不合理的大量选项,我们可能会幸运地发现我们的验证性能不再代表真正的错误。

trainer = d2l.Trainer(max_epochs=10)
models = k_fold(trainer, data, k=5, lr=0.01)

average validation log mse = 0.17563143908977508

pYYBAGR9NOqAGzn9AAENmDoLcUY324.svg

trainer = d2l.Trainer(max_epochs=10)
models = k_fold(trainer, data, k=5, lr=0.01)

average validation log mse = 0.1256050333380699

poYBAGR9NO6AK2j-AAEOPSc_icw111.svg

trainer = d2l.Trainer(max_epochs=10)
models = k_fold(trainer, data, k=5, lr=0.01)

average validation log mse = 0.1252850264310837

pYYBAGR9NPGADHW5AAENwhrl1ds890.svg

trainer = d2l.Trainer(max_epochs=10)
models = k_fold(trainer, data, k=5, lr=0.01)

average validation log mse = 0.17464343845844268

pYYBAGR9NPOAC3aaAAEFft1axAc124.svg

请注意,有时一组超参数的训练错误数量可能非常低,即使 K-折叠交叉验证要高得多。这表明我们过度拟合。在整个培训过程中,您需要监控这两个数字。较少的过度拟合可能表明我们的数据可以支持更强大的模型。大规模过度拟合可能表明我们可以通过结合正则化技术来获益。

5.7.8. 在 Kaggle 上提交预测

现在我们知道应该选择什么样的超参数,我们可以计算所有超参数对测试集的平均预测 K楷模。将预测保存在 csv 文件中将简化将结果上传到 Kaggle 的过程。以下代码将生成一个名为submission.csv.

preds = [model(torch.tensor(data.val.values, dtype=torch.float32))
     for model in models]
# Taking exponentiation of predictions in the logarithm scale
ensemble_preds = torch.exp(torch.cat(preds, 1)).mean(1)
submission = pd.DataFrame({'Id':data.raw_val.Id,
              'SalePrice':ensemble_preds.detach().numpy()})
submission.to_csv('submission.csv', index=False)

preds = [model(np.array(data.val.values, dtype=np.float32))
     for model in models]
# Taking exponentiation of predictions in the logarithm scale
ensemble_preds = np.exp(np.concatenate(preds, 1)).mean(1)
submission = pd.DataFrame({'Id':data.raw_val.Id,
              'SalePrice':ensemble_preds.asnumpy()})
submission.to_csv('submission.csv', index=False)

preds = [model.apply({'params': trainer.state.params},
     jnp.array(data.val.values, dtype=jnp.float32))
     for model in models]
# Taking exponentiation of predictions in the logarithm scale
ensemble_preds = jnp.exp(jnp.concatenate(preds, 1)).mean(1)
submission = pd.DataFrame({'Id':data.raw_val.Id,
              'SalePrice':np.asarray(ensemble_preds)})
submission.to_csv('submission.csv', index=False)

preds = [model(tf.constant(data.val.values, dtype=tf.float32))
     for model in models]
# Taking exponentiation of predictions in the logarithm scale
ensemble_preds = tf.reduce_mean(tf.exp(tf.concat(preds, 1)), 1)
submission = pd.DataFrame({'Id':data.raw_val.Id,
              'SalePrice':ensemble_preds.numpy()})
submission.to_csv('submission.csv', index=False)

接下来,如图5.7.3所示,我们可以在 Kaggle 上提交我们的预测,并查看它们如何与测试集上的实际房价(标签)进行比较。步骤很简单:

登录Kaggle网站,访问房价预测比赛页面。

单击“提交预测”或“延迟提交”按钮(截至撰写本文时,该按钮位于右侧)。

单击页面底部虚线框中的“上传提交文件”按钮,然后选择您要上传的预测文件。

单击页面底部的“提交”按钮以查看结果。

poYBAGR9NPaARtmRAAG280ZJS7k319.png

图 5.7.3向 Kaggle 提交数据

5.7.9. 概括

真实数据通常包含不同数据类型的混合,需要进行预处理。将实值数据重新调整为零均值和单位方差是一个很好的默认值。用平均值替换缺失值也是如此。此外,将分类特征转换为指示特征允许我们将它们视为单热向量。当我们更关心相对误差而不是绝对误差时,我们可以用预测的对数来衡量差异。要选择模型并调整超参数,我们可以使用K折叠交叉验证。

5.7.10。练习

将你对本节的预测提交给 Kaggle。你的预测有多好?

用平均值替换缺失值总是一个好主意吗?提示:你能构造一个值不随机缺失的情况吗?

通过调整超参数来提高 Kaggle 的分数 K- 折叠交叉验证。

通过改进模型(例如,层数、权重衰减和丢失)来提高分数。

如果我们不像本节所做的那样对连续数值特征进行标准化,会发生什么情况?

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • pytorch
    +关注

    关注

    2

    文章

    807

    浏览量

    13195
收藏 人收藏

    评论

    相关推荐

    [原创]房价整体上涨推力到底是什么!

    应当是意料之中的事。   2010年3月的十一届全国人大三次会议,国家各部委负责人在做民生答卷的过程中难免有些为难,其在下笔时孰轻孰重甚是难以拿捏,但都能把持有度,胸有成竹地着眼于绘制出漂亮的民生
    发表于 03-16 13:57

    15年,房价变向降了

    一、房降价,因为亚运会结束后房价就会降低,专家说的。不过看看其他国家后,这个说法似乎不是很靠谱儿吧。 二、借助亚运商机,狠狠赚一笔美金或欧元,亚运会期间会有很多外国人来到中国参加4年一度的盛会,估计
    发表于 01-23 17:31

    基于onepanel使用kaggle api提交结果和下载数据集的步骤

    onepanel使用kaggle api提交结果和下载数据集
    发表于 04-22 11:00

    kaggle住宅价格预测

    kaggle房价实战总结
    发表于 08-13 10:08

    kaggle泰坦尼克生存预测实施步骤

    数据分析-kaggle泰坦尼克号生存率分析(入门)个人总结
    发表于 09-05 15:36

    qiuzitao机器学习:桑坦德银行客户交易预测项目

    数据挖掘实战–桑坦德银行客户交易预测项目一、项目介绍:这是2019年Kaggle的比赛:kaggle官网: https://www.kaggle.com/c
    发表于 07-01 10:14

    Ubuntu 18.04 for Arm运行的TensorFlow和PyTorch的Docker映像

    TensorFlow和PyTorch是两个最流行的机器学习框架。两者 Arm 的使用都在增加,从像 Raspberry Pi 这样的小型系统到用于服务器和高性能计算 (HPC) 的大型系统。尽管
    发表于 10-14 14:25

    通过Cortex来非常方便的部署PyTorch模型

    ,Hugging Face 生成的广泛流行的自然语言处理(NLP)库,是建立 PyTorch 的。Selene,生物前沿 ML 库,建在 PyTorch
    发表于 11-01 15:25

    北京房价均降1万!中国房价称霸全球,北京房价均降一万是皮毛!王健林的选择是对是错?

    万达宣布退出房地产惊呆了众人,也许是王健林看出了房价市场的端倪。难道王健林真的是有先见之明,因为北京的房价目前均降一万可是对于我们来说还是皮毛。据最新消息了解到中国的房价称霸全球了,房价
    发表于 09-07 20:20 4.4w次阅读

    如何很容易地将数据共享为Kaggle数据集

    虽然一个更大的、机构层面的努力是理想的,但与此同时,我们也可以利用开源,免费使用Kaggle 这样的资源。我认为 Kaggle 有可能做 Github 早期科学重现性方面所做的事情。如果共享数据集既简单又有趣,有潜在的回报,
    的头像 发表于 06-29 15:06 5380次阅读
    如何很容易地将数据共享为<b class='flag-5'>Kaggle</b>数据集

    这些年来,我们的数据科学究竟发生了什么变化?

    那么logistic回归受欢迎的原因是什么?一个迹象表明,Kaggle的分类问题远多于回归问题,其中一个代表是这些年来最受欢迎的泰坦尼克号生存预测竞赛。这是Kaggle
    的头像 发表于 08-13 09:07 2767次阅读

    如何使用改进GM模型进行房价预测模型资料说明

    本文将以青岛西海岸新区商品房价格为例,针对商品房价格呈现动态变化的特点,利用改进的GM (1, 1)模型与马尔可夫模型结合,提出一种基于时间序列的预测模型,对青岛西海岸新区的商品房价
    发表于 12-19 11:44 7次下载
    如何使用改进GM模型进行<b class='flag-5'>房价</b><b class='flag-5'>预测</b>模型资料说明

    PyTorch教程5.7之在Kaggle预测房价

    电子发烧友网站提供《PyTorch教程5.7之在Kaggle预测房价.pdf》资料免费下载
    发表于 06-05 15:20 1次下载
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>5.7</b>之在<b class='flag-5'>Kaggle</b><b class='flag-5'>上</b><b class='flag-5'>预测</b><b class='flag-5'>房价</b>

    pytorch怎么pycharm中运行

    第一部分:PyTorch和PyCharm的安装 1.1 安装PyTorch PyTorch是一个开源的机器学习库,用于构建和训练神经网络。要在PyCharm中使用PyTorch,首先需
    的头像 发表于 08-01 16:22 1359次阅读

    使用PyTorch英特尔独立显卡训练模型

    PyTorch 2.5重磅更新:性能优化+新特性》中的一个新特性就是:正式支持英特尔独立显卡训练模型!
    的头像 发表于 11-01 14:21 338次阅读
    使用<b class='flag-5'>PyTorch</b><b class='flag-5'>在</b>英特尔独立显卡<b class='flag-5'>上</b>训练模型