0

0

TensorFlow模型训练:数据集分割与数值稳定性

花韻仙語

花韻仙語

发布时间:2025-07-13 18:42:15

|

992人浏览过

|

来源于php中文网

原创

tensorflow模型训练:数据集分割与数值稳定性

问题重述

如摘要所述,问题在于使用 TensorFlow 的 tf.data.Dataset 构建数据集时,未分割的完整数据集在训练模型时会导致损失函数变为 NaN,而将数据集分割成训练集和测试集后,模型训练则正常进行。尽管两种数据集的预处理方式相同,但训练结果却截然不同。

原因分析:数据尺度与梯度爆炸

根本原因很可能是数据尺度问题梯度爆炸的结合。当神经网络的输入数据尺度过大,且模型中使用了如 ReLU 等激活函数时,容易导致梯度爆炸。具体来说:

  1. 数据尺度过大: 从问题描述中的数据样本可以看出,input1 和 input2 的数值范围差异很大,且数值本身可能偏大。未经缩放的数据直接输入模型,会导致模型权重在训练初期就发生较大的变化。
  2. ReLU 激活函数: ReLU 函数在正区间上的导数为 1,这使得梯度能够无衰减地传递,从而加剧了梯度爆炸的可能性。如果某个神经元的输入经过 ReLU 后变得很大,那么它的梯度也会很大,从而导致其权重发生剧烈变化。
  3. 数据集大小的影响: 完整数据集包含更多的数据,这意味着每个 epoch 中模型会进行更多的梯度更新。在未经缩放的数据上进行更多次的梯度更新,会加速权重爆炸的过程,从而更快地导致 NaN 值的出现。分割后的数据集由于数据量减少,权重爆炸的速度相对较慢,可能在训练结束前还未出现 NaN 值。

解决方案:数据标准化

解决此问题的关键在于对数据进行标准化处理,将数据缩放到一个合适的范围内,避免梯度爆炸。常用的标准化方法包括:

  • StandardScaler (Z-score 标准化): 将数据缩放到均值为 0,标准差为 1 的范围内。
  • MinMaxScaler: 将数据缩放到 [0, 1] 的范围内。

推荐使用 StandardScaler,因为它对异常值不敏感,且能够更好地保持数据的分布形状。

实现步骤:

Typeface
Typeface

AI创意内容创作助手

下载
  1. 分割数据集: 首先,将完整数据集分割成训练集和测试集。务必先分割数据集,再进行标准化,防止信息泄露。
  2. 拟合 StandardScaler: 使用训练集数据拟合 StandardScaler 对象,计算训练集的均值和标准差。
  3. 转换数据: 使用拟合好的 StandardScaler 对象分别转换训练集和测试集数据。

代码示例:

import tensorflow as tf
from sklearn.preprocessing import StandardScaler
import numpy as np

# 假设 full_dataset 已经加载,并且是 tf.data.Dataset 对象

# 1. 分割数据集
def is_test(x, _):
    return x % 10 == 0  # 假设 10% 作为测试集

def is_train(x, y):
    return not is_test(x, y)

recover = lambda x, y: y

# Split the dataset for training.
test_set = full_dataset.enumerate().filter(is_test).map(recover)

# Split the dataset for testing/validation.
trainning_set = full_dataset.enumerate().filter(is_train).map(recover)

# 2. 提取数据并转换为 NumPy 数组
def extract_data(dataset):
  input1_list = []
  input2_list = []
  target_list = []
  for element in dataset:
    inputs, target = element
    input1_list.append(inputs['input1'].numpy())
    input2_list.append(inputs['input2'].numpy())
    target_list.append(target.numpy())
  return np.concatenate(input1_list, axis=0), np.concatenate(input2_list, axis=0), np.array(target_list)


input1_train, input2_train, target_train = extract_data(trainning_set)
input1_test, input2_test, target_test = extract_data(test_set)

# 3. 训练 StandardScaler 并转换数据
scaler_input1 = StandardScaler()
scaler_input2 = StandardScaler()
scaler_target = StandardScaler()

input1_train_scaled = scaler_input1.fit_transform(input1_train.reshape(-1, input1_train.shape[-1])).reshape(input1_train.shape)
input2_train_scaled = scaler_input2.fit_transform(input2_train)
target_train_scaled = scaler_target.fit_transform(target_train.reshape(-1,1))

input1_test_scaled = scaler_input1.transform(input1_test.reshape(-1, input1_test.shape[-1])).reshape(input1_test.shape)
input2_test_scaled = scaler_input2.transform(input2_test)
target_test_scaled = scaler_target.transform(target_test.reshape(-1,1))


# 4. 创建新的 tf.data.Dataset 对象
def create_dataset(input1, input2, target):
    def generator():
        for i in range(len(input1)):
            yield ({'input1': input1[i], 'input2': input2[i]}, target[i])

    return tf.data.Dataset.from_generator(
        generator,
        output_signature=(
            {'input1': tf.TensorSpec(shape=input1.shape[1:], dtype=tf.float32),
             'input2': tf.TensorSpec(shape=input2.shape[1:], dtype=tf.float32)},
            tf.TensorSpec(shape=target.shape[1:], dtype=tf.float32)
        )
    )

trainning_set_scaled = create_dataset(input1_train_scaled, input2_train_scaled, target_train_scaled)
test_set_scaled = create_dataset(input1_test_scaled, input2_test_scaled, target_test_scaled)

trainning_set_scaled = trainning_set_scaled.batch(batch_size).cache().prefetch(2)
test_set_scaled = test_set_scaled.batch(batch_size).cache().prefetch(2)


# 使用标准化后的数据训练模型
model.fit(trainning_set_scaled, validation_data=test_set_scaled)

注意事项:

  • 在测试集和预测时,必须使用与训练集相同的 StandardScaler 对象进行转换
  • tf.data.Dataset 对象不易直接操作,需要先转换为 NumPy 数组才能进行标准化。
  • 如果模型预测结果需要还原到原始尺度,可以使用 scaler.inverse_transform() 方法。

总结

当 TensorFlow 模型在完整数据集上训练时出现 NaN 值,而在分割后的数据集上训练正常时,很可能是由于数据尺度过大导致梯度爆炸。通过使用 StandardScaler 对数据进行标准化处理,可以有效地解决这个问题,确保模型训练的数值稳定性。记住,先分割数据集,再进行标准化,并使用相同的 StandardScaler 对象转换训练集和测试集数据。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

29

2025.12.22

Python 深度学习框架与TensorFlow入门
Python 深度学习框架与TensorFlow入门

本专题深入讲解 Python 在深度学习与人工智能领域的应用,包括使用 TensorFlow 搭建神经网络模型、卷积神经网络(CNN)、循环神经网络(RNN)、数据预处理、模型优化与训练技巧。通过实战项目(如图像识别与文本生成),帮助学习者掌握 如何使用 TensorFlow 开发高效的深度学习模型,并将其应用于实际的 AI 问题中。

192

2026.01.07

TensorFlow2深度学习模型实战与优化
TensorFlow2深度学习模型实战与优化

本专题面向 AI 与数据科学开发者,系统讲解 TensorFlow 2 框架下深度学习模型的构建、训练、调优与部署。内容包括神经网络基础、卷积神经网络、循环神经网络、优化算法及模型性能提升技巧。通过实战项目演示,帮助开发者掌握从模型设计到上线的完整流程。

29

2026.02.10

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

76

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

116

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

345

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

62

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

109

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

108

2026.03.06

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 1.0万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号