0

0

点云处理:基于Paddle2.0实现Kd-Networks对点云进行分类处理

P粉084495128

P粉084495128

发布时间:2025-07-21 10:32:57

|

671人浏览过

|

来源于php中文网

原创

本文介绍基于Paddle2.0实现Kd-Networks对点云分类处理。Kd-Networks引入Kd-Tree结构,将非结构化点云转为结构化数据,用1*1卷积近似KD算子。使用ShapeNet的.h5数据集,经数据处理、网络定义等步骤,训练20轮后,训练集准确率0.978,测试集0.9375,展示了其处理点云分类的效果。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

点云处理:基于paddle2.0实现kd-networks对点云进行分类处理 - php中文网

科大讯飞-AI虚拟主播
科大讯飞-AI虚拟主播

科大讯飞推出的移动互联网智能交互平台,为开发者免费提供:涵盖语音能力增强型SDK,一站式人机智能语音交互解决方案,专业全面的移动应用分析;

下载

点云处理:基于Paddle2.0实现Kd-Networks对点云进行分类处理

网络简介

    Kd-Networks于2017发表于ICCV上。创新性地引入了Kd-Tree结构用于处理点云。

    论文:Escape from Cells: Deep Kd-Networks for the Recognition of 3D Point Cloud Models

       

项目效果

训练二十轮后的准确率:

       


训练集上 测试集上
Accuracy 0.978 0.9375

项目说明

①数据集

    本次用到的数据集是ShapeNet,储存格式是.h5文件。

    .h5储存的key值分别为:

    1、data:这一份数据中所有点的xyz坐标,

    2、label:这一份数据所属类别,如airplane等,

    3、pid:这一份数据中所有点所属的类型,如这一份数据属airplane类,则它包含的所有点的类型有机翼、机身等类型。

       

②Kd-Networks 简介

    一、Kd-Networks最大的创新点在于引入了Kd-Tree这一结构,Kd-Tree将非结构化点云变成结构化数据,构建了处理非结构化点云的特征工程。

    二、该项目利用1*1卷积近似实现KD算子的功能,因此在构建Kd-Networks网络时,构建的是一个类Kd-Tree的网络,也就是说Kd-Networks将数据处理中Kd-Tree化的过程复刻到网络上(例如在index_select处可以看到,index_select复刻的是数据处理时Kd-Tree化中二叉时切割的维度),网络因此类Kd-Tree。

    点云处理:基于Paddle2.0实现Kd-Networks对点云进行分类处理 - php中文网        

项目主体

①解压数据集、导入需要的库

In [ ]
!unzip data/data67117/shapenet_part_seg_hdf5_data.zip!mv hdf5_data dataset
   
In [1]
import osimport numpy as npimport randomimport h5pyimport paddleimport paddle.nn as nnimport paddle.nn.functional as Ffrom tools.build_KDTree import build_KDTree
   

②数据处理

1、生成训练和测试样本的list

In [2]
train_list = ['ply_data_train0.h5', 'ply_data_train1.h5', 'ply_data_train2.h5', 'ply_data_train3.h5', 'ply_data_train4.h5', 'ply_data_train5.h5']
test_list = ['ply_data_test0.h5', 'ply_data_test1.h5']
val_list = ['ply_data_val0.h5']
   

2、数据读取

    注:在数据读取这里,可以借助scipy.spatial中的cKDTree很快地生成kdTree。

       

In [3]
def pointDataLoader(mode='train'):
    path = './dataset/'
    BATCHSIZE = 64
    MAX_POINT = 1024
    LEVELS = (np.log(MAX_POINT) / np.log(2)).astype(int)

    datas = []
    split_dims_v = []
    points_v = []
    labels = []    if mode == 'train':        for file_list in train_list:
            f = h5py.File(os.path.join(path, file_list), 'r')
            datas.extend(f['data'][:, :MAX_POINT, :])
            labels.extend(f['label'])
            f.close()    elif mode == 'test':        for file_list in test_list:
            f = h5py.File(os.path.join(path, file_list), 'r')
            datas.extend(f['data'][:, :MAX_POINT, :])
            labels.extend(f['label'])
            f.close()    else:        for file_list in val_list:
            f = h5py.File(os.path.join(path, file_list), 'r')
            datas.extend(f['data'][:, :MAX_POINT, :])
            labels.extend(f['label'])
            f.close()
    datas = np.array(datas)    for i in range(len(datas)):
        split_dim, tree = build_KDTree(datas[i], depth=LEVELS)
        split_dim_v = [np.array(item).astype(np.int64) for item in split_dim]
        split_dims_v.append(split_dim_v)
        points_v.append(tree[-1].transpose(0, 2, 1))

    split_dims_v = np.array(split_dims_v)
    points_v = np.array(points_v)
    labels = np.array(labels)    print('==========load over==========')

    index_list = list(range(len(datas)))    def pointDataGenerator():
        if mode == 'train':
            random.shuffle(index_list)
        split_dims_v_list = []
        points_v_list = []
        labels_list = []        for i in index_list:
            split_dims_v_list.append(split_dims_v[i])
            points_v_list.append(points_v[i].astype('float32')) 
            labels_list.append(labels[i].astype('int64'))            if len(labels_list) == BATCHSIZE:                yield np.array(split_dims_v_list), np.array(points_v_list), np.array(labels_list)
                split_dims_v_list = []
                points_v_list = []
                labels_list = []        if len(labels_list) > 0:            yield np.array(split_dims_v_list), np.array(points_v_list), np.array(labels_list)    return pointDataGenerator
   

③定义网络

In [10]
class KDNet(nn.Layer):
    def __init__(self, k=16):
        super(KDNet, self).__init__()
        self.conv1 = nn.Conv1D(3, 32*3, 1, 1)
        self.conv2 = nn.Conv1D(32, 64*3, 1, 1)
        self.conv3 = nn.Conv1D(64, 64*3, 1, 1)
        self.conv4 = nn.Conv1D(64, 128*3, 1, 1)
        self.conv5 = nn.Conv1D(128, 128*3, 1, 1)
        self.conv6 = nn.Conv1D(128, 256*3, 1, 1)
        self.conv7 = nn.Conv1D(256, 256*3, 1, 1)
        self.conv8 = nn.Conv1D(256, 512*3, 1, 1)
        self.conv9 = nn.Conv1D(512, 512*3, 1, 1)
        self.conv10 = nn.Conv1D(512, 128*3, 1, 1)
        self.fc = nn.Linear(128, k)    def forward(self, x, split_dims_v):
        def kdconv(x, dim, featdim, select, conv):
            x = F.relu(conv(x))
            x = paddle.reshape(x, (-1, featdim, 3, dim))
            x = paddle.reshape(x, (-1, featdim, 3 * dim))
            select = paddle.to_tensor(select) + (paddle.arange(0, dim) * 3)
            x = paddle.index_select(x, axis=2, index=select)    
            x = paddle.reshape(x, (-1, featdim, int(dim/2), 2))
            x = paddle.max(x, axis=-1)            return x

        x = kdconv(x, 1024, 32, split_dims_v[0], self.conv1)
        x = kdconv(x, 512, 64, split_dims_v[1], self.conv2)
        x = kdconv(x, 256, 64, split_dims_v[2], self.conv3)
        x = kdconv(x, 128, 128, split_dims_v[3], self.conv4)
        x = kdconv(x, 64, 128, split_dims_v[4], self.conv5)
        x = kdconv(x, 32, 256, split_dims_v[5], self.conv6)
        x = kdconv(x, 16, 256, split_dims_v[6], self.conv7)
        x = kdconv(x, 8, 512, split_dims_v[7], self.conv8)
        x = kdconv(x, 4, 512, split_dims_v[8], self.conv9)
        x = kdconv(x, 2, 128, split_dims_v[9], self.conv10)
        x = paddle.reshape(x, (-1, 128))
        x = F.log_softmax(self.fc(x))        return x
   

⑤训练

1、创建训练数据读取器

    注:由于训练数据预处理比较慢,所以先创建训练数据读取器(创建同时会对数据进行预处理),这样在训练时候直接导入就显得训练过程快很多(实际上并没有节省时间,只不过是为了调试方便和读者尝试,把训练数据读取器单独拿出来创建)。

       

In [5]
train_loader = pointDataLoader(mode='train')
       
==========load over==========
       

2、开始训练

In [11]
def train():
    model = KDNet()
    model.train()
    optim = paddle.optimizer.Adam(parameters=model.parameters(), weight_decay=0.001)

    epoch_num = 40
    for epoch in range(epoch_num):        for batch_id, data in enumerate(train_loader()):
            split_dims_v = data[0]
            points_v = data[1]
            labels = data[2]
            inputs = paddle.to_tensor(points_v)
            labels = paddle.to_tensor(labels)
            predict = []            for i in range(split_dims_v.shape[0]):
                predict.extend(model(inputs[i], split_dims_v[i]))

            predicts = paddle.stack(predict)
            loss = F.nll_loss(predicts, labels)
            acc = paddle.metric.accuracy(predicts, labels)        

            if batch_id % 10 == 0: 
                print("epoch: {}, batch_id: {}, loss is: {}, accuracy is: {}".format(epoch, batch_id, loss.numpy(), acc.numpy()))
            
            loss.backward()
            optim.step()
            optim.clear_grad()        if epoch % 2 == 0:
            paddle.save(model.state_dict(), './model/KDNet.pdparams')
            paddle.save(optim.state_dict(), './model/KDNet.pdopt')if __name__ == '__main__':
    train()
   

⑥评估

In [12]
def evaluation():
    test_loader = pointDataLoader(mode='test')
    model = KDNet()
    model_state_dict = paddle.load('./model/KDNet.pdparams')
    model.load_dict(model_state_dict)    for batch_id, data in enumerate(test_loader()):
        split_dims_v = data[0]
        points_v = data[1]
        labels = data[2]
        inputs = paddle.to_tensor(points_v)
        labels = paddle.to_tensor(labels)
        predict = []        for i in range(split_dims_v.shape[0]):
            predict.extend(model(inputs[i], split_dims_v[i]))
        predicts = paddle.stack(predict)

        acc = paddle.metric.accuracy(predicts, labels)        print("eval accuracy is: {}".format(acc.numpy()))        break;if __name__ == '__main__':
    evaluation()
       
==========load over==========
eval accuracy is: [0.9375]
       

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

10

2026.01.27

拼多多赚钱的5种方法 拼多多赚钱的5种方法
拼多多赚钱的5种方法 拼多多赚钱的5种方法

在拼多多上赚钱主要可以通过无货源模式一件代发、精细化运营特色店铺、参与官方高流量活动、利用拼团机制社交裂变,以及成为多多进宝推广员这5种方法实现。核心策略在于通过低成本、高效率的供应链管理与营销,利用平台社交电商红利实现盈利。

109

2026.01.26

edge浏览器怎样设置主页 edge浏览器自定义设置教程
edge浏览器怎样设置主页 edge浏览器自定义设置教程

在Edge浏览器中设置主页,请依次点击右上角“...”图标 > 设置 > 开始、主页和新建标签页。在“Microsoft Edge 启动时”选择“打开以下页面”,点击“添加新页面”并输入网址。若要使用主页按钮,需在“外观”设置中开启“显示主页按钮”并设定网址。

16

2026.01.26

苹果官方查询网站 苹果手机正品激活查询入口
苹果官方查询网站 苹果手机正品激活查询入口

苹果官方查询网站主要通过 checkcoverage.apple.com/cn/zh/ 进行,可用于查询序列号(SN)对应的保修状态、激活日期及技术支持服务。此外,查找丢失设备请使用 iCloud.com/find,购买信息与物流可访问 Apple (中国大陆) 订单状态页面。

136

2026.01.26

npd人格什么意思 npd人格有什么特征
npd人格什么意思 npd人格有什么特征

NPD(Narcissistic Personality Disorder)即自恋型人格障碍,是一种心理健康问题,特点是极度夸大自我重要性、需要过度赞美与关注,同时极度缺乏共情能力,背后常掩藏着低自尊和不安全感,影响人际关系、工作和生活,通常在青少年时期开始显现,需由专业人士诊断。

7

2026.01.26

windows安全中心怎么关闭 windows安全中心怎么执行操作
windows安全中心怎么关闭 windows安全中心怎么执行操作

关闭Windows安全中心(Windows Defender)可通过系统设置暂时关闭,或使用组策略/注册表永久关闭。最简单的方法是:进入设置 > 隐私和安全性 > Windows安全中心 > 病毒和威胁防护 > 管理设置,将实时保护等选项关闭。

6

2026.01.26

2026年春运抢票攻略大全 春运抢票攻略教你三招手【技巧】
2026年春运抢票攻略大全 春运抢票攻略教你三招手【技巧】

铁路12306提供起售时间查询、起售提醒、购票预填、候补购票及误购限时免费退票五项服务,并强调官方渠道唯一性与信息安全。

122

2026.01.26

个人所得税税率表2026 个人所得税率最新税率表
个人所得税税率表2026 个人所得税率最新税率表

以工资薪金所得为例,应纳税额 = 应纳税所得额 × 税率 - 速算扣除数。应纳税所得额 = 月度收入 - 5000 元 - 专项扣除 - 专项附加扣除 - 依法确定的其他扣除。假设某员工月工资 10000 元,专项扣除 1000 元,专项附加扣除 2000 元,当月应纳税所得额为 10000 - 5000 - 1000 - 2000 = 2000 元,对应税率为 3%,速算扣除数为 0,则当月应纳税额为 2000×3% = 60 元。

35

2026.01.26

oppo云服务官网登录入口 oppo云服务登录手机版
oppo云服务官网登录入口 oppo云服务登录手机版

oppo云服务https://cloud.oppo.com/可以在云端安全存储您的照片、视频、联系人、便签等重要数据。当您的手机数据意外丢失或者需要更换手机时,可以随时将这些存储在云端的数据快速恢复到手机中。

121

2026.01.26

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号