返回顶部
首页 > 资讯 > 后端开发 > Python >怎么在python中利用Yolact训练数据集
  • 958
分享到

怎么在python中利用Yolact训练数据集

2023-06-14 10:06:13 958人浏览 独家记忆

Python 官方文档:入门教程 => 点击学习

摘要

怎么在python中利用Yolact训练数据集?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。1:提前准备好自己的数据集使用labelme来制作分割数据集,但是得到的是一个个

怎么在python中利用Yolact训练数据集?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

1:提前准备好自己的数据集

使用labelme来制作分割数据集,但是得到的是一个个单独的JSON文件。需要将其转换成coco。
labelme2coco.py如下所示(代码来源:GitHub链接):

import osimport jsonimport numpy as npimport globimport shutilfrom sklearn.model_selection import train_test_splitnp.random.seed(41)#0为背景,此处根据你数据集的类别来修改keyclassname_to_id = {"1": 1}class Lableme2CoCo: def __init__(self):  self.images = []  self.annotations = []  self.cateGories = []  self.img_id = 0  self.ann_id = 0 def save_coco_json(self, instance, save_path):  json.dump(instance, open(save_path, 'w', encoding='utf-8'), ensure_ascii=False, indent=1) # indent=2 更加美观显示 # 由json文件构建COCO def to_coco(self, json_path_list):  self._init_categories()  for json_path in json_path_list:   obj = self.read_jsonfile(json_path)   self.images.append(self._image(obj, json_path))   shapes = obj['shapes']   for shape in shapes:    annotation = self._annotation(shape)    self.annotations.append(annotation)    self.ann_id += 1   self.img_id += 1  instance = {}  instance['info'] = 'spytensor created'  instance['license'] = ['license']  instance['images'] = self.images  instance['annotations'] = self.annotations  instance['categories'] = self.categories  return instance # 构建类别 def _init_categories(self):  for k, v in classname_to_id.items():   category = {}   category['id'] = v   category['name'] = k   self.categories.append(category) # 构建COCO的image字段 def _image(self, obj, path):  image = {}  from labelme import utils  img_x = utils.img_b64_to_arr(obj['imageData'])  h, w = img_x.shape[:-1]  image['height'] = h  image['width'] = w  image['id'] = self.img_id  image['file_name'] = os.path.basename(path).replace(".json", ".jpg")  return image # 构建COCO的annotation字段 def _annotation(self, shape):  label = shape['label']  points = shape['points']  annotation = {}  annotation['id'] = self.ann_id  annotation['image_id'] = self.img_id  annotation['category_id'] = int(classname_to_id[label])  annotation['segmentation'] = [np.asarray(points).flatten().tolist()]  annotation['bbox'] = self._get_box(points)  annotation['iscrowd'] = 0  annotation['area'] = 1.0  return annotation # 读取json文件,返回一个json对象 def read_jsonfile(self, path):  with open(path, "r", encoding='utf-8') as f:   return json.load(f) # COCO的格式: [x1,y1,w,h] 对应COCO的bbox格式 def _get_box(self, points):  min_x = min_y = np.inf  max_x = max_y = 0  for x, y in points:   min_x = min(min_x, x)   min_y = min(min_y, y)   max_x = max(max_x, x)   max_y = max(max_y, y)  return [min_x, min_y, max_x - min_x, max_y - min_y]if __name__ == '__main__': labelme_path = "labelme/" # 此处根据你的数据集地址来修改 saved_coco_path = "./" # 创建文件 if not os.path.exists("%scoco/annotations/"%saved_coco_path):  os.makedirs("%scoco/annotations/"%saved_coco_path) if not os.path.exists("%scoco/images/train2017/"%saved_coco_path):  os.makedirs("%scoco/images/train2017"%saved_coco_path) if not os.path.exists("%scoco/images/val2017/"%saved_coco_path):  os.makedirs("%scoco/images/val2017"%saved_coco_path) # 获取images目录下所有的joson文件列表 json_list_path = glob.glob(labelme_path + "/*.json") # 数据划分,这里没有区分val2017和tran2017目录,所有图片都放在images目录下 train_path, val_path = train_test_split(json_list_path, test_size=0.12) print("train_n:", len(train_path), 'val_n:', len(val_path)) # 把训练集转化为COCO的json格式 l2c_train = Lableme2CoCo() train_instance = l2c_train.to_coco(train_path) l2c_train.save_coco_json(train_instance, '%scoco/annotations/instances_train2017.json'%saved_coco_path) for file in train_path:  shutil.copy(file.replace("json","jpg"),"%scoco/images/train2017/"%saved_coco_path) for file in val_path:  shutil.copy(file.replace("json","jpg"),"%scoco/images/val2017/"%saved_coco_path) # 把验证集转化为COCO的json格式 l2c_val = Lableme2CoCo() val_instance = l2c_val.to_coco(val_path) l2c_val.save_coco_json(val_instance, '%scoco/annotations/instances_val2017.json'%saved_coco_path)

只需要修改两个地方即可,然后放到data文件夹下。
最后,得到的coco格式的数据集如下所示:

怎么在python中利用Yolact训练数据集

至此,数据准备已经结束。

2:下载github存储库

网址:YOLACT

之后解压,但是我解压的时候不知道为啥没有yolact.py这个文件。后来又建了一个py文件,复制了里面的代码。

怎么在python中利用Yolact训练数据集

下载权重文件,把权重文件放到yolact-master下的weights文件夹里(没有就新建):

怎么在python中利用Yolact训练数据集

怎么在python中利用Yolact训练数据集

3:修改config.py

文件所在位置:

怎么在python中利用Yolact训练数据集

修改类别,把原本的coco的类别全部注释掉,修改成自己的(如红色框),注意COCO_CLASSES里有一个逗号。

怎么在python中利用Yolact训练数据集

修改数据集地址dataset_base

怎么在python中利用Yolact训练数据集

修改coco_base_config(下面第二个横线max_iter并不是控制训练轮数的,第二张图中的max_iter才是)

怎么在python中利用Yolact训练数据集

怎么在python中利用Yolact训练数据集

4:训练

cd到指定路径下,执行下面命令即可

Python train.py --config=yolact_base_config

刚开始:

怎么在python中利用Yolact训练数据集

因为我是租的云服务器,在jupyter notebook里训练的。输出的训练信息比较乱。

训练几分钟后:

怎么在python中利用Yolact训练数据集

主要看T后面的数字即可,好像他就是总的loss,如果它收敛了,按下Ctrl+C,即可中止训练,保存模型权重。

第一个问题:

PyTorchStreamReader failed reading zip arcHive: failed finding central directory

怎么在python中利用Yolact训练数据集

第二个问题:
(但是不知道为啥,我训练时如果中断,保存的模型不能用来测试,会爆出下面的错误)

RuntimeError: unexpected EOF, expected *** more bytes. The file might be corruptrd

没办法解决,所以只能跑完,自动结束之后保存的模型拿来测试(自动保存的必中断保存的要大十几兆)

模型保存的格式:<config>_<epoch>_<iter>.pth。如果是中断的:<config>_<epoch>_<iter>_interrupt.pth

5:测试

使用官网的测试命令即可

怎么在python中利用Yolact训练数据集

关于怎么在python中利用Yolact训练数据集问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注编程网Python频道了解更多相关知识。

--结束END--

本文标题: 怎么在python中利用Yolact训练数据集

本文链接: https://lsjlt.com/news/270033.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • 怎么在python中利用Yolact训练数据集
    怎么在python中利用Yolact训练数据集?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。1:提前准备好自己的数据集使用labelme来制作分割数据集,但是得到的是一个个...
    99+
    2023-06-14
  • python 使用Yolact训练自己的数据集
    目录1:提前准备好自己的数据集2:下载github存储库3:修改config.py4:训练5:测试可能是由于yolact官方更新过其项目代码,所以网上其他人的yolact训练使用的c...
    99+
    2024-04-02
  • UI2Code中如何利用antd.sketchapp 生成训练数据
    这篇文章将为大家详细讲解有关UI2Code中如何利用antd.sketchapp 生成训练数据,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。Ant Design 最近发布了 antd.ske...
    99+
    2023-06-19
  • 用 Python 实现数据集的分割,将数据集分为训练集和测试集
    用 Python 实现数据集的分割,将数据集分为训练集和测试集 在机器学习中,数据集的分割是非常重要的,常见的方法是将数据集分为训练集和测试集。本文将介绍如何使用 Python 中的 Sklearn ...
    99+
    2023-09-29
    python 机器学习 深度学习
  • 怎么在pytorch中使用float64训练
    怎么在pytorch中使用float64训练?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。原因在于:使用float16训练模型,模型效果会有损失,而使用double(float...
    99+
    2023-06-15
  • YOLO | 用YOLOv7训练自己的数据集(超详细版)
    一、环境设置 本文环境设置:Ubuntu (docker) pytorch-gpu 1.远程Ubuntu新建一个新的docker 容器 以下命令是创建一个名称为torch_yolo的gpu容器。如果没有docker可省略。 dock...
    99+
    2023-09-03
    深度学习 pytorch python Powered by 金山文档
  • python神经网络AlexNet分类模型训练猫狗数据集
    目录什么是AlexNet模型训练前准备1、数据集处理2、创建Keras的AlexNet模型开始训练1、训练的主函数2、Keras数据生成器3、主训练函数全部代码训练结果最近在做实验室...
    99+
    2024-04-02
  • 云服务器训练数据怎么看
    云服务器训练数据通常使用Kubernetes和GraphX来存储和处理。以下是一些方法,用于查看和分析这些数据。 查看Kubernetes日志。在云服务器上,Kubernetes会向GraphX传递日志,以查看每个实例的健康状况。您可以...
    99+
    2023-10-27
    怎么看 服务器 数据
  • pytorch使用voc分割数据集训练FCN流程讲解
    目录一、FCN理论介绍二、训练过程2.1 voc数据集介绍2.2 网络定义2.3 训练语义分割是对图像中的每一个像素进行分类,从而完成图像分割的过程。分割主要用于医学图像领域和无人驾...
    99+
    2022-12-08
    pytorch训练FCN pytorch voc训练FCN
  • 波士顿房价数据集进行数据预处理和模型训练(Python)
    目录 前言 一、数据预处理定义 二、波士顿房价数据进行数据预处理 2.1 下载波士顿房价数据集  2.2 查看数据集的描述、特征及数据条数、特征数量 2.3 将数据读入pandas的DataFrame并转存到csv文件 2.4 查看数据...
    99+
    2023-10-08
    python 人工智能 scikit-learn 数据预处理
  • 如何在Caffe中利用多个GPU进行并行训练
    要在Caffe中利用多个GPU进行并行训练,您可以使用以下步骤: 配置Caffe以支持多GPU训练。首先,您需要将Caffe编译...
    99+
    2024-04-02
  • 云服务器训练数据怎么获取
    云服务器训练数据通常需要从用户提供的数据中获取。以下是获取云服务器训练数据的一些常见方法: 从云数据库获取:如果需要训练某个特定的模型,可以考虑使用云数据库来存储数据。例如使用PostgreSQL、Google Sheets等数据库存储...
    99+
    2023-10-27
    服务器 数据
  • 怎么在python中利用pandas添加数据
    怎么在python中利用pandas添加数据?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。python有哪些常用库python常用的库:1.requesuts;2.scrapy...
    99+
    2023-06-14
  • 怎么在python中利用json保存数据
    这篇文章将为大家详细讲解有关怎么在python中利用json保存数据,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。python有哪些常用库python常用的库:1.requesuts;2.s...
    99+
    2023-06-14
  • 云服务器训练数据怎么看的到
    一、数据收集 云服务器通常采用集群的方式收集训练数据。在云服务器上部署了一些预置的训练数据集,可以通过配置服务器来收集数据。这些预置数据集包含了大量的训练数据,可以用来训练机器学习模型。 二、数据预处理 在收集了训练数据后,需要对数据进行...
    99+
    2023-10-28
    怎么看 服务器 数据
  • 云服务器训练数据怎么获取的
    首先,云服务器通常会提供数据库服务。您可以使用这些服务来存储训练数据。您可以将数据库视为一个存储层,其中包含与模型相关的数据。您可以使用任何云服务器提供商提供的数据库服务,例如MySQL、PostgreSQL、MongoDB等等。在选择数据...
    99+
    2023-10-28
    服务器 数据
  • 云服务器训练数据怎么看的啊
    首先,可以采用机器学习技术对训练数据进行预处理。具体步骤如下: 清理数据:对训练数据进行清理和预处理,包括去除重复值、缺失值、异常值等。可以使用一些数据清洗工具来帮助完成这个过程。 特征选择:特征选择是为了减少数据集中的噪声和不必要的特...
    99+
    2023-10-28
    怎么看 服务器 数据
  • 在浏览器中怎么实现训练模型
    这篇“在浏览器中怎么实现训练模型”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“在浏览器中怎么实现训练模型”文章吧。识别鸢尾花...
    99+
    2023-07-02
  • 怎么在python中利用Selenium+Requests爬取数据
    本篇文章给大家分享的是有关怎么在python中利用Selenium+Requests爬取数据,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。python的数据类型有哪些pytho...
    99+
    2023-06-14
  • 怎么在python中利用indent打印JSON数据
    本篇文章给大家分享的是有关怎么在python中利用indent打印JSON数据,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。python有哪些常用库python常用的库:1.r...
    99+
    2023-06-14
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作