admin管理员组文章数量:1516870
《------往期经典推荐------》
一、
| 项目名称 | 项目名称 |
|---|---|
| 1.【 】 | 2.【 】 |
| 3.【 】 | 4.【 】 |
| 5.【 】 | 6.【 】 |
| 7.【 】 | 8.【 】 |
| 9.【 】 | 10.【 】 |
| 11.【 】 | 12.【 】 |
| 13.【 】 | 14.【 】 |
| 15.【 】 | 16.【 】 |
| 17.【 】 | 18.【 】 |
| 19.【 】 | 20.【 】 |
| 21.【 】 | 22.【 】 |
| 23.【 】 | 24.【 】 |
| 25.【 】 | 26.【 】 |
| 27.【 】 | 28.【 】 |
| 29.【 】 | 30.【 】 |
| 31.【 】 | 32.【 】 |
| 33.【 】 | 34.【 】 |
| 35.【 】 | 36.【 】 |
| 37.【 】 | 38.【 】 |
| 39.【 】 | 40.【 】 |
| 41.【 】 | 42.【 】 |
| 43.【 】 | 44.【 】 |
| 45.【 】 | 46.【 】 |
| 47.【 】 | 48.【 】 |
| 49.【 】 | 50.【 】 |
| 51.【 】 | 52.【 】 |
| 53.【 】 | 54.【 】 |
| 55.【 】 | 56.【 】 |
| 57.【 】 | 58.【 】 |
| 59.【 】 | 60.【 】 |
| 61.【 】 | 62.【 】 |
| 63.【 】 | 64.【 】 |
| 65.【 】 | 66.【 】 |
| 67.【 】 | 68.【 】 |
| 69.【 】 | 70.【 】 |
| 71.【 】 | 72.【 】 |
| 73.【 】 | 74.【 】 |
| 75.【 】 | 76.【 】 |
| 77.【 】 | 78.【 】 |
| 79.【 】 | 80.【 】 |
| 81.【 】 | 82.【 】 |
| 83.【 】 | 84.【 】 |
| 85.【 】 | 86.【 】 |
| 87.【 】 | 88.【 】 |
二、
,已更新31期,欢迎关注,持续更新中~~
三、
四、
,
持续更新中~~
,持续更新中~
《------正文------》
基本功能演示
摘要:肺癌是全球范围内导致死亡的主要原因之一,早期发现和治疗至关重要。肺结节是肺癌早期标志物,其传统诊断依赖医生经验,耗时且易误诊。本文基于
YOLO11的深度学习框架,通过2356张实际场景中医学CT图像肺结节的相关图片,训练了可进行肺结节目标检测的模型,可以很好的检测医学CT图像中的肺结节,同时会进行语音提示。最终基于训练好的模型制作了一款带UI界面的医学CT图像肺结节智能检测与语音提示系统,更便于实际应用。该系统是基于python与PyQT5开发的,支持图片、视频以及摄像头进行目标检测,并保存检测结果。本文提供了完整的Python代码和使用教程,给感兴趣的小伙伴参考学习, 完整的代码资源文件获取方式见文末 。
研究背景
肺癌是全球范围内导致死亡的主要原因之一,早期发现和治疗对于提高患者的生存率至关重要。肺结节作为潜在的早期肺癌标志物,其准确检测对临床诊断具有重要意义。然而,传统的肺结节检测方法依赖于放射科医生的经验和专业知识,这不仅耗时,而且容易出现漏诊或误诊的情况。
基于YOLO深度学习框架开发的医学CT图像肺结节智能检测与语音提示系统,能够实时自动识别CT图像中的肺结节,并通过语音提示提醒医疗人员注意潜在的问题。该系统的应用显著提高了肺结节检测的速度和准确性,有助于实现早期诊断和及时治疗,从而改善患者预后。
应用场景
临床辅助诊断
:在日常诊疗中为医生提供快速且准确的肺结节检测结果,帮助医生做出更精准的诊断决策。
急诊室快速响应
:在紧急情况下,系统可以迅速分析CT图像,确保肺结节等关键信息不被遗漏,加速急救流程。
大规模筛查项目
:支持公共卫生部门进行大规模肺癌筛查,尤其是在高风险人群中(如吸烟者),提高筛查效率和覆盖范围。
远程医疗服务
:结合远程医疗技术,系统可以在偏远地区的医疗机构中使用,当地医生上传CT图像后,系统不仅能自动分析结果,还能通过语音提示指导后续处理步骤。
教学与培训
:作为教育工具,帮助医学生和初级放射科医生学习如何识别不同类型的肺结节及其特征,提升他们的专业技能。
术后复查与康复监测
:用于跟踪已接受治疗的患者的恢复情况,定期评估是否存在新的或复发的肺结节,确保治疗效果符合预期。
主要工作内容
本文的主要内容包括以下几个方面:
搜集与整理数据集:搜集整理实际场景中医学CT图像肺结节的相关数据图片,并进行相应的数据标注与处理,为模型训练提供训练数据集;训练模型:基于整理的数据集,根据最前沿的YOLOv11目标检测技术训练目标检测模型,实现对需要检测的对象进行有效检测的功能;模型性能评估:对训练出的模型在验证集上进行了充分的结果评估和对比分析,主要目的是为了揭示模型在关键指标(如Precision、Recall、mAP50和mAP50-95等指标)上的表现情况。可视化系统制作:基于训练出的目标检测模型,搭配Pyqt5制作的UI界面,用python开发了一款界面简洁的软件系统,可支持图片、视频以及摄像头检测,同时可以将图片或者视频检测结果进行保存。其目的是为检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。
软件初始界面如下图所示:
检测结果界面如下:
一、软件核心功能介绍及效果演示
软件主要功能
1. 可用于实际场景中的
医学CT图像肺结节
检测,分1个检测类别:
['肺结节']
;
2. 支持
图片、视频及摄像头
进行检测,同时
支持图片的批量检测
;
3. 界面可实时显示
目标位置
、
目标总数
、
置信度
、
用时
、
检测结果
等信息;
4. 支持
图片
或者
视频
的
检测结果保存
;
5. 支持将图片的检测结果保存为
csv文件
;
界面参数设置说明
置信度阈值:也就是目标检测时的conf参数,只有检测出的目标框置信度大于该值,结果才会显示;
交并比阈值:也就是目标检测时的iou参数,对检测框重叠比例iou大于该阈值的目标框进行过滤【也就是说假如两检测框iou大于该值的话,会过滤掉其中一个,该值越小,重叠框会越少】;
检测结果说明
语音提示功能
:检测结果区域如检测到目标会显示
异常
,同时
会有语音提示
;如无目标则显示
正常
。
显示标签名称与置信度:
表示是否在检测图片上标签名称与置信度,显示默认勾选,如果不勾选则不会在检测图片上显示标签名称与置信度;
总目标数
:表示画面中检测出的目标数目;
目标选择
:可选择单个目标进行位置信息、置信度查看。
目标位置
:表示所选择目标的检测框,左上角与右下角的坐标位置。
默认显示的是置信度最大的一个目标信息;
主要功能说明
功能视频演示见文章开头,以下是简要的操作描述。
(1)图片检测说明
点击
打开图片
按钮,选择需要检测的图片,或者点击
打开文件夹
按钮,选择需要批量检测图片所在的文件夹,操作演示如下:
点击目标下拉框后,可以选定指定目标的结果信息进行显示。
点击
保存
按钮,会对检测结果进行保存,存储路径为:
save_data
目录下,同时会
将图片检测信息保存csv文件
。
注:1.右侧目标位置默认显示置信度最大一个目标位置,可用下拉框进行目标切换。所有检测结果均在左下方表格中显示。
(2)视频检测说明
点击
视频
按钮,打开选择需要检测的视频,就会自动显示检测结果,再次点击可以关闭视频。
点击
保存
按钮,会对视频检测结果进行保存,存储路径为:
save_data
目录下。
(3)摄像头检测说明
点击
打开摄像头
按钮,可以打开摄像头,可以实时进行检测,再次点击,可关闭摄像头。
(4)保存图片与视频检测说明
点击
保存
按钮后,会将当前选择的
图片【含批量图片】或者视频
的检测结果进行保存,
对于图片图片检测还会保存检测结果为csv文件
,方便进行查看与后续使用。检测的图片与视频结果会存储在
save_data
目录下。
【
注:暂不支持视频文件的检测结果保存为csv文件格式。
】
保存的检测结果文件如下:
图片文件保存的csv文件内容如下,包括
图片路径、目标在图片中的编号、目标类别、置信度、目标坐标位置
。
注:其中坐标位置是代表检测框的左上角与右下角两个点的x、y坐标。
二、YOLO11简介
YOLO11源码地址:
Ultralytics YOLO11是一款前沿的、最先进的模型,它在之前YOLO版本成功的基础上进行了构建,并引入了新功能和改进,以进一步提升性能和灵活性。YOLO11设计快速、准确且易于使用,使其成为各种物体检测和跟踪、实例分割、图像分类以及姿态估计任务的绝佳选择。
YOLO11的网络结构:
YOLO11创新点如下:
YOLO 11主要改进包括:
增强的特征提取
:YOLO 11采用了改进的骨干和颈部架构,增强了特征提取功能,以实现更精确的目标检测。
优化的效率和速度
:优化的架构设计和优化的训练管道提供更快的处理速度,同时保持准确性和性能之间的平衡。
更高的精度,更少的参数
:YOLO11m在COCO数据集上实现了更高的平均精度(mAP),参数比YOLOv8m少22%,使其在不影响精度的情况下提高了计算效率。
跨环境的适应性
:YOLO 11可以部署在各种环境中,包括边缘设备、云平台和支持NVIDIA GPU的系统。
广泛的支持任务
:YOLO 11支持各种计算机视觉任务,如对象检测、实例分割、图像分类、姿态估计和面向对象检测(OBB)。
三、模型训练、评估与推理
本文主要基于
YOLO11n
模型进行模型训练,训练完成后对模型在验证集上的表现进行全面的性能评估及对比分析。总体流程包括:
数据集准备、模型训练、模型评估。
1. 数据集准备与训练
通过网络上搜集关于实际场景中
医学CT图像肺结节
的相关图片,并使用Labelimg标注工具对每张图片进行标注,分
1个检测类别
:
['肺结节']
。
该数据集一共包含
2356张图片
,其中
训练集包含1645张图片
,
验证集包含474张图片
,
测试集包含237张图片
。
部分图像及标注如下图所示:
数据集各类别数目分布情况如下:
2.模型训练
准备好数据集后,将图片数据以如下格式放置在项目目录中。在项目目录中新建
datasets
目录,同时将检测的图片分为训练集与验证集放入
Data
目录下。
同时我们需要新建一个
data.yaml
文件,用于存储训练数据的路径及模型需要进行检测的类别。YOLOv11在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。
data.yaml
的具体内容如下:
train: D:\2MyCVProgram\2DetectProgram\PulmonaryNoduleDetection_v11\datasets\Data/train
val: D:\2MyCVProgram\2DetectProgram\PulmonaryNoduleDetection_v11\datasets\Data/valid
test: D:\2MyCVProgram\2DetectProgram\PulmonaryNoduleDetection_v11\datasets\Data/test
nc:1
names:['nodule']
注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。
数据准备完成后,通过调用
train.py
文件进行模型训练,
epochs
参数用于调整训练的轮数,
batch
参数用于调整训练的批次大小【根据内存大小调整,最小为1】,
optimizer
设定的优化器为
SGD
,训练代码如下:
#coding:utf-8from ultralytics import YOLO
import matplotlib
matplotlib.use('TkAgg')# 模型配置文件
model_yaml_path ="ultralytics/cfg/models/11/yolo11.yaml"#数据集配置文件
data_yaml_path ='datasets/Data/data.yaml'#预训练模型
pre_model_name ='yolo11n.pt'if __name__ =='__main__':#加载预训练模型
model = YOLO(model_yaml_path).load(pre_model_name)#训练模型
results = model.train(data=data_yaml_path,
epochs=150,# 训练轮数
batch=4,# batch大小
name='train_v11',# 保存结果的文件夹名称
optimizer='SGD')# 优化器
模型常用训练超参数参数说明:
YOLO11 模型的训练设置包括训练过程中使用的各种超参数和配置
。这些设置会影响模型的性能、速度和准确性。关键的训练设置包括批量大小、学习率、动量和权重衰减。此外,优化器、损失函数和训练数据集组成的选择也会影响训练过程。对这些设置进行仔细的调整和实验对于优化性能至关重要。
以下是一些常用的模型训练参数和说明:
| 参数名 | 默认值 | 说明 |
|---|---|---|
model
|
None
|
指定用于训练的模型文件。接受指向
.pt
预训练模型或
.yaml
配置文件。对于定义模型结构或初始化权重至关重要。
|
data
|
None
|
数据集配置文件的路径(例如
coco8.yaml
).该文件包含特定于数据集的参数,包括训练数据和验证数据的路径、类名和类数。
|
epochs
|
100
| 训练总轮数。每个epoch代表对整个数据集进行一次完整的训练。调整该值会影响训练时间和模型性能。 |
patience
|
100
| 在验证指标没有改善的情况下,提前停止训练所需的epoch数。当性能趋于平稳时停止训练,有助于防止过度拟合。 |
batch
|
16
| 批量大小,有三种模式:设置为整数(例如,’ Batch =16 ‘), 60% GPU内存利用率的自动模式(’ Batch =-1 ‘),或指定利用率分数的自动模式(’ Batch =0.70 ')。 |
imgsz
|
640
| 用于训练的目标图像尺寸。所有图像在输入模型前都会被调整到这一尺寸。影响模型精度和计算复杂度。 |
device
|
None
|
指定用于训练的计算设备:单个 GPU (
device=0
)、多个 GPU (
device=0,1
)、CPU (
device=cpu
),或苹果芯片的 MPS (
device=mps
).
|
workers
|
8
|
加载数据的工作线程数(每
RANK
多 GPU 训练)。影响数据预处理和输入模型的速度,尤其适用于多 GPU 设置。
|
name
|
None
| 训练运行的名称。用于在项目文件夹内创建一个子目录,用于存储训练日志和输出结果。 |
pretrained
|
True
| 决定是否从预处理模型开始训练。可以是布尔值,也可以是加载权重的特定模型的字符串路径。提高训练效率和模型性能。 |
optimizer
|
'auto'
|
为训练模型选择优化器。选项包括
SGD
,
Adam
,
AdamW
,
NAdam
,
RAdam
,
RMSProp
等,或
auto
用于根据模型配置进行自动选择。影响收敛速度和稳定性
|
lr0
|
0.01
|
初始学习率(即
SGD=1E-2
,
Adam=1E-3
) .调整这个值对优化过程至关重要,会影响模型权重的更新速度。
|
lrf
|
0.01
|
最终学习率占初始学习率的百分比 = (
lr0 * lrf
),与调度程序结合使用,随着时间的推移调整学习率。
|
3. 训练结果评估
在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。YOLOv11在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),
在训练结束后,可以在
runs/
目录下找到训练过程及结果文件
,如下所示:
各损失函数作用说明:
定位损失box_loss
:预测框与标定框之间的误差(GIoU),越小定位得越准;
分类损失cls_loss
:计算锚框与对应的标定分类是否正确,越小分类得越准;
动态特征损失(dfl_loss)
:DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。
本文训练结果如下:
我们通常用
PR曲线
来体现精确率和召回率的关系,本文训练结果的PR曲线如下。
mAP
表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。mAP@.5:表示阈值大于0.5的平均mAP,可以看到本文模型目标检测的
mAP@0.5
值为
0.822
,结果还是不错的。
4. 使用模型进行推理
模型训练完成后,我们可以得到一个最佳的训练结果模型
best.pt
文件,在
runs/train/weights
目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:
#coding:utf-8from ultralytics import YOLO
import cv2
# 所需加载的模型目录
path ='models/best.pt'# 需要检测的图片地址
img_path ="TestFiles/0507_png.rf.8128832a8db0abf2deb94cf6e012f3b6.jpg"# 加载预训练模型
model = YOLO(path, task='detect')# 检测图片
results = model(img_path)
res = results[0].plot()# res = cv2.resize(res,dsize=None,fx=0.5,fy=0.5,interpolation=cv2.INTER_LINEAR)
cv2.imshow("Detection Result", res)
cv2.waitKey(0)
执行上述代码后,会将执行的结果直接标注在图片上,结果如下:
更多检测结果示例如下:
四、可视化系统制作
基于上述训练出的目标检测模型,为了给此检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。博主基于Pyqt5开发了一个可视化的系统界面,通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。【系统详细展示见第一部分内容】
Pyqt5详细介绍
关于Pyqt5的详细介绍可以参考之前的博客文章:
《Python中的Pyqt5详细介绍:基本机构、部件、布局管理、信号与槽、跨平台》
,地址:
系统制作
博主基于Pyqt5框架开发了此款
医学X光骨折检测与语音提示系统
,
即文中第一部分的演示内容
,能够很好的
支持图片、视频及摄像头进行检测,同时支持检测结果的保存
。
通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。这不仅提升了系统的可用性和用户体验,还使得检测过程更加直观透明,便于结果的实时观察和分析。此外,GUI还可以集成其他功能,如检测结果的保存与导出、检测参数的调整,从而为用户提供一个全面、综合的检测工作环境,促进智能检测技术的广泛应用。
关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、训练好的模型、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。
【获取方式】
关注末尾名片GZH【阿旭算法与机器学习】,发送【源码】获取下载方式
本文涉及到的完整全部程序文件:包括
python源码、数据集、训练好的结果文件、训练代码、UI源码、测试图片视频
等(见下图),获取方式见文末:
注意:该代码基于Python3.9开发,运行界面的主程序为
MainProgram.py,其他测试脚本说明见上图。为确保程序顺利运行,请按照程序运行说明文档txt配置软件运行所需环境。
好了,这篇文章就介绍到这里,喜欢的小伙伴感谢给点个赞和关注,更多精彩内容持续更新~~
关于本篇文章大家有任何建议或意见,欢迎在评论区留言交流!
版权声明:本文标题:从零开始,用Python和PyQt5构建CT图像肺结节智能分析工具 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.betaflare.com/biancheng/1772567877a3275250.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。


发表评论