当前位置: 首页 > news >正文

越秀建设网站购买服务器后怎么搭建

越秀建设网站,购买服务器后怎么搭建,北京的网站建设,公司网站有哪些重要性摘要#xff1a;安全帽检测系统用于自动化监测安全帽佩戴情况#xff0c;在需要佩戴安全帽的场合自动安全提醒#xff0c;实现图片、视频和摄像头等多种形式监测。在介绍算法原理的同时#xff0c;给出Python的实现代码、训练数据集#xff0c;以及PyQt的UI界面。安全帽检… 摘要安全帽检测系统用于自动化监测安全帽佩戴情况在需要佩戴安全帽的场合自动安全提醒实现图片、视频和摄像头等多种形式监测。在介绍算法原理的同时给出Python的实现代码、训练数据集以及PyQt的UI界面。安全帽检测系统主要用于自动化监测安全帽佩戴情况检测佩戴安全帽的数目、位置、预测置信度等可采取图片、视频和摄像头等多种形式监测佩戴情况并实时显示标记和结果博文提供了完整的Python代码和使用教程适合新入门的朋友参考完整代码资源文件请转至文末的下载链接。本博文目录如下 文章目录前言1. 效果演示2. 检测模型与训练3. 安全帽检测识别下载链接结束语➷点击跳转至文末所有涉及的完整代码文件下载页☇ 基于深度学习的安全帽检测系统演示与介绍前言 近年来随着计算机视觉的飞速发展越来越多的目标检测算法被应用到生活中对人体安全的研究尤为有价值。建筑业是劳动密集型行业工作环境复杂安全事故频发。据《国家统计年鉴》统计我国建筑业每年发生的事故数量高达600起每年死亡人数超过700人。坠落的物体是最致命的研究表明所有建筑工人因脑外伤而死亡的人数中有24%是由高空物体坠落造成的。由于它直接威胁到工人的头部而头部是最重要的身体部位因此头盔佩戴检测在现实生活场景中具有重要意义。 计算机视觉的快速发展应用在各个方面具有广阔的前景尤其是在安全工程方面。在建筑工地头盔是保护工人生命的重要工具而实际上由于没有戴头盔事故时有发生。为了解决这个问题基于深度学习的安全帽检测系统以最及时的方式进行告警同时最大限度降低误报和漏报现象极大的节约了生产成本提高了工作效率。 这里给出博主设计的软件界面同款的简约风功能也可以满足图片、视频和摄像头的识别检测希望大家可以喜欢初始界面如下图 检测安全帽时的界面截图点击图片可放大如下图可识别画面中存在的多个目标也可开启摄像头或视频检测 详细的功能演示效果参见博主的B站视频或下一节的动图演示觉得不错的朋友敬请点赞、关注加收藏系统UI界面的设计工作量较大界面美化更需仔细雕琢大家有任何建议或意见和可在下方评论交流。 1. 效果演示 首先我们还是通过动图看一下识别安全帽的效果系统主要实现的功能是对图片、视频和摄像头画面中的安全帽属性进行识别识别的结果可视化显示在界面和图像中另外提供多个安全帽的显示选择功能演示效果如下。 一用户注册登录界面 这里设计了一个登录界面可以注册账号和密码然后进行登录。界面还是参考了当前流行的UI设计左侧是一个头盔的LOGO图右侧输入账号、密码、验证码等等。 二安全帽图片识别 系统允许选择图片文件进行识别点击图片选择按钮图标选择图片后显示所有安全帽识别的结果可通过下拉选框查看单个安全帽检测的结果。本功能的界面展示如下图所示 三安全帽视频识别效果展示 很多时候我们需要识别一段视频这里设计了视频选择功能。点击视频按钮可选择待检测的视频系统会自动解析视频逐帧识别安全帽佩戴情况并将结果记录在右下角表格中效果如下图所示 四摄像头检测效果展示 在真实场景中我们往往利用设备摄像头获取实时画面同时需要对画面中是否佩戴安全帽进行识别因此本文考虑到此项功能。如下图所示点击摄像头按钮后系统进入准备状态系统显示实时画面并开始检测画面中的安全帽识别结果展示如下图 2. 检测模型与训练 管理人员可以直接了解工人是否正确、安全佩戴头盔的信息及时采取措施避免不必要的损失。本文的系统采用了基于YOLOV5的安全帽检测与识别的方法头盔上的测试结果达到了95.2%基于此的预警功能可以帮助减少工地事故的危害。本文借助YoloV5算法实现安全帽检测识别这里首先对实现原理进行介绍。 一原理简介 前文已经介绍过YoloV5中的Backbone结构Backbone可以被称作YoloV5的主干特征提取网络根据它的结构以及之前Yolo主干的叫法我一般叫它CSPDarknet输入的图片首先会在CSPDarknet里面进行特征提取提取到的特征可以被称作特征层是输入图片的特征集合。在主干部分我们获取了三个特征层进行下一步网络的构建这三个特征层我称它为有效特征层。         FPN可以被称作YoloV5的加强特征提取网络在主干部分获得的三个有效特征层会在这一部分进行特征融合特征融合的目的是结合不同尺度的特征信息。在FPN部分已经获得的有效特征层被用于继续提取特征。在YoloV5里依然使用到了Panet的结构我们不仅会对特征进行上采样实现特征融合还会对特征再次进行下采样实现特征融合。 Yolo Head是YOLOv5的分类器与回归器通过CSPDarknet和FPN我们已经可以获得三个加强过的有效特征层。每一个特征层都有宽、高和通道数此时我们可以将特征图看作一个又一个特征点的集合每一个特征点都有通道数个特征。Yolo Head实际上所做的工作就是对特征点进行判断判断特征点是否有物体与其对应。与以前版本的Yolo一样YoloV5所用的解耦头是一起的也就是分类和回归在一个1X1卷积里实现。 # YOLOv5 neck and head[[-1, 1, Conv, [512, 1, 1]],[-1, 1, nn.Upsample, [None, 2, nearest]],[[-1, 6], 1, Concat, [1]], # cat backbone P4[-1, 3, BottleneckCSP, [512, False]], # 13[-1, 1, Conv, [256, 1, 1]],[-1, 1, nn.Upsample, [None, 2, nearest]],[[-1, 4], 1, Concat, [1]], # cat backbone P3[-1, 3, BottleneckCSP, [256, False]], # 17 (P3/8-small)[-1, 1, Conv, [256, 3, 2]],[[-1, 14], 1, Concat, [1]], # cat head P4[-1, 3, BottleneckCSP, [512, False]], # 20 (P4/16-medium)[-1, 1, Conv, [512, 3, 2]],[[-1, 10], 1, Concat, [1]], # cat head P5[-1, 3, BottleneckCSP, [1024, False]], # 23 (P5/32-large)[[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)] 利用以上网络进行训练所有层中的权重均采用标准偏差为0.01均值为0的高斯随机值初始化。训练时不使用预训练模型不使用基准可用的图像和标签之外的任何数据网络从头开始进行训练。训练的目标值用与真实类别相对应的稀疏二进制向量表示。 二安全帽数据集与训练过程 这里我们使用的安全帽识别数据集包含训练集910张图片验证集304张图片共计1214张图片。部分数据集图片及其标注信息如下图所示。 每张图像均提供了图像类标记信息图像中安全帽的bounding box安全帽的关键part信息以及安全帽的属性信息数据集并解压后得到如下的图片。 在python环境配置完成后我们运行train.py进行训练。YOLOv5训练时主要包含三个方面的损失矩形框损失(box_loss)、置信度损失obj_loss和分类损失(cls_loss)下图为博主训练安全帽识别的模型训练曲线图。 我们通过设定不同的置信度的阈值可以得到在模型在不同的阈值下所计算出的p值和r值一般情况下p值和r值是负相关的绘制出来可以得到如下图所示的曲线其中曲线的面积我们称AP目标检测模型中每种目标可计算出一个AP值对所有的AP值求平均则可以得到模型的mAP值。 以PR-curve为例可以看到我们的模型在验证集上的均值平均准确率为0.910。 3. 安全帽检测识别 在训练完成后得到最佳模型接下来我们将帧图像输入到这个网络进行预测从而得到预测结果预测方法predict.py部分的代码如下所示 def predict(img):img torch.from_numpy(img).to(device)img img.half() if half else img.float()img / 255.0if img.ndimension() 3:img img.unsqueeze(0)t1 time_synchronized()pred model(img, augmentFalse)[0]pred non_max_suppression(pred, opt.conf_thres, opt.iou_thres, classesopt.classes,agnosticopt.agnostic_nms)t2 time_synchronized()InferNms round((t2 - t1), 2)return pred, InferNms得到预测结果我们便可以将帧图像中的安全帽框出然后在图片上用opencv绘图操作输出安全帽的类别及安全帽的预测分数。以下是读取一个安全帽图片并进行检测的脚本首先将图片数据进行预处理后送predict进行检测然后计算标记框的位置并在图中标注出来。 if __name__ __main__:# video_path 0video_path UI_rec/test_/test.mp4# 初始化视频流vs cv2.VideoCapture(video_path)(W, H) (None, None)frameIndex 0 # 视频帧数try:prop cv2.CAP_PROP_FRAME_COUNTtotal int(vs.get(prop))# print([INFO] 视频总帧数{}.format(total))# 若读取失败报错退出except:print([INFO] could not determine # of frames in video)print([INFO] no approx. completion time can be provided)total -1fourcc cv2.VideoWriter_fourcc(*XVID)ret, frame vs.read()vw frame.shape[1]vh frame.shape[0]print([INFO] 视频尺寸{} * {}.format(vw, vh))output_video cv2.VideoWriter(./results.avi, fourcc, 20.0, (vw, vh)) # 处理后的视频对象# 遍历视频帧进行检测while True:# 从视频文件中逐帧读取画面(grabbed, image) vs.read()# 若grabbed为空表示视频到达最后一帧退出if not grabbed:print([INFO] 运行结束...)output_video.release()vs.release()exit()# 获取画面长宽if W is None or H is None:(H, W) image.shape[:2]image cv2.resize(image, (850, 500))img0 image.copy()img letterbox(img0, new_shapeimgsz)[0]img np.stack(img, 0)img img[:, :, ::-1].transpose(2, 0, 1) # BGR to RGB, to 3x416x416img np.ascontiguousarray(img)pred, useTime predict(img)det pred[0]p, s, im0 None, , img0if det is not None and len(det): # 如果有检测信息则进入det[:, :4] scale_coords(img.shape[1:], det[:, :4], im0.shape).round() # 把图像缩放至im0的尺寸number_i 0 # 类别预编号detInfo []for *xyxy, conf, cls in reversed(det): # 遍历检测信息c1, c2 (int(xyxy[0]), int(xyxy[1])), (int(xyxy[2]), int(xyxy[3]))# 将检测信息添加到字典中detInfo.append([names[int(cls)], [c1[0], c1[1], c2[0], c2[1]], %.2f % conf])number_i 1 # 编号数1label %s %.2f % (names[int(cls)], conf)# 画出检测到的目标物plot_one_box(image, xyxy, labellabel, colorcolors[int(cls)])# 实时显示检测画面cv2.imshow(Stream, image)image cv2.resize(image, (vw, vh))output_video.write(image) # 保存标记后的视频if cv2.waitKey(1) 0xFF ord(q):break# print(FPS:{}.format(int(0.6/(end-start))))frameIndex 1执行得到的结果如下图所示图中安全帽的种类和置信度值都标注出来了预测速度较快。基于此模型我们可以将其设计成一个带有界面的系统在界面上选择图片、视频或摄像头然后调用模型进行检测。 博主对整个系统进行了详细测试最终开发出一版流畅得到清新界面就是博文演示部分的展示完整的UI界面、测试图片视频、代码文件以及Python离线依赖包方便安装运行也可自行配置环境均已打包上传感兴趣的朋友可以通过下载链接获取。 下载链接 若您想获得博文中涉及的实现完整全部程序文件包括测试图片、视频py, UI文件等如下图这里已打包上传至博主的面包多平台见可参考博客与视频已将所有涉及的文件同时打包到里面点击即可运行完整文件截图如下 在文件夹下的资源显示如下下面的链接中也给出了Python的离线依赖包读者可在正确安装Anaconda和Pycharm软件后复制离线依赖包至项目目录下进行安装离线依赖的使用详细演示也可见本人B站视频win11从头安装软件和配置环境运行深度学习项目、Win10中使用pycharm和anaconda进行python环境配置教程。 注意该代码采用PycharmPython3.8开发经过测试能成功运行运行界面的主程序为runMain.py和LoginUI.py测试图片脚本可运行testPicture.py测试视频脚本可运行testVideo.py。为确保程序顺利运行请按照requirements.txt配置Python依赖包的版本。Python版本3.8请勿使用其他版本详见requirements.txt文件 完整资源中包含数据集及训练代码环境配置与界面中文字、图片、logo等的修改方法请见视频项目完整文件下载请见参考博客文章里面或参考视频的简介处给出➷➷➷ 参考博客文章https://zhuanlan.zhihu.com/p/615605821 参考视频演示https://www.bilibili.com/video/BV1fb411f7u1/ 离线依赖库下载链接https://pan.baidu.com/s/1hW9z9ofV1FRSezTSj59JSg?pwdoy4n 提取码oy4n 界面中文字、图标和背景图修改方法 在Qt Designer中可以彻底修改界面的各个控件及设置然后将ui文件转换为py文件即可调用和显示界面。如果只需要修改界面中的文字、图标和背景图的可以直接在ConfigUI.config文件中修改步骤如下         1打开UI_rec/tools/ConfigUI.config文件若乱码请选择GBK编码打开。         2如需修改界面文字只要选中要改的字符替换成自己的就好。         3如需修改背景、图标等只需修改图片的路径。例如原文件中的背景图设置如下 mainWindow :/images/icons/back-image.png可修改为自己的名为background2.png图片位置在UI_rec/icons/文件夹中可将该项设置如下即可修改背景图 mainWindow ./icons/background2.png结束语 由于博主能力有限博文中提及的方法即使经过试验也难免会有疏漏之处。希望您能热心指出其中的错误以便下次修改时能以一个更完美更严谨的样子呈现在大家面前。同时如果有更好的实现方法也请您不吝赐教。
http://www.w-s-a.com/news/423532/

相关文章:

  • 万江营销型网站建设泰安网站建设制作电话号码
  • 做网站是用ps还是ai服饰东莞网站建设
  • 只做一页的网站多少钱网站开发就业趋势
  • 陈村网站建设有哪些网站可以做店面设计
  • 查询网站注册信息wordpress 照片墙
  • 成都网站设计服务商室内设计设计师网站推荐
  • 企业建站系统cms百度网址ip
  • wordpress 代码编辑插件下载搜索引擎优化seo课程总结
  • 韩都衣舍网站建设的改进邯郸公众号小程序制作
  • 上海设计网站建设在线视频制作
  • 东营高端网站建设新建网站如何让百度收录
  • wordpress怎么生成网站地图微网站平台怎样做网站
  • 同安区建设局网站招投标公众号简介有趣的文案
  • 江苏州 网站制作网上宣传方法有哪些
  • 做网站时怎样申请域名郑州制作网站公司
  • 深圳 网站开发公司电话网站关键词快排名
  • 网站建设的工作总结seo同行网站
  • 网站需要兼容哪些浏览器sql数据库做的网站怎么发布
  • 营销型网站的建站步骤是什么意思广州门户网站建设公司
  • 汕尾好网站建设推广计算机软件包含网站开发
  • 建设工程施工许可证在哪个网站办wordpress更换主题白屏
  • 微交易网站建设wordpress摘要调用
  • 做网站维护需要懂什么网站后台后缀名
  • 网站建设的认可桂平市住房和城乡建设局网站
  • 网站设计师岗位职责域名关键词查询
  • 百度怎样建设网站盐城公司网站建设
  • 站长工具国产2023网站制作 商务
  • 网络新闻专题做的最好的网站杭州网站设计建设公司
  • 电商网站界面设计流程ps培训班一般学费多少钱
  • 西安网站运营上海闵行区网站制作公司