错误总结
Django无法定位到index.html模板文件,或模板相关配置不完整配置settings.py中的模板路径出错,应该 1234567891011121314151617import os # 若已导入可忽略# E:\django_xiangmu\py_web_try\py_web_try\settings.pyTEMPLATES = [ { 'BACKEND': 'django.template.backends.django.DjangoTemplates', 'DIRS': [os.path.join(BASE_DIR, 'templates')], # 这里需要配置模板目录路径 'APP_DIRS': True, # 开启后会自动查找各应用下的templates目录 'OPTIONS': { 'context_processors...
Django web开发教程
创建Django项目(cmd里运行1django-admin startproject 项目名 创建Django应用(终端运行1python manage.py startapp 应用名
毕设项目文件介绍
文件manage.pyDjango项目的命令行工具,用于执行各种管理命令如运行服务器、迁移数据库等 文件requirements.txt项目依赖的Python包列表 文件夹YOLOv11settings.py:Django项目的核心配置文件,包含数据库配置、中间件、应用注册等设置,使用MySQL数据库 文件夹homeapps你这段代码是Django 框架中home应用的配置类代码,核心目的是在 Django 应用启动完成后,仅在主进程中初始化一个 YOLOv11 目标检测模型(加载预训练权重文件**yolo11n.pt**(轻量级权重)),让模型在应用运行期间保持就绪状态,方便后续业务逻辑中直接调用目标检测功能,无需重复加载模型(避免重复加载带来的资源消耗和耗时)。 comsumers在 Django Channels 项目中,开发者通常会在每个应用(如你的home应用)下创建一个consumers.py文件,专门存放所有Consumer子类(如你的VideoStreamConsumer),这是社区约定的最佳实践: 便于代码归类和维护,让其他开发者快速找到实时通信相关的业务逻辑...
Matplotlib绘制图像异常
plt.show()不显示图片改成显示图片将Matplotlib后端替换为支持窗口展示的交互式后端。常用的后端有 TkAgg:依赖 Tkinter(Python 通常自带,无需额外安装,兼容性强)。 1234567# 第一步:先导入 matplotlib 核心模块,指定 TkAgg 后端import matplotlibmatplotlib.use('TkAgg') # 关键:必须在 import matplotlib.pyplot as plt 之前执行# 第二步:再导入 matplotlib.pyplot 用于绘图import matplotlib.pyplot as plt 改成保存为图片,不使用show123456789101112131415161718192021# 第一步:先指定 Agg 后端(放在所有 matplotlib 相关导入之前)import matplotlibmatplotlib.use('Agg') # 核心配置:保留 Agg 后端,兼容所有环境# 第二步:再导入 matplotlib.pyplot 用于...
Dataset类
为什么我们在深度学习中自定义的、用来实例化的Dataset类非要实现init、len、getitem这三个功能呢? 因为pytorch想要调用DataLoader,就必须输入Dataset,而Dataset必须要求实现len和getitem(init是类默认的) 打个比方,Dataset是快递站,DataLoader是快递员,每张图加标签是要发的包裹。快递员会问驿站三个问题“init:这个快递站是干啥的?包裹放在哪(读取路径信息,加载包裹信息)?”“getitem:给我第x个包裹”“len一共有多少包裹” init:类的身份凭证len:数据集有多大告诉DataLoader,数据集的长度是多少?只有知道了这个才能知道分多少批(比如有320个样本,batch为32的话就要有10批) getitem:按照索引取出数据集中的指定数据
Yolov11实战
环境测试在PyCharm的终端中运行1yolo task=detect mode=predict model=模型权重 source=数据集路径 device=0 例: 模型权重:weights\yolo11s.pt 数据集路径:ultralytics/assets 结果保存在: runs\detect\predict3 模型配置数据标注使用labelimg,标注出来的是xml类型(因为xml更直观),记录框的大小和类别。但在做模型训练的时候需要用txt。故使用voc_to_yolo_dataset_preparation.py转换。最后存放到VOCdevkit文件夹下。 ultralytics文件夹cfg文件cfg文件下的datasets文件夹存放着配置文件,挑一个用就行。这里我用的是coco-voc.yaml coco数据集一共20个类别,故其他的全部注释掉。 注意!!!!!!!!!!!!! voc_to_yolo_dataset_preparation.py的class_list一定要和配置文件的names一一对应 还有,path要设置成E:\bishe\V...
第六节特征提取与无监督学习
常见的输入每个词对应一个编码,中文中对应差不多两万多个编码 这就组成了RNNRNN需要考虑前后关系,故需要一个从头穿到尾的传家宝–记忆单元 但其弊端是,如果想要的信息之间距离过远,,RNN就会在传家宝里放一些没有帮助的东西。故引出了LSTM LSTM 但缺点是太慢了,还是需要一个一个读入。故引出了自注意力 自注意力 这样就解决了前两个模型需要查看每一个字导致时间过长的问题。自注意力是完全并行的! 而且自注意力在qkv处理过程中维度不变 自注意力机制在干嘛?自注意机制就是让句子里的每个词,都去 “看” 句子里的其他词,然后把有用的信息 “拿回来”,帮助自己变得更聪明。 QKV是干嘛的?“他告诉小明,他明天要去北京。” Q(Query):我要找谁?我想知道什么?我这个词在寻找和我相关的词时,用什么特征去匹配?是一个 “搜索条件”、一个 “问题”、一个 “需求描述” 比如 “他” 的 Q 可能是:“我是一个代词,我需要找到一个人来指代。” K(Key):我是谁?我能提供什么信息?我这个词能提供什么信息?别人可以用什么方式找到我?是一个 “标签”、一个 “索引”、一个 “联系方式”...
第六节特征提取与无监督学习
对于输入需要分词输入的序列前面需要加上cls,,后面需要加上seq。 在这个基础上如果凑不够input的值,,则会填充两个padding。 Bert的参数
