当前位置: 首页 > news >正文

中文网站模板餐厅类网站模板

中文网站模板,餐厅类网站模板,东莞网站建设营销的企业,网站改版是什么意思这是一个经典的文本分类问题#xff0c;使用google的预训练模型BERT中文版bert-base-chinese来做中文文本分类。可以先在Huggingface上下载预训练模型备用。https://huggingface.co/google-bert/bert-base-chinese/tree/main 我使用的训练环境是 pip install torch2.0.0; pi…这是一个经典的文本分类问题使用google的预训练模型BERT中文版bert-base-chinese来做中文文本分类。可以先在Huggingface上下载预训练模型备用。https://huggingface.co/google-bert/bert-base-chinese/tree/main 我使用的训练环境是 pip install torch2.0.0; pip install transformers4.30.2; pip install gensim4.3.3; pip install huggingface-hub0.15.1; pip install modelscope1.20.1; 一、准备训练数据 1.1 准备中文文本分类任务的训练数据 这里Demo数据如下 各银行信用卡挂失费迥异 北京银行收费最高 0 莫泰酒店流拍 大摩叫价或降至6亿美元 4 乌兹别克斯坦议会立法院主席获连任 6 德媒披露鲁能引援关键人物 是他力荐德甲亚洲强人 7 辉立证券给予广汽集团持有评级 2 图文-业余希望赛海南站第二轮 球场的菠萝蜜 7 陆毅鲍蕾近乎完美的爱情(组图)(2) 9 7000亿美元救市方案将成期市毒药 0 保诚启动210亿美元配股交易以融资收购AIG部门 2 分类class类别文件 finance realty stocks education science society politics sports game entertainment 1.2 数据读取和截断使满足BERT模型输入 读取训练数据对文本进行处理如截取过长的文本、补齐较短的文本加上起始标示、对文本进行编码、添加掩码、转为tensor等操作。 import os from config import parsers from transformers import BertTokenizer from torch.utils.data import Dataset, DataLoader import torchfrom transformers import AutoTokenizer, AutoModelForMaskedLMdef read_data(file):# 读取文件all_data open(file, r, encodingutf-8).read().split(\n)# 得到所有文本、所有标签、句子的最大长度texts, labels, max_length [], [], []for data in all_data:if data:text, label data.split(\t)max_length.append(len(text))texts.append(text)labels.append(label)# 根据不同的数据集返回不同的内容if os.path.split(file)[1] train.txt:max_len max(max_length)return texts, labels, max_lenreturn texts, labels,class MyDataset(Dataset):def __init__(self, texts, labels, max_length):self.all_text textsself.all_label labelsself.max_len max_lengthself.tokenizer BertTokenizer.from_pretrained(parsers().bert_pred) # self.tokenizer AutoTokenizer.from_pretrained(bert-base-chinese)def __getitem__(self, index):# 取出一条数据并截断长度text self.all_text[index][:self.max_len]label self.all_label[index]# 分词text_id self.tokenizer.tokenize(text)# 加上起始标志text_id [[CLS]] text_id# 编码token_id self.tokenizer.convert_tokens_to_ids(text_id)# 掩码 -》mask [1] * len(token_id) [0] * (self.max_len 2 - len(token_id))# 编码后 -》长度一致token_ids token_id [0] * (self.max_len 2 - len(token_id))# str -》 intlabel int(label)# 转化成tensortoken_ids torch.tensor(token_ids)mask torch.tensor(mask)label torch.tensor(label)return (token_ids, mask), labeldef __len__(self):# 得到文本的长度return len(self.all_text) 将文本处理后就可以使用torch.utils.data中自带的DataLoader模块来加载训练数据了。 二、微调BERT模型 我们是微调BERT模型需要获取BERT最后一个隐藏层的输出作为输入到下一个全连接层。 至于选择BERT模型的哪个输出作为linear层的输入可以通过实验尝试或者遵循常理。 pooler_output这是通过将最后一层的隐藏状态的第一个token通常是[CLS] token通过一个线性层和激活函数得到的输出常用于分类任务。 last_hidden_state这是模型所有层的最后一个隐藏状态的输出包含了整个序列的上下文信息适用于序列级别的任务。 简单调用下BERT模型打印出来最后一层看下 import torch import time import torch.nn as nn from transformers import BertTokenizer from transformers import BertModel from transformers import AutoTokenizer, AutoModelForMaskedLMdef process_text(text, bert_pred):tokenizer BertTokenizer.from_pretrained(bert_pred)token_id tokenizer.convert_tokens_to_ids([[CLS]] tokenizer.tokenize(text))mask [1] * len(token_id) [0] * (38 2 - len(token_id))token_ids token_id [0] * (38 2 - len(token_id))token_ids torch.tensor(token_ids).unsqueeze(0)mask torch.tensor(mask).unsqueeze(0)x torch.stack([token_ids, mask])return xdevice cpu bert BertModel.from_pretrained(./bert-base-chinese/) texts [沈腾和马丽的电影《独行月球》挺好看] for text in texts:x process_text(text, ./bert-base-chinese/)input_ids, attention_mask x[0].to(device), x[1].to(device)hidden_out bert(input_ids, attention_maskattention_mask,output_hidden_statesFalse) print(hidden_out) 输出结果 2.1 文本分类任务选择使用pooler_output作为线性层的输入。 import torch.nn as nn from transformers import BertModel from transformers import AutoTokenizer, AutoModelForMaskedLM from config import parsers import torchclass MyModel(nn.Module):def __init__(self):super(MyModel, self).__init__()self.args parsers()self.device cuda:0 if torch.cuda.is_available() else cpu self.bert BertModel.from_pretrained(self.args.bert_pred) # bert 模型进行微调for param in self.bert.parameters():param.requires_grad True# 一个全连接层self.linear nn.Linear(self.args.num_filters, self.args.class_num)def forward(self, x):input_ids, attention_mask x[0].to(self.device), x[1].to(self.device)hidden_out self.bert(input_ids, attention_maskattention_mask,output_hidden_statesFalse) # 是否输出所有encoder层的结果# shape (batch_size, hidden_size) pooler_output -- hidden_out[0]pred self.linear(hidden_out.pooler_output)# 返回预测结果return pred 2.2 优化器使用Adam、损失函数使用交叉熵损失函数 device cuda:0 if torch.cuda.is_available() else cpu model MyModel().to(device) opt AdamW(model.parameters(), lrargs.learn_rate) loss_fn nn.CrossEntropyLoss() 三、训练模型 3.1 参数配置 def parsers():parser argparse.ArgumentParser(descriptionBert model of argparse)parser.add_argument(tx_date,nargs?) #可选输入参数计算日期parser.add_argument(--train_file, typestr, defaultos.path.join(./data_all, train.txt))parser.add_argument(--dev_file, typestr, defaultos.path.join(./data_all, dev.txt))parser.add_argument(--test_file, typestr, defaultos.path.join(./data_all, test.txt))parser.add_argument(--classification, typestr, defaultos.path.join(./data_all, class.txt))parser.add_argument(--bert_pred, typestr, default./bert-base-chinese)parser.add_argument(--class_num, typeint, default12)parser.add_argument(--max_len, typeint, default38)parser.add_argument(--batch_size, typeint, default32)parser.add_argument(--epochs, typeint, default10)parser.add_argument(--learn_rate, typefloat, default1e-5)parser.add_argument(--num_filters, typeint, default768)parser.add_argument(--save_model_best, typestr, defaultos.path.join(model, all_best_model.pth))parser.add_argument(--save_model_last, typestr, defaultos.path.join(model, all_last_model.pth))args parser.parse_args()return args 3.2 模型训练 import torch from torch.utils.data import DataLoader from torch.optim import AdamW import torch.nn as nn from sklearn.metrics import accuracy_score import timeif __name__ __main__:start time.time()args parsers()device cuda:0 if torch.cuda.is_available() else cpuprint(device:, device)train_text, train_label, max_len read_data(args.train_file)dev_text, dev_label read_data(args.dev_file)args.max_len max_lentrain_dataset MyDataset(train_text, train_label, args.max_len)train_dataloader DataLoader(train_dataset, batch_sizeargs.batch_size, shuffleTrue)dev_dataset MyDataset(dev_text, dev_label, args.max_len)dev_dataloader DataLoader(dev_dataset, batch_sizeargs.batch_size, shuffleFalse)model MyModel().to(device)opt AdamW(model.parameters(), lrargs.learn_rate)loss_fn nn.CrossEntropyLoss()acc_max float(-inf)for epoch in range(args.epochs):loss_sum, count 0, 0model.train()for batch_index, (batch_text, batch_label) in enumerate(train_dataloader):batch_label batch_label.to(device)pred model(batch_text)loss loss_fn(pred, batch_label)opt.zero_grad()loss.backward()opt.step()loss_sum losscount 1# 打印内容if len(train_dataloader) - batch_index len(train_dataloader) % 1000 and count len(train_dataloader) % 1000:msg [{0}/{1:5d}]\tTrain_Loss:{2:.4f}print(msg.format(epoch 1, batch_index 1, loss_sum / count))loss_sum, count 0.0, 0if batch_index % 1000 999:msg [{0}/{1:5d}]\tTrain_Loss:{2:.4f}print(msg.format(epoch 1, batch_index 1, loss_sum / count))loss_sum, count 0.0, 0model.eval()all_pred, all_true [], []with torch.no_grad():for batch_text, batch_label in dev_dataloader:batch_label batch_label.to(device)pred model(batch_text)pred torch.argmax(pred, dim1).cpu().numpy().tolist()label batch_label.cpu().numpy().tolist()all_pred.extend(pred)all_true.extend(label)acc accuracy_score(all_pred, all_true)print(fdev acc:{acc:.4f})if acc acc_max:print(acc, acc_max)acc_max acctorch.save(model.state_dict(), args.save_model_best)print(f以保存最佳模型)torch.save(model.state_dict(), args.save_model_last)end time.time()print(f运行时间{(end-start)/60%60:.4f} min)模型保存为 -rw-rw-r--  1 gaoToby gaoToby 391M Dec 24 14:02 all_best_model.pth -rw-rw-r--  1 gaoToby gaoToby 391M Dec 24 14:02 all_last_model.pth 四、模型推理预测 准备预测文本文件加载模型进行文本的类别预测。 def text_class_name(pred):result torch.argmax(pred, dim1)print(torch.argmax(pred, dim1).cpu().numpy().tolist())result result.cpu().numpy().tolist()classification open(args.classification, r, encodingutf-8).read().split(\n)classification_dict dict(zip(range(len(classification)), classification))print(f文本{text}\t预测的类别为{classification_dict[result[0]]})if __name__ __main__:start time.time()args parsers()device cuda:0 if torch.cuda.is_available() else cpumodel load_model(device, args.save_model_best)texts [沈腾和马丽的新电影《独行月球》好看, 最近金融环境不太好投资需谨慎]print(模型预测结果)for text in texts:x process_text(text, args.bert_pred)with torch.no_grad():pred model(x)text_class_name(pred)end time.time()print(f耗时为{end - start} s) 以上基本流程完成。当然模型还需要调优来改进预测效果的。 代码是实际跑通的我训练和预测均使用的是GPU。如果是使用GPU做模型训练再使用CPU做推理预测的情况推理预测加载模型的时候注意修改下 myModel.load_state_dict(torch.load(model_path, map_locationtorch.device(cpu))) Done
http://www.w-s-a.com/news/491875/

相关文章:

  • 商务网站开发设计结论微信报名小程序怎么制作
  • 网站建设销售简历wordpress七比2
  • 制作网站报价工程项目查询哪个网站
  • 深圳移动网站建设制作公司网站建设的认识
  • 网站建设脚本语言有哪些想开网店哪个平台好
  • 视频网站用什么做的好深圳的小程序开发公司
  • 南京网站定制开发商城网站免费模板
  • 青海学会网站建设公司照片组合拼图
  • 中国建设银行福清分行网站爱站网权重查询
  • 外贸通网站建设网站建设7个主要流程图
  • 元气森林网络营销方式医疗网站优化怎么做
  • 手机网站制作报价表做网站公司做网站公司
  • 湖州网站设计吉林网站建设哪家好
  • 做存储各种环境信息的网站使用tag的网站
  • 阿里云用ip做网站网站开发员属于
  • 外链网盘下载南宁seo推广优化
  • 网站的推广方案有哪些此网站可能有
  • wordpress更改链接后网站打不开一键生成个人网站
  • 网站建设后台有哪些东西前端开发培训一般多少钱
  • 高端建设网站公司网站开发 源码
  • 企业网站的劣势园林景观设计公司简介范文
  • 网站建设程序招聘东营建设信息网登录
  • o2o是什么意思通俗讲seo与网站优化 pdf
  • 外贸网站外包一般建设一个网站多少钱
  • 抄袭别人网站的前端代码合法吗网络促销策略
  • 用wordpress制作网站做资源网站
  • wordpress 发布网站南宁网站建设网站
  • 职业生涯规划大赛心得贵阳哪家网站做优化排名最好
  • wordpress 图片懒加载北京网站优化和推广
  • 深圳网站建设工作一个dede管理两个网站