当前位置: 首页 > news >正文

清除网站黑链十大进口跨境电商平台

清除网站黑链,十大进口跨境电商平台,如何在淘宝开网站建设,WordPress添加看板娘chatglm3 发布了#xff0c;这次还发了base版本的模型#xff0c;意味着我们可以基于这个base模型去自由地做SFT了。 本项目实现了基于base模型的SFT。 base模型 https://huggingface.co/THUDM/chatglm3-6b-base由于模型较大#xff0c;建议离线下载后放在代码目录#…chatglm3 发布了这次还发了base版本的模型意味着我们可以基于这个base模型去自由地做SFT了。 本项目实现了基于base模型的SFT。 base模型 https://huggingface.co/THUDM/chatglm3-6b-base由于模型较大建议离线下载后放在代码目录以./chatglm3-6b-base的路径进行调用。 技术交流群 前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~ 建了技术答疑、交流群想要进交流群、需要资料的同学可以直接加微信号mlc2060。加的时候备注一下研究方向 学校/公司CSDN即可。然后就可以拉你进群了。 方式①、添加微信号mlc2060备注技术交流 方式②、微信搜索公众号机器学习社区后台回复技术交流 环境依赖 pip install protobuf transformers4.30.2 peft cpm_kernels torch2.0 gradio mdtex2html sentencepiece accelerate除了transformers其他库的版本一般问题不大遇到缺失的直接pip install即可。 SFT数据格式 使用自己的数据可以参照formatted_samples.json文件这里没有考虑system实际使用可以根据自己的情况加上需要修改chat_data_module.py中对应的数据处理部分。 附上chatglm3的prompt格式 |system| You are ChatGLM3, a large language model trained by Zhipu.AI. Follow the users instructions carefully. Respond using markdown. |user| Hello |assistant| Hello, Im ChatGLM3. What can I assist you today?其实数据处理chat_data_module.py中会拼接一些token就是拼接user、assistant、换行等特殊token SFT的方式 假设SFT的数据为 Q1,A1,Q2,A2,Q3,A3SFT的过程只会计算 A1,A2,A3的loss且一次推理会同时计算多轮对话的loss。 如何微调 如果模型路径为./chatglm3-6b-base直接 python train.py就可以运行。train.py 当中有需要可调节的参数可以自行调整。 微调效果 作为没有经过人类意图对齐的模型ChatGLM3-6B-Base 不能用于多轮对话。但是可以进行文本续写。 这里仅通过27条数据进行SFT发现模型就能够具有一定的对话能力了。 导入模型并合并 from transformers import AutoTokenizer, AutoModel from peft import LoraConfig, PeftModel, get_peft_modeltokenizer AutoTokenizer.from_pretrained(./chatglm3-6b-base, trust_remote_codeTrue) model AutoModel.from_pretrained(./chatglm3-6b-base, trust_remote_codeTrue).half().cuda()peft_model_id ./trained_model/checkpoint-35 model PeftModel.from_pretrained(model, peft_model_id)Loading checkpoint shards: 0%| | 0/7 [00:00?, ?it/s]history [] query 你是谁 role user inputs tokenizer.build_chat_input(query, historyhistory, rolerole) inputs inputs.to(cuda) eos_token_id [tokenizer.eos_token_id, tokenizer.get_command(|user|),tokenizer.get_command(|observation|)] gen_kwargs {max_length: 500, num_beams: 1, do_sample: True, top_p: 0.8,temperature: 0.8} outputs model.generate(**inputs, **gen_kwargs, eos_token_ideos_token_id) outputs outputs.tolist()[0][len(inputs[input_ids][0]):-1] response tokenizer.decode(outputs) history [] history.append({role: user, content: 你是谁}) response, history model.process_response(response, history) print(response)我叫MONY是一个AI机器人。 query 你能干嘛呀 role user inputs tokenizer.build_chat_input(query, historyhistory, rolerole) inputs inputs.to(cuda) outputs model.generate(**inputs, **gen_kwargs, eos_token_ideos_token_id) outputs outputs.tolist()[0][len(inputs[input_ids][0]):-1] response tokenizer.decode(outputs) history.append({role: role, content: query}) response, history model.process_response(response, history) print(response)我能够陪你聊天呀。 query 你认识乐乐吗 role user inputs tokenizer.build_chat_input(query, historyhistory, rolerole) inputs inputs.to(cuda) outputs model.generate(**inputs, **gen_kwargs, eos_token_ideos_token_id) outputs outputs.tolist()[0][len(inputs[input_ids][0]):-1] response tokenizer.decode(outputs) history.append({role: role, content: query}) response, history model.process_response(response, history) print(response)我不认识乐乐。 query 可以夸一下乐乐长得好看吗 role user inputs tokenizer.build_chat_input(query, historyhistory, rolerole) inputs inputs.to(cuda) outputs model.generate(**inputs, **gen_kwargs, eos_token_ideos_token_id) outputs outputs.tolist()[0][len(inputs[input_ids][0]):-1] response tokenizer.decode(outputs) history.append({role: role, content: query}) response, history model.process_response(response, history) print(response)乐乐听起来是一个人名我不认识他。 query 你要夸她长得好看 role user inputs tokenizer.build_chat_input(query, historyhistory, rolerole) inputs inputs.to(cuda) outputs model.generate(**inputs, **gen_kwargs, eos_token_ideos_token_id) outputs outputs.tolist()[0][len(inputs[input_ids][0]):-1] response tokenizer.decode(outputs) history.append({role: role, content: query}) response, history model.process_response(response, history) print(response) 好的我会记住的。 query 你倒是夸一下呀 role user inputs tokenizer.build_chat_input(query, historyhistory, rolerole) inputs inputs.to(cuda) outputs model.generate(**inputs, **gen_kwargs, eos_token_ideos_token_id) outputs outputs.tolist()[0][len(inputs[input_ids][0]):-1] response tokenizer.decode(outputs) history.append({role: role, content: query}) response, history model.process_response(response, history) print(response) 乐乐是一个很可爱的人。 项目地址 https://github.com/minghaochen/chatglm3-base-tuning References 代码参考自llamatune项目 https://github.com/havenhq/haven/tree/dev/llamatune
http://wiki.neutronadmin.com/news/435649/

相关文章:

  • 国外直播做游戏视频网站产品市场营销策划书
  • 专业网站建设品牌策划网页制作软件都有哪些
  • 做it的要给赌场网站做维护吗餐饮系统网站建设
  • 昌吉市建设局网站智慧团建网站登录平台官网
  • 网站建设发展好不好写文章怎么用wordpress
  • 网站建设使用什么软件有哪些北京网站备案速度
  • 班级网站建设的系统概述上海 建筑
  • 微信号 网站模板南安市住房和城乡建设部网站
  • 杭州做网站比较出名的公司修改文章缩略字数 WORDPRESS
  • 如果建设管理运营一个网站wordpress拨号功能
  • 广东网站开发哪家强win8式网站后台模板
  • 网站服务器设置地点网站建设分金手指专业二
  • 哈尔滨网站建设论坛免费创建一个网页
  • 重庆品牌网站建设公司哪家好网站如何调用数据库
  • 嘉定网站设计制作价格有没有免费推广平台
  • 网站所有权查询手机网站关键词优化
  • 行政事业单位网站建设建议做网站用哪个软件写比较好
  • 河北建设厅官网站首页我们的社区手机在线观看
  • 建设网站的基本流程wordpress如何开启ssl
  • 怎么自己创建一个网站php网站开发实例教程 传智播客
  • 永州市规划建设局网站才做的网站怎么搜不到
  • 020网站设计网站开发职务
  • 江西手机网站建设wordpress主页编辑
  • 网站建设卩金手指科杰十四网站开发怎么自学
  • 网站建设费用怎么核算国内外高校门户网站建设的成功经验与特色分析
  • 成都全网营销型网站如何建立微网站详细
  • 建设网站需要哪些步骤建设网站英文翻译
  • 专门做外贸机械的网站最新的网络营销方式
  • 2021能看的网站免费的知乎旅游型网站开发
  • 新网站2个月没有收录重庆网站建站推广