当前位置: 首页 > news >正文

sap和国家网站做接口国家工商企业查询

sap和国家网站做接口,国家工商企业查询,wordpress炫酷插件,食品包装设计公司文章目录1. 读取数据2. 字符索引3. 创建文本序列4. 创建文本编码序列5. 使用GRU单元建立RNN模型6. 文本生成参考 基于深度学习的自然语言处理 本文使用 GRU 单元建立 RNN 网络#xff0c;使用唐诗三百首进行训练#xff0c;使用模型生成唐诗。 GRU RNN 网络能够克服简单RNN… 文章目录1. 读取数据2. 字符索引3. 创建文本序列4. 创建文本编码序列5. 使用GRU单元建立RNN模型6. 文本生成参考 基于深度学习的自然语言处理 本文使用 GRU 单元建立 RNN 网络使用唐诗三百首进行训练使用模型生成唐诗。 GRU RNN 网络能够克服简单RNN网络的一些问题如梯度消失梯度很难从深层传递到浅层导致浅层的参数更新非常缓慢学习速度很慢还导致深层浅层学习不均衡。 GRULSTM 使用更新门遗忘门来解决长距离的依赖关系GRU相比LSTM参数更少。 RNN 网络的还有缺点就是无法采用并行计算必须在上一个时间步的基础上计算下一个时间步。 1. 读取数据 # 读取文本 file tangshi300.txt with open(file,r,encodingutf-8) as f:text f.read() print(len(text)) print(text[:180])输出 29405 # 文本长度唐诗300首 1-50010杜甫佳人绝代有佳人幽居在空谷。 自云良家子零落依草木。 关中昔丧乱兄弟遭杀戮。 官高何足论不得收骨肉。 世情恶衰歇万事随转烛。 夫婿轻薄儿新人美如玉。 合昏尚知时鸳鸯不独宿。 但见新人笑那闻旧人哭 在山泉水清出山泉水浊。 侍婢卖珠回牵萝补茅屋。 摘花不插发采柏动盈掬。 天寒翠袖薄日暮倚修竹。2. 字符索引 # 创建字符序号索引 words sorted(list(set(text))) print(字和符号数量{}.format(len(words)))word_idx {w : i for (i, w) in enumerate(words)} idx_word {i : w for (i, w) in enumerate(words)}输出 字和符号数量25903. 创建文本序列 # 根据文本创建序列 sample_maxlen 40 # 样本句子长度 sentences [] next_word [] for i in range(len(text)-sample_maxlen):sentences.append(text[i : isample_maxlen]) # 滑窗取出样本句子next_word.append(text[isample_maxlen]) # 句子末尾的下一个字 print(样本数量{}.format(len(sentences)))样本数量293654. 创建文本编码序列 # 将文本序列转化成数字序列矩阵, 实际上就是一个one_hot 编码 import numpy as np X np.zeros((len(sentences), sample_maxlen, len(words)), dtypenp.bool) # 样本数 1个样本字个数 一个字的OH编码长度 y np.zeros((len(sentences), len(words)), dtypenp.bool) # 样本数 一个字的OH编码长度 for i in range(len(sentences)):for t, w in enumerate(sentences[i]):X[i, t, word_idx[w]] 1 # 把 i 样本 t 字符 对应的 OH 编码位置 写为 1y[i, word_idx[next_word[i]]] 15. 使用GRU单元建立RNN模型 建模 # 建模 from keras.models import Sequential from keras.layers import GRU, Dense from keras.optimizers import Adam model Sequential() model.add(GRU(units128,input_shape(sample_maxlen, len(words)))) # GRU 层 model.add(Dense(unitslen(words), activationsoftmax)) # FC 层 多分类 softmax训练 optimizer Adam(learning_rate0.001) # adam 优化器 model.compile(optimizeroptimizer,losscategorical_crossentropy,metrics[accuracy]) # 配置模型 history model.fit(X, y, batch_size128, epochs500) # 训练 model.save(tangshi_generator_model.h5) # 保存模型绘制训练曲线 import pandas as pd import matplotlib.pyplot as plt pd.DataFrame(history.history).plot(figsize(8, 5)) # 绘制训练曲线 plt.grid(True) plt.gca().set_ylim(0, 1) # set the vertical range to [0-1] plt.show()模型在 100 个 epochs 时已基本上完全拟合了训练数据 6. 文本生成 采样函数 def sampling(preds, temperature1.0):preds np.asarray(preds).astype(float64)preds np.log(preds)/temperature # 我的理解是概率平滑exp_preds np.exp(preds)preds exp_preds/np.sum(exp_preds)probs np.random.multinomial(1, preds, 1) # 多项式分布做n次试验按照preds的概率分布和1取出size组结果如下 # np.random.multinomial(20, [1/6.]*6, size1) # array([[4, 1, 7, 5, 2, 1]]) # randomreturn np.argmax(probs) # 返回概率最大的idx随机选取训练文本里的一段开始生成后序文本 from keras.models import load_model import random model load_model(tangshi_generator_model.h5)def generate_tangshi(model, generate_len200):start_idx random.randint(0, len(text)-sample_maxlen-1) # 随机开始位置generated sentence text[start_idx : start_idx sample_maxlen] # 开始的句子generated sentenceprint(随机选取的开始句子为{}.format(generated))for i in range(generate_len): # 后续要生成的句子长度x_pred np.zeros((1, sample_maxlen, len(words)))for t, w in enumerate(sentence):x_pred[0, t, word_idx[w]] 1 # 当前句子的 OH 编码preds model.predict(x_pred)[0] # predict 返回 1,2590一个样本 2590个类预测值next_idx sampling(preds, 1) # 采样出来下一个最有可能的词的idxnext_w idx_word[next_idx] # 取出这个词generated next_w # 加到句子中sentence sentence[1:] next_w # 句子窗口后移一个位置作为下次预测的输入return generatedgenerate_tangshi(model, 100)输出 模型完全记住了后续的诗句。 自己随意编写训练集里没有的诗句作为开始如下不可有训练集中未出现的字 with open(test.txt,r,encodingutf-8) as f:test_text f.read()def generate_tangshi_test(model, generate_len60):generated sentence test_text[0 : sample_maxlen]generated sentenceprint(测试文本开始句子为{}.format(generated))for i in range(generate_len):x_pred np.zeros((1, sample_maxlen, len(words)))for t, w in enumerate(sentence):x_pred[0, t, word_idx[w]] 1preds model.predict(x_pred)[0]next_idx sampling(preds, 1)next_w idx_word[next_idx]generated next_wsentence sentence[1:] next_wreturn generatedgenerate_tangshi_test(model, 100)输出 输出的诗句有部分一整句都是训练集里的有的则不是反正没有多少诗的美感哈哈
http://wiki.neutronadmin.com/news/210339/

相关文章:

  • dede旅游网站自己写的网站如何添加 cnzz统计
  • 教育平台型网站建设做英文小工具网站赚钱
  • 用腾讯云做淘宝客网站视频搭建企业网站公司
  • 青岛网站推广怎么做好房产网站的建设
  • 网站开发 小程序开发长沙服装网站建设
  • 菠菜网站建设条件宁波怎么建网站模板
  • 小程序和网站建设需要多钱网站并发要求
  • 如何更换网站的logo电商运营roi怎么算
  • dw做的网站如何发布上海天华建筑设计有限公司待遇
  • 电影网站logo设计网站建设教程搭建湖南岚鸿
  • 网站开发费建站设计网站
  • 苏州 网站设计 知名网站怎么能在百度搜到
  • 网站建设柒金手指花总12微信网站是什么意思
  • 单位建网站的详细步骤wordpress您访问的网页出错
  • 手机建设银行网站进不去wordpress搭建软件下载
  • 企业培训机构有哪些沈阳seo推广公司
  • 太原整站优化群晖 6.1 wordpress
  • 社保代缴网站开发泗水网站建设ys178
  • 怎样做视频电影网站怎样设计电子商务网站的建设
  • 天津网站开发贴吧山西省网站建设备案表
  • 门户型网站模板韩国跨境电商有哪些平台
  • 大学校园网站建设芜湖网站建设费用
  • 网站建设的价值建筑施工建设网站
  • 大学专业宣传网站开发课题意义重庆必去的10个景点
  • 企业建网站的 程序html视频网站源码
  • 四川省建设规划局官方网站启博微分销
  • 谷歌绘制的网站怎么做网页界面
  • 北太平桥网站建设网站备案号找回密码
  • 如何做网站文件定位网站关键词
  • 企业网站推广的渠道企业网站制造