当前位置: 首页 > news >正文

郑州网站分析网上推广网站

郑州网站分析,网上推广网站,陈铭生小说,网推资源网站计数方法应用于PTB数据集PTB数据集ptb.py使用ptb.py计数方法应用于PTB数据集PTB数据集 内容如下#xff1a; 一行保存一个句子#xff1b;将稀有单词替换成特殊字符 unk #xff1b;将具体的数字替换 成“N” we re talking about years ago before anyone hear… 计数方法应用于PTB数据集PTB数据集ptb.py使用ptb.py计数方法应用于PTB数据集PTB数据集 内容如下 一行保存一个句子将稀有单词替换成特殊字符 unk 将具体的数字替换 成“N” we re talking about years ago before anyone heard of asbestos having any questionable properties there is no asbestos in our products now neither unk nor the researchers who studied the workers were aware of any research on smokers of the kent cigarettes we have no useful information on whether users are at risk said james a. unk of boston s unk cancer institute dr. unk led a team of researchers from the national cancer institute and the medical schools of harvard university and boston university ptb.py 使用PTB数据集 由下面这句话可知用PTB数据集时候是把所有句子首尾连接了。 words open(file_path).read().replace(\n, eos).strip().split()ptb.py起到了下载PTB数据集把数据集存到文件夹某个位置然后对数据集进行提取的功能提取出corpus, word_to_id, id_to_word。 import sys import os sys.path.append(..) try:import urllib.request except ImportError:raise ImportError(Use Python3!) import pickle import numpy as npurl_base https://raw.githubusercontent.com/tomsercu/lstm/master/data/ key_file {train:ptb.train.txt,test:ptb.test.txt,valid:ptb.valid.txt } save_file {train:ptb.train.npy,test:ptb.test.npy,valid:ptb.valid.npy } vocab_file ptb.vocab.pkldataset_dir os.path.dirname(os.path.abspath(__file__))def _download(file_name):file_path dataset_dir / file_nameif os.path.exists(file_path):returnprint(Downloading file_name ... )try:urllib.request.urlretrieve(url_base file_name, file_path)except urllib.error.URLError:import sslssl._create_default_https_context ssl._create_unverified_contexturllib.request.urlretrieve(url_base file_name, file_path)print(Done)def load_vocab():vocab_path dataset_dir / vocab_fileif os.path.exists(vocab_path):with open(vocab_path, rb) as f:word_to_id, id_to_word pickle.load(f)return word_to_id, id_to_wordword_to_id {}id_to_word {}data_type trainfile_name key_file[data_type]file_path dataset_dir / file_name_download(file_name)words open(file_path).read().replace(\n, eos).strip().split()for i, word in enumerate(words):if word not in word_to_id:tmp_id len(word_to_id)word_to_id[word] tmp_idid_to_word[tmp_id] wordwith open(vocab_path, wb) as f:pickle.dump((word_to_id, id_to_word), f)return word_to_id, id_to_worddef load_data(data_typetrain)::param data_type: 数据的种类train or test or valid (val):return:if data_type val: data_type validsave_path dataset_dir / save_file[data_type]word_to_id, id_to_word load_vocab()if os.path.exists(save_path):corpus np.load(save_path)return corpus, word_to_id, id_to_wordfile_name key_file[data_type]file_path dataset_dir / file_name_download(file_name)words open(file_path).read().replace(\n, eos).strip().split()corpus np.array([word_to_id[w] for w in words])np.save(save_path, corpus)return corpus, word_to_id, id_to_wordif __name__ __main__:for data_type in (train, val, test):load_data(data_type) 使用ptb.py corpus保存了单词ID列表id_to_word 是将单词ID转化为单词的字典word_to_id 是将单词转化为单词ID的字典。 使用ptb.load_data()加载数据。里面的参数 ‘train’、‘test’、‘valid’ 分别对应训练用数据、测试用数据、验证用数据。 import sys sys.path.append(..) from dataset import ptbcorpus, word_to_id, id_to_word ptb.load_data(train)print(corpus size:, len(corpus)) print(corpus[:30]:, corpus[:30]) print() print(id_to_word[0]:, id_to_word[0]) print(id_to_word[1]:, id_to_word[1]) print(id_to_word[2]:, id_to_word[2]) print() print(word_to_id[car]:, word_to_id[car]) print(word_to_id[happy]:, word_to_id[happy]) print(word_to_id[lexus]:, word_to_id[lexus]) 结果 corpus size: 929589 corpus[:30]: [ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 2324 25 26 27 28 29]id_to_word[0]: aer id_to_word[1]: banknote id_to_word[2]: berlitzword_to_id[car]: 3856 word_to_id[happy]: 4428 word_to_id[lexus]: 7426Process finished with exit code 0 计数方法应用于PTB数据集 其实和不用PTB数据集的区别就在于这句话。 corpus, word_to_id, id_to_word ptb.load_data(train)下面这句话起降维的效果 word_vecs U[:, :wordvec_size]整个代码其实耗时最大的是在下面这个函数上 W ppmi(C, verboseTrue)完整代码 import sys sys.path.append(..) import numpy as np from common.util import most_similar, create_co_matrix, ppmi from dataset import ptbwindow_size 2 wordvec_size 100corpus, word_to_id, id_to_word ptb.load_data(train) vocab_size len(word_to_id) print(counting co-occurrence ...) C create_co_matrix(corpus, vocab_size, window_size) print(calculating PPMI ...) W ppmi(C, verboseTrue)print(calculating SVD ...) #try:# truncated SVD (fast!) print(ok) from sklearn.utils.extmath import randomized_svd U, S, V randomized_svd(W, n_componentswordvec_size, n_iter5,random_stateNone) #except ImportError:# SVD (slow)# U, S, V np.linalg.svd(W)word_vecs U[:, :wordvec_size]querys [you, year, car, toyota] for query in querys:most_similar(query, word_to_id, id_to_word, word_vecs, top5) 下面这个是用普通的np.linalg.svd(W)做出的结果。 [query] youi: 0.7016294002532959we: 0.6388039588928223anybody: 0.5868048667907715do: 0.5612815618515015ll: 0.512611985206604[query] yearmonth: 0.6957005262374878quarter: 0.691483736038208earlier: 0.6661213636398315last: 0.6327787041664124third: 0.6230476498603821[query] carluxury: 0.6767407655715942auto: 0.6339930295944214vehicle: 0.5972712635993958cars: 0.5888376235961914truck: 0.5693157315254211[query] toyotamotor: 0.7481387853622437nissan: 0.7147319316864014motors: 0.6946366429328918lexus: 0.6553674340248108honda: 0.6343469619750977 下面结果是用了sklearn模块里面的randomized_svd方法使用了随机数的 Truncated SVD仅对奇异值较大的部分进行计算计算速度比常规的 SVD 快。 calculating SVD ... ok[query] youi: 0.6678948998451233we: 0.6213737726211548something: 0.560122013092041do: 0.5594725608825684someone: 0.5490139126777649[query] yearmonth: 0.6444296836853027quarter: 0.6192560791969299next: 0.6152222156524658fiscal: 0.5712860226631165earlier: 0.5641934871673584[query] carluxury: 0.6612467765808105auto: 0.6166062355041504corsica: 0.5270425081253052cars: 0.5142025947570801truck: 0.5030257105827332[query] toyotamotor: 0.7747215628623962motors: 0.6871038675308228lexus: 0.6786072850227356nissan: 0.6618651151657104mazda: 0.6237337589263916Process finished with exit code 0
http://www.yutouwan.com/news/427268/

相关文章:

  • 太原做网站设计wordpress手机排版
  • 做中介网站需要多少钱餐饮网站建设需求分析
  • 上海建设三类人员网站兰州网站建设与优化推广
  • 长沙网站建设外包网站备案的幕布是什么来的
  • 带做网站价位wordpress 获取备案号
  • 新手如何做网站的教程怎样重启网站服务器
  • 网站建设流程知乎定制网站建设服务器
  • 网站建站实训总结wordpress 分享 点赞
  • 手机网站建设图片美色商城 网站建设
  • 创建好网站如何把浏览wordpress数据库端口
  • 网站建设与维护管理办法云南互联网公司
  • 农业网站建设方案 ppt泰安搜索引擎优化招聘
  • 做视频找空镜头那个网站比较全哪家房屋设计公司网站
  • 仿同程网 连锁酒店 网站模板公众号 网站开发
  • 美妆网站设计模板电子商务网站建设如何策划与实施
  • 搭建网站首页网站建设公司有哪些
  • 做介绍翻译英文网站专业响应式网站制作
  • 沧州网站建设公司电话谁有人和兽做的网站?
  • 汽车精品网站建设外贸婚纱礼服网站
  • WordPress网站登录邮件提醒做模具的网站
  • 北京国都建设集团网站网站域名收费标准
  • 那个网站做国外售货商业网站策划书范文
  • 茌平网站建设价格wordpress cpu
  • 无锡装修网站公司注册核名
  • 酒业网站建设淄博网站建设-至信网络
  • 合肥专业网站优化费用动静分离网站架构
  • 购买域名和网站中山seo网络推广
  • 光明新区住房和建设局网站如何修改公司网站
  • 做商品推广有那些网站厦门中科做网站总打电话来
  • 微网站 无锡wordpress弹出框插件