当前位置: 首页 > news >正文

兖州网站建设公司什么是网站建设与优化

兖州网站建设公司,什么是网站建设与优化,网络公司公关,wordpress 共存计数方法应用于PTB数据集PTB数据集ptb.py使用ptb.py计数方法应用于PTB数据集PTB数据集 内容如下#xff1a; 一行保存一个句子#xff1b;将稀有单词替换成特殊字符 unk #xff1b;将具体的数字替换 成“N” we re talking about years ago before anyone hear… 计数方法应用于PTB数据集PTB数据集ptb.py使用ptb.py计数方法应用于PTB数据集PTB数据集 内容如下 一行保存一个句子将稀有单词替换成特殊字符 unk 将具体的数字替换 成“N” we re talking about years ago before anyone heard of asbestos having any questionable properties there is no asbestos in our products now neither unk nor the researchers who studied the workers were aware of any research on smokers of the kent cigarettes we have no useful information on whether users are at risk said james a. unk of boston s unk cancer institute dr. unk led a team of researchers from the national cancer institute and the medical schools of harvard university and boston university ptb.py 使用PTB数据集 由下面这句话可知用PTB数据集时候是把所有句子首尾连接了。 words open(file_path).read().replace(\n, eos).strip().split()ptb.py起到了下载PTB数据集把数据集存到文件夹某个位置然后对数据集进行提取的功能提取出corpus, word_to_id, id_to_word。 import sys import os sys.path.append(..) try:import urllib.request except ImportError:raise ImportError(Use Python3!) import pickle import numpy as npurl_base https://raw.githubusercontent.com/tomsercu/lstm/master/data/ key_file {train:ptb.train.txt,test:ptb.test.txt,valid:ptb.valid.txt } save_file {train:ptb.train.npy,test:ptb.test.npy,valid:ptb.valid.npy } vocab_file ptb.vocab.pkldataset_dir os.path.dirname(os.path.abspath(__file__))def _download(file_name):file_path dataset_dir / file_nameif os.path.exists(file_path):returnprint(Downloading file_name ... )try:urllib.request.urlretrieve(url_base file_name, file_path)except urllib.error.URLError:import sslssl._create_default_https_context ssl._create_unverified_contexturllib.request.urlretrieve(url_base file_name, file_path)print(Done)def load_vocab():vocab_path dataset_dir / vocab_fileif os.path.exists(vocab_path):with open(vocab_path, rb) as f:word_to_id, id_to_word pickle.load(f)return word_to_id, id_to_wordword_to_id {}id_to_word {}data_type trainfile_name key_file[data_type]file_path dataset_dir / file_name_download(file_name)words open(file_path).read().replace(\n, eos).strip().split()for i, word in enumerate(words):if word not in word_to_id:tmp_id len(word_to_id)word_to_id[word] tmp_idid_to_word[tmp_id] wordwith open(vocab_path, wb) as f:pickle.dump((word_to_id, id_to_word), f)return word_to_id, id_to_worddef load_data(data_typetrain)::param data_type: 数据的种类train or test or valid (val):return:if data_type val: data_type validsave_path dataset_dir / save_file[data_type]word_to_id, id_to_word load_vocab()if os.path.exists(save_path):corpus np.load(save_path)return corpus, word_to_id, id_to_wordfile_name key_file[data_type]file_path dataset_dir / file_name_download(file_name)words open(file_path).read().replace(\n, eos).strip().split()corpus np.array([word_to_id[w] for w in words])np.save(save_path, corpus)return corpus, word_to_id, id_to_wordif __name__ __main__:for data_type in (train, val, test):load_data(data_type) 使用ptb.py corpus保存了单词ID列表id_to_word 是将单词ID转化为单词的字典word_to_id 是将单词转化为单词ID的字典。 使用ptb.load_data()加载数据。里面的参数 ‘train’、‘test’、‘valid’ 分别对应训练用数据、测试用数据、验证用数据。 import sys sys.path.append(..) from dataset import ptbcorpus, word_to_id, id_to_word ptb.load_data(train)print(corpus size:, len(corpus)) print(corpus[:30]:, corpus[:30]) print() print(id_to_word[0]:, id_to_word[0]) print(id_to_word[1]:, id_to_word[1]) print(id_to_word[2]:, id_to_word[2]) print() print(word_to_id[car]:, word_to_id[car]) print(word_to_id[happy]:, word_to_id[happy]) print(word_to_id[lexus]:, word_to_id[lexus]) 结果 corpus size: 929589 corpus[:30]: [ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 2324 25 26 27 28 29]id_to_word[0]: aer id_to_word[1]: banknote id_to_word[2]: berlitzword_to_id[car]: 3856 word_to_id[happy]: 4428 word_to_id[lexus]: 7426Process finished with exit code 0 计数方法应用于PTB数据集 其实和不用PTB数据集的区别就在于这句话。 corpus, word_to_id, id_to_word ptb.load_data(train)下面这句话起降维的效果 word_vecs U[:, :wordvec_size]整个代码其实耗时最大的是在下面这个函数上 W ppmi(C, verboseTrue)完整代码 import sys sys.path.append(..) import numpy as np from common.util import most_similar, create_co_matrix, ppmi from dataset import ptbwindow_size 2 wordvec_size 100corpus, word_to_id, id_to_word ptb.load_data(train) vocab_size len(word_to_id) print(counting co-occurrence ...) C create_co_matrix(corpus, vocab_size, window_size) print(calculating PPMI ...) W ppmi(C, verboseTrue)print(calculating SVD ...) #try:# truncated SVD (fast!) print(ok) from sklearn.utils.extmath import randomized_svd U, S, V randomized_svd(W, n_componentswordvec_size, n_iter5,random_stateNone) #except ImportError:# SVD (slow)# U, S, V np.linalg.svd(W)word_vecs U[:, :wordvec_size]querys [you, year, car, toyota] for query in querys:most_similar(query, word_to_id, id_to_word, word_vecs, top5) 下面这个是用普通的np.linalg.svd(W)做出的结果。 [query] youi: 0.7016294002532959we: 0.6388039588928223anybody: 0.5868048667907715do: 0.5612815618515015ll: 0.512611985206604[query] yearmonth: 0.6957005262374878quarter: 0.691483736038208earlier: 0.6661213636398315last: 0.6327787041664124third: 0.6230476498603821[query] carluxury: 0.6767407655715942auto: 0.6339930295944214vehicle: 0.5972712635993958cars: 0.5888376235961914truck: 0.5693157315254211[query] toyotamotor: 0.7481387853622437nissan: 0.7147319316864014motors: 0.6946366429328918lexus: 0.6553674340248108honda: 0.6343469619750977 下面结果是用了sklearn模块里面的randomized_svd方法使用了随机数的 Truncated SVD仅对奇异值较大的部分进行计算计算速度比常规的 SVD 快。 calculating SVD ... ok[query] youi: 0.6678948998451233we: 0.6213737726211548something: 0.560122013092041do: 0.5594725608825684someone: 0.5490139126777649[query] yearmonth: 0.6444296836853027quarter: 0.6192560791969299next: 0.6152222156524658fiscal: 0.5712860226631165earlier: 0.5641934871673584[query] carluxury: 0.6612467765808105auto: 0.6166062355041504corsica: 0.5270425081253052cars: 0.5142025947570801truck: 0.5030257105827332[query] toyotamotor: 0.7747215628623962motors: 0.6871038675308228lexus: 0.6786072850227356nissan: 0.6618651151657104mazda: 0.6237337589263916Process finished with exit code 0
http://wiki.neutronadmin.com/news/273997/

相关文章:

  • 怎样让自己做的网站被百度收录如何制作个人网页?
  • 中国建设信息昆明网站seo公司
  • 北京工商注册核名泰州seo公司
  • 网站建设ppt演示文档如何建设电影网站
  • 长治网站制作怎么做适合注册公司的名字大全
  • 长沙建设工程官方网站济南官网seo推广
  • 哪个网站做推广做的最好宠物用品销售网站建设和技术现状
  • 镇江网站建设多少钱网站哪里可以查到做ddos
  • 网站开发语言检测小微平台
  • 青海农业网站建设公司seo深圳网络推广
  • 做网站CentOS还是win好it培训机构怎么样
  • 网站建设设计未来前景广州省建设监理协会网站
  • 新开传奇网站超变潍坊 logo设计公司
  • 哪些网站用天平做logo做网站推广利润
  • 上虞区住房和城乡建设局网站网站排名logo怎么做
  • 亚马逊网站建设的意义淘宝便宜的团购网站建设
  • 手机创建网站免费建设pc 移动网站
  • 网站开发知识产权归属问题即时聊天app开发
  • php做网站需要数据库吗外贸是做什么的工作内容是什么
  • 网站建设什么原因最主要英语卷子哪个网站可以做
  • 做购物商城网站建设商业空间展示设计
  • ps做 网站标准尺寸是多少合适游学做的好的网站
  • 网站建设宽度一般都是多少钱网站建设责任书
  • 海南省城乡建设厅网站首页衡水注册公司流程和费用
  • 网站购买流程网站开发 与 网页设计的区别
  • 装饰网站建设网智慧团建pc端登录
  • 网站服务器证书有问题网站制作杭州
  • 做电脑网站起什么名字那个视频网站做公开课比较好
  • 网站被黑是什么原因做网站
  • 网站优化排名易下拉稳定浙江学院网站建设