当前位置: 首页 > news >正文

成都响应式网站开发沈阳最新公告

成都响应式网站开发,沈阳最新公告,策划一个网站,电子商务网站设计的原则和内容优化超参数始终是确保模型性能最佳的关键任务。通常#xff0c;网格搜索、随机搜索和贝叶斯优化等技术是主要使用的方法。 今天分享几个常用于模型超参数优化的 Python 工具包#xff0c;如下所示#xff1a; scikit-learn#xff1a;使用在指定参数值上进行的网格搜索或…优化超参数始终是确保模型性能最佳的关键任务。通常网格搜索、随机搜索和贝叶斯优化等技术是主要使用的方法。 今天分享几个常用于模型超参数优化的 Python 工具包如下所示 scikit-learn使用在指定参数值上进行的网格搜索或随机搜索。HyperparameterHunter构建在scikit-learn之上以使其更易于使用。Optuna使用随机搜索、Parzen估计器TPE和基于群体的训练。Hyperopt使用随机搜索和TPE。Talos构建在Keras之上以使其更易于使用。 技术交流 技术要学会分享、交流不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。 本文由粉丝群小伙伴总结与分享如果你也想学习交流资料获取均可加交流群获取群友已超过2000人添加时最好的备注方式为来源兴趣方向方便找到志同道合的朋友。 方式①、添加微信号dkl88194备注来自CSDN 加群 方式②、微信搜索公众号Python学习与数据挖掘后台回复加群 现在让我们看一些使用这些库进行自动编码器模型超参数优化的Python代码示例 from keras.layers import Input, Dense from keras.models import Model# define the Autoencoder input_layer Input(shape(784,)) encoded Dense(32, activationrelu)(input_layer) decoded Dense(784, activationsigmoid)(encoded) autoencoder Model(input_layer, decoded) autoencoder.compile(optimizeradam, lossbinary_crossentropy) autoencoder.fit(X_train, X_train, epochs100, batch_size256, validation_data(X_test, X_test))scikit-learn from sklearn.model_selection import GridSearchCV# define the parameter values that should be searched param_grid {batch_size: [64, 128, 256], epochs: [50, 100, 150]}# create a KFold cross-validator kfold KFold(n_splits10, random_state7)# create the grid search object grid GridSearchCV(estimatorautoencoder, param_gridparam_grid, cvkfold)# fit the grid search object to the training data grid_result grid.fit(X_train, X_train)# print the best parameters and the corresponding score print(fBest parameters: {grid_result.best_params_}) print(fBest score: {grid_result.best_score_})HyperparameterHunter import HyperparameterHunter as hh# create a HyperparameterHunter object hunter hh.HyperparameterHunter(input_dataX_train, output_dataX_train, model_wrapperhh.ModelWrapper(autoencoder))# define the hyperparameter search space hunter.setup(objectiveval_loss, metricval_loss, optimization_modeminimize, max_trials100) hunter.add_experiment(parametershh.Real(0.1, 1, namelearning_rate, digits3, rounding4)) hunter.add_experiment(parametershh.Real(0.1, 1, namedecay, digits3, rounding4))# perform the hyperparameter search hunter.hunt(n_jobs1, gpu_id0)# print the best hyperparameters and the corresponding score print(fBest hyperparameters: {hunter.best_params}) print(fBest score: {hunter.best_score})Hyperopt from hyperopt import fmin, tpe, hp# define the parameter space param_space {batch_size: hp.quniform(batch_size, 64, 256, 1), epochs: hp.quniform(epochs, 50, 150, 1)}# define the objective function def objective(params):autoencoder.compile(optimizeradam, lossbinary_crossentropy)autoencoder.fit(X_train, X_train, batch_sizeparams[batch_size], epochsparams[epochs], verbose0)scores autoencoder.evaluate(X_test, X_test, verbose0)return {loss: scores, status: STATUS_OK}# perform the optimization best fmin(objective, param_space, algotpe.suggest, max_evals100)# print the best parameters and the corresponding score print(fBest parameters: {best}) print(fBest score: {objective(best)})Optuna import optuna# define the objective function def objective(trial):batch_size trial.suggest_int(batch_size, 64, 256)epochs trial.suggest_int(epochs, 50, 150)autoencoder.compile(optimizeradam, lossbinary_crossentropy)autoencoder.fit(X_train, X_train, batch_sizebatch_size, epochsepochs, verbose0)score autoencoder.evaluate(X_test, X_test, verbose0)return score# create the Optuna study study optuna.create_study()# optimize the hyperparameters study.optimize(objective, n_trials100)# print the best parameters and the corresponding score print(fBest parameters: {study.best_params}) print(fBest score: {study.best_value})Talos import talos# define the parameter space param_space {learning_rate: [0.1, 0.01, 0.001], decay: [0.1, 0.01, 0.001]}# define the objective function def objective(params):autoencoder.compile(optimizeradam, lossbinary_crossentropy, lrparams[learning_rate], decayparams[decay])history autoencoder.fit(X_train, X_train, epochs100, batch_size256, validation_data(X_test, X_test), verbose0)score history.history[val_loss][-1]return score# perform the optimization best talos.Scan(X_train, X_train, paramsparam_space, modelautoencoder, experiment_nameautoencoder).best_params(objective, n_trials100)# print the best parameters and the corresponding score print(fBest parameters: {best}) print(fBest score: {objective(best)})
http://wiki.neutronadmin.com/news/375873/

相关文章:

  • 广西智能网站建设报价电脑网络设计干什么的
  • 手机如何制作网站教程天津开发区网站
  • 长沙麓谷建设发展有限公司网站互联网广告公司排名前十
  • 无锡锡山网站建设android studio打包apk
  • 好看的网站首页设计给企业开发网站
  • 鞍山市信息网站赣州建设监督网站
  • 网站建设中首页模板睢宁县建设工程招标网
  • 旅游网站开发与设计论文百度指数怎么下载
  • 土地违法建设投诉网站外贸网络营销的方法
  • seo站点是什么意思高端移动网站开发
  • 免费的企业网站做简单的网站链接
  • 网站建设免费课程火狐浏览器网页版
  • 青岛网站建设方案网站维护更新费用
  • 国外开源网站系统北京公司招聘
  • 白狐网站建设网站建设关键词优化价格
  • 深圳网站建设价格多少钱wordpress如何做页面模板下载
  • 洛江区住房和城乡建设局网站网站信息化建设具体内容
  • 有效的网站推广方案wordpress 下雪插件
  • dreamwearver做网站地图seo排名优化软件价格
  • 企业文化模板企业网站优化之如何做需求分析
  • 上海松江建设银行网站wordpress灯箱图片
  • 如何查网站开发商seo 对手 网站 自然
  • 成功案例 品牌网站深圳好蜘蛛网站建设公司
  • 中国门户网站网站开发的硬件设备
  • 自助小站郑州汉狮做网站的公司
  • 网站产品图怎么做成都网站制作公司定制
  • 网站建设 html5网页设计论文
  • 深圳福田有什么好玩的地方泉州关键词优化
  • 即墨网站建设哪家好wordpress写公式
  • 网站设计论文参考文献南通五建宏业建设工程有限公司网站