当前位置: 首页 > news >正文

保定网站制作计划上饶做网站

保定网站制作计划,上饶做网站,郑州建设信息网网,优秀茶叶网站设计⭐️⭐️⭐️⭐️⭐️欢迎来到我的博客⭐️⭐️⭐️⭐️⭐️ #x1f434;作者#xff1a;秋无之地 #x1f434;简介#xff1a;CSDN爬虫、后端、大数据领域创作者。目前从事python爬虫、后端和大数据等相关工作#xff0c;主要擅长领域有#xff1a;爬虫、后端、大数据… ⭐️⭐️⭐️⭐️⭐️欢迎来到我的博客⭐️⭐️⭐️⭐️⭐️ 作者秋无之地 简介CSDN爬虫、后端、大数据领域创作者。目前从事python爬虫、后端和大数据等相关工作主要擅长领域有爬虫、后端、大数据开发、数据分析等。 欢迎小伙伴们点赞、收藏⭐️、留言、关注关注必回关 上一篇文章已经跟大家介绍过《数据集成数据挖掘的准备工作之一》相信大家对数据集成都有一个基本的认识。下面我讲一下数据变换数据挖掘的准备工作之一。 一、数据变换重要性 上一节中讲了数据集成今天来说一下数据变换。 举个简单的例子 如果一个人在百分制的考试中得了 95 分你肯定会认为他学习成绩很好如果得了 65 分就会觉得他成绩不好。如果得了 80 分呢你会觉得他成绩中等因为在班级里这属于大部分人的情况。 为什么会有这样的认知呢这是因为我们从小到大的考试成绩基本上都会满足正态分布的情况。什么是正态分布呢正态分布也叫作常态分布就是正常的状态下呈现的分布情况。 比如你可能会问班里的考试成绩是怎样的这里其实指的是大部分同学的成绩如何。以下图为例在正态分布中大部分人的成绩会集中在中间的区域少部分人处于两头的位置。正态分布的另一个好处就是如果你知道了自己的成绩和整体的正态分布情况就可以知道自己的成绩在全班中的位置。 如果大部分人成绩都“不及格”最后在大家激烈的讨论声中老师会将考试成绩做规范化处理从而让成绩满足正态分布的情况。因为只有这样成绩才更具有比较性。所以正态分布的成绩不仅可以让你了解全班整体的情况还能了解每个人的成绩在全班中的位置。 上述的规范化处理就是数据分析中的数据转换。 二、数据变换是数据准备的重要环节 数据变换是数据准备的重要环节它通过数据平滑、数据聚集、数据概化和规范化等方式将数据转换成适用于数据挖掘的形式。 我们再来举个例子假设 A 考了 80 分B 也考了 80 分但前者是百分制后者 500 分是满分如果我们把从这两个渠道收集上来的数据进行集成、挖掘就算使用效率再高的算法结果也不是正确的。因为这两个渠道的分数代表的含义完全不同。 所以说有时候数据变换比算法选择更重要数据错了算法再正确也是错的。你现在可以理解为什么 80% 的工作时间会花在前期的数据准备上了吧。 那么如何让不同渠道的数据统一到一个目标数据库里呢这样就用到了数据变换。 在数据变换前我们需要先对字段进行筛选然后对数据进行探索和相关性分析接着是选择算法模型这里暂时不需要进行模型计算然后针对算法模型对数据的需求进行数据变换从而完成数据挖掘前的准备工作。 下面这些是常见的变换方法 数据平滑去除数据中的噪声将连续数据离散化。这里可以采用分箱、聚类和回归的方式进行数据平滑我会在后面给你讲解聚类和回归这两个算法数据聚集对数据进行汇总在 SQL 中有一些聚集函数可以供我们操作比如 Max() 反馈某个字段的数值最大值Sum() 返回某个字段的数值总和数据概化将数据由较低的概念抽象成为较高的概念减少数据复杂度即用更高的概念替代更低的概念。比如说上海、杭州、深圳、北京可以概化为中国。数据规范化使属性数据按比例缩放这样就将原来的数值映射到一个新的特定区域中。常用的方法有最小—最大规范化、Z—score 规范化、按小数定标规范化等我会在后面给你讲到这些方法的使用属性构造构造出新的属性并添加到属性集中。这里会用到特征工程的知识因为通过属性与属性的连接构造新的属性其实就是特征工程。比如说数据表中统计每个人的英语、语文和数学成绩你可以构造一个“总和”这个属性来作为新属性。这样“总和”这个属性就可以用到后续的数据挖掘计算中。 在这些变换方法中最简单易用的就是对数据进行规范化处理。下面我来给你讲下如何对数据进行规范化处理。 三、数据规范化的几种方法 1、Min-max 规范化 Min-max 规范化方法是将原始数据变换到[0,1]的空间中。 用公式表示就是新数值 原数值 - 极小值/极大值 - 极小值。 2、Z-Score 规范化 假设 A 与 B 的考试成绩都为 80 分A 的考卷满分是 100 分及格 60 分B 的考卷满分是 500 分及格 300 分。虽然两个人都考了 80 分但是 A 的 80 分与 B 的 80 分代表完全不同的含义。 那么如何用相同的标准来比较 A 与 B 的成绩呢Z-Score 就是用来可以解决这一问题的。 我们定义新数值 原数值 - 均值/ 标准差。 假设 A 所在的班级平均分为 80标准差为 10。B 所在的班级平均分为 400标准差为 100。那么 A 的新数值 (80-80)/100B 的新数值 (80-400)/100-3.2。 那么在 Z-Score 标准下A 的成绩会比 B 的成绩好。 我们能看到 Z-Score 的优点是算法简单不受数据量级影响结果易于比较。不足在于它需要数据整体的平均值和方差而且结果没有实际意义只是用于比较。 3、小数定标规范化 小数定标规范化就是通过移动小数点的位置来进行规范化。小数点移动多少位取决于属性 A 的取值中的最大绝对值。 举个例子比如属性 A 的取值范围是 -999 到 88那么最大绝对值为 999小数点就会移动 3 位即新数值 原数值 /1000。那么 A 的取值范围就被规范化为 -0.999 到 0.088。 上面这三种是数值规范化中常用的几种方式。 四、Python 的 SciKit-Learn 库使用 SciKit-Learn 是 Python 的重要机器学习库它帮我们封装了大量的机器学习算法比如分类、聚类、回归、降维等。此外它还包括了数据变换模块。 我现在来讲下如何使用 SciKit-Learn 进行数据规范化。 1. Min-max 规范化 我们可以让原始数据投射到指定的空间[min, max]在 SciKit-Learn 里有个函数 MinMaxScaler 是专门做这个的它允许我们给定一个最大值与最小值然后将原数据投射到[min, max]中。默认情况下[min,max]是[0,1]也就是把原始数据投放到[0,1]范围内。 我们来看下下面这个例子 # coding:utf-8 from sklearn import preprocessing import numpy as np # 初始化数据每一行表示一个样本每一列表示一个特征 x np.array([[ 0., -3., 1.],[ 3., 1., 2.],[ 0., 1., -1.]]) # 将数据进行[0,1]规范化 min_max_scaler preprocessing.MinMaxScaler() minmax_x min_max_scaler.fit_transform(x) print(minmax_x) 运行结果 [[0. 0. 0.66666667][1. 1. 1. ][0. 1. 0. ]] 2、Z-Score 规范化 在 SciKit-Learn 库中使用 preprocessing.scale() 函数可以直接将给定数据进行 Z-Score 规范化。 from sklearn import preprocessing import numpy as np # 初始化数据 x np.array([[ 0., -3., 1.],[ 3., 1., 2.],[ 0., 1., -1.]]) # 将数据进行Z-Score规范化 scaled_x preprocessing.scale(x) print(scaled_x) 运行结果 [[-0.70710678 -1.41421356 0.26726124][ 1.41421356 0.70710678 1.06904497][-0.70710678 0.70710678 -1.33630621]] 这个结果实际上就是将每行每列的值减去了平均值再除以方差的结果。 我们看到 Z-Score 规范化将数据集进行了规范化数值都符合均值为 0方差为 1 的正态分布。 3、小数定标规范化 我们需要用 NumPy 库来计算小数点的位数。NumPy 库我们之前提到过。 这里我们看下运行代码 # coding:utf-8 from sklearn import preprocessing import numpy as np # 初始化数据 x np.array([[ 0., -3., 1.],[ 3., 1., 2.],[ 0., 1., -1.]]) # 小数定标规范化 j np.ceil(np.log10(np.max(abs(x)))) scaled_x x/(10**j) print(scaled_x) 运行结果  [[ 0. -0.3 0.1][ 0.3 0.1 0.2][ 0. 0.1 -0.1]] 四、总结 数据挖掘中数据变换比算法选择更重要。 在考试成绩中我们都需要让数据满足一定的规律达到规范性的要求便于进行挖掘。这就是数据变换的作用。 如果不进行变换的话要不就是维数过多增加了计算的成本要不就是数据过于集中很难找到数据之间的特征。 在数据变换中重点是如何将数值进行规范化有三种常用的规范方法分别是 Min-Max 规范化、Z-Score 规范化、小数定标规范化。其中 Z-Score 规范化可以直接将数据转化为正态分布的情况当然不是所有自然界的数据都需要正态分布我们也可以根据实际的情况进行设计比如取对数 log或者神经网络里采用的激励函数等。 在最后我给大家推荐了 Python 的 sklearn 库它和 NumPy, Pandas 都是非常有名的 Python 库在数据统计工作中起了很大的作用。SciKit-Learn 不仅可以用于数据变换它还提供了分类、聚类、预测等数据挖掘算法的 API 封装。后面我会详细给你讲解这些算法也会教你如何使用 SciKit-Learn 工具来完成数据挖掘算法的工作。 版权声明 本文章版权归作者所有未经作者允许禁止任何转载、采集作者保留一切追究的权利。
http://wiki.neutronadmin.com/news/99249/

相关文章:

  • 小公司网站怎么建做电销有什么资料网站
  • sogou网站提交纺织行业网站怎么做吸引人
  • 临海建设局网站青岛网页设计师
  • 教育类网站开发需求说明书建设厅网站密码忘了怎么办
  • 做 理财网站好潮州市建设工程交易中心网站
  • 成都市学校网站建设百度站长收录入口
  • 做零食用哪个网站好怎么制作html文档
  • 上海做网站最专业wordpress绑定域名收费吗
  • 企业数据查询网站wordpress允许游客支付
  • 网页源代码搜索seo导航站
  • 怎么在百度建设一个网站天津网站优化排名
  • 阿里云备案 网站服务内容珠海发布最新通告
  • 做盗文网站吉林省科瑞建设项目管理有限公司网站
  • 建一个大型网站需要多少钱网站空间选择的主要原则有哪些
  • 网站首页关键词济南高风险区最新通告
  • 网站建设工作都包括哪些方面哪个公司的网络最好用
  • 视差网站建设个人网站的心得体会
  • 第八章 电子商务网站建设课件垂直网站怎么做
  • 苏州网站开发公司兴田德润怎么联系网题 做问卷的网站
  • 宁波专业品牌网站制作外包做网站最重要的是什么
  • 上海信息技术做网站网站建设软件定制开发
  • 谢岗仿做网站网站建设平台简介
  • 网站做资讯需要获取许可证吗成都网站seo技巧
  • 东莞沙田网站建设迅速建设企业网站
  • 网站建设与网页设计作业专业网站设计公司价格
  • 重庆网站排名优化公司wordpress支持内网和外网
  • 大连网站设计哪里有做旧版优化大师
  • 网页设计制作网站首页抖音企业推广费用
  • 防城港做网站安卓优化大师旧版
  • 全国做旅游开发的公司搜索引擎排名优化建议