网站维护费用,用word制作网页,西安百度框架户,做网站和制作网页的区别全世界有3.14 % 的人已经关注了数据与算法之美很多搜索引擎可以用一张图片#xff0c;搜索互联网上所有与它相似的图片。你输入网片的网址#xff0c;或者直接上传图片#xff0c;Google就会找出与其相似的图片。下面这张图片是美国女演员Alyson Hannigan。上传后#xff0… 全世界有3.14 % 的人已经关注了数据与算法之美很多搜索引擎可以用一张图片搜索互联网上所有与它相似的图片。你输入网片的网址或者直接上传图片Google就会找出与其相似的图片。下面这张图片是美国女演员Alyson Hannigan。上传后Google返回如下结果类似的”相似图片搜索引擎”还有不少TinEye甚至可以找出照片的拍摄背景。这种技术的原理是什么计算机怎么知道两张图片相似呢根据Neal Krawetz博士的解释原理非常简单易懂。我们可以用一个快速算法就达到基本的效果。这里的关键技术叫做”感知哈希算法”Perceptual hash algorithm它的作用是对每张图片生成一个”指纹”fingerprint字符串然后比较不同图片的指纹。结果越接近就说明图片越相似。下面是一个最简单的实现第一步缩小尺寸。将图片缩小到8×8的尺寸总共64个像素。这一步的作用是去除图片的细节只保留结构、明暗等基本信息摒弃不同尺寸、比例带来的图片差异。第二步简化色彩。将缩小后的图片转为64级灰度。也就是说所有像素点总共只有64种颜色。第三步计算平均值。计算所有64个像素的灰度平均值。第四步比较像素的灰度。将每个像素的灰度与平均值进行比较。大于或等于平均值记为1小于平均值记为0。第五步计算哈希值。将上一步的比较结果组合在一起就构成了一个64位的整数这就是这张图片的指纹。组合的次序并不重要只要保证所有图片都采用同样次序就行了。得到指纹以后就可以对比不同的图片看看64位中有多少位是不一样的。在理论上这等同于计算“汉明距离”Hamming distance。如果不相同的数据位不超过5就说明两张图片很相似如果大于10就说明这是两张不同的图片。具体的代码实现可以参见Wote用python语言写的imgHash.py。代码很短只有53行。使用的时候第一个参数是基准图片第二个参数是用来比较的其他图片所在的目录返回结果是两张图片之间不相同的数据位数量汉明距离。这种算法的优点是简单快速不受图片大小缩放的影响缺点是图片的内容不能变更。如果在图片上加几个文字它就认不出来了。所以它的最佳用途是根据缩略图找出原图。实际应用中往往采用更强大的pHash算法和SIFT算法它们能够识别图片的变形。只要变形程度不超过25%它们就能匹配原图。这些算法虽然更复杂但是原理与上面的简便算法是一样的就是先将图片转化成Hash字符串然后再进行比较。感受算法之美推荐阅读《啊哈算法》。昨天我在isnowfy的网站看到还有其他两种方法也很简单这里做一些笔记。一、颜色分布法每张图片都可以生成颜色分布的直方图color histogram。如果两张图片的直方图很接近就可以认为它们很相似。任何一种颜色都是由红绿蓝三原色RGB构成的所以上图共有4张直方图三原色直方图 最后合成的直方图。如果每种原色都可以取256个值那么整个颜色空间共有1600万种颜色256的三次方。针对这1600万种颜色比较直方图计算量实在太大了因此需要采用简化方法。可以将0255分成四个区063为第0区64127为第1区128191为第2区192255为第3区。这意味着红绿蓝分别有4个区总共可以构成64种组合4的3次方。任何一种颜色必然属于这64种组合中的一种这样就可以统计每一种组合包含的像素数量。上图是某张图片的颜色分布表将表中最后一栏提取出来组成一个64维向量(7414, 230, 0, 0, 8, …, 109, 0, 0, 3415, 53929)。这个向量就是这张图片的特征值或者叫”指纹”。于是寻找相似图片就变成了找出与其最相似的向量。这可以用皮尔逊相关系数或者余弦相似度算出。二、内容特征法除了颜色构成还可以从比较图片内容的相似性入手。首先将原图转成一张较小的灰度图片假定为50×50像素。然后确定一个阈值将灰度图片转成黑白图片。如果两张图片很相似它们的黑白轮廓应该是相近的。于是问题就变成了第一步如何确定一个合理的阈值正确呈现照片中的轮廓显然前景色与背景色反差越大轮廓就越明显。这意味着如果我们找到一个值可以使得前景色和背景色各自的”类内差异最小”minimizing the intra-class variance或者”类间差异最大”maximizing the inter-class variance那么这个值就是理想的阈值。1979年日本学者大津展之证明了”类内差异最小”与”类间差异最大”是同一件事即对应同一个阈值。他提出一种简单的算法可以求出这个阈值这被称为“大津法”Otsu’s method。下面就是他的计算方法。假定一张图片共有n个像素其中灰度值小于阈值的像素为 n1 个大于等于阈值的像素为 n2 个 n1 n2 n 。w1 和 w2 表示这两种像素各自的比重。w1 n1 / nw2 n2 / n再假定所有灰度值小于阈值的像素的平均值和方差分别为 μ1 和 σ1所有灰度值大于等于阈值的像素的平均值和方差分别为 μ2 和 σ2。于是可以得到类内差异 w1(σ1的平方) w2(σ2的平方)类间差异 w1w2(μ1-μ2)^2可以证明这两个式子是等价的得到”类内差异”的最小值等同于得到”类间差异”的最大值。不过从计算难度看后者的计算要容易一些。下一步用”穷举法”将阈值从灰度的最低值到最高值依次取一遍分别代入上面的算式。使得”类内差异最小”或”类间差异最大”的那个值就是最终的阈值。具体的实例和Java算法请看这里。有了50×50像素的黑白缩略图就等于有了一个50×50的0-1矩阵。矩阵的每个值对应原图的一个像素0表示黑色1表示白色。这个矩阵就是一张图片的特征矩阵。两个特征矩阵的不同之处越少就代表两张图片越相似。这可以用”异或运算”实现即两个值之中只有一个为1则运算结果为1否则运算结果为0。对不同图片的特征矩阵进行”异或运算”结果中的1越少就是越相似的图片。精品课程推荐选购数学科普正版读物严选“数学思维好物”送给孩子的益智礼物 | 办公室神器算法工程师成长阅读 | 居家高科技理工科男女实用型礼物精选 数据与算法之美用数据解决不可能长按扫码关注