人工智能什么时候才能全面影响搜索算法?

人工智能什么时候才能全面影响搜索算法?,第1张

人工智能什么时候才能全面影响搜索算法?

在过去的一两年里,人工智能是最受欢迎的,并迅速发展成为有用的技术。之前看过人工智能会改变SEO,也详细介绍过人工智能在搜索算法中的具体应用,但必须指出的是,到目前为止,人工智能在搜索算法中的应用并不普遍。广州中山大学搜索算法危及人工智能应用的最关键因素,或许是百度搜索引擎技术工程师并不确切知道人工智能系统软件是如何做出判断的,进而引发另一个关键问题:调试困难。

人工智能是个黑盒子

用一种不太严谨但很容易理解的方式来说,深度神经网络就是对当前的数据信息(大量的数据信息)进行标记,然后系统软件自己总结出数据信息与结果(也就是被标记的标记)之间的关系。在处理新数据时,它可以根据自己总结的规律性做出判断。就中国围棋而言,无论历史时间残局还是自己的围棋比赛,AlphaGo都知道股票面和结果(这也是一种标志)。系统软件会在处理新股面时总结规律性,判断胜算。但是,AI系统软件所寻找的数据信息的特征,与结果有怎样的关联,连创造AI的技术工程师都不知道。

所以,今天的人工智能系统软件就是一个黑匣子。我们知道AI判断的准确率高,但不知道为什么,也不知道怎么判断。

AI在搜索算法上也是如此。很少看到网页搜索技术工程师的名字,只知道百度现在全在 AI。谷歌技术工程师的建立表明,他们并不太清楚RankBrain是如何工作的。在这种情况下,在很多优化算法中应用人工智能是比较麻烦的。一旦发现异常结果,不清楚是怎么回事,也没有办法调试。

写这个帖子是因为前段时间在《纽约日报》上看到一篇文章“AI能学会自我解释吗?”,很有意思。心理学家Michal Kosinski将20万个社交媒体账户(一个约会网站)的照片和私人信息(包括许多内容,如性取向)输入人工智能系统的软件进行人脸识别,发现在只看到照片的情况下,人工智能对性取向的判断准确率很高。根据人的照片判断一个人是不是双性恋的准确率是60%,比扔硬币高一点。而人工智能判断男性是否双性恋的准确率为91%,女性的准确率更低,为83%。

你看不到语气、体型、行为习惯、人际交往等信息内容。从照片上看。双性恋有外表清纯的特征吗?我的工作经验是,以貌取人不靠谱。我以前认识一对男同性恋。他们都很有男人味,长期运动健身,待人温柔却从来没有女人味。从表面上看不出来。也可能是借助了某种服装特征?小表情?情况?人工智能从照片中看到哪些人很可能忽略,或者人根本看不到的特征,并达到91%的准确率?我不知道。反正我就是懂AI,看的准。

不可以解释自身的AI没法被信赖

这种黑箱的特点有时候无伤大雅,好像是判断性取向。有时候不能这么欠考虑,比如求医。虽然AI系统诊断某些癌症疾病的准确率已经达到了医生的水平,但是现阶段最终的结果还是需要医生来做,尤其是当AI无法告诉你其诊断的原因是什么的时候。除非后来的AI能解释清楚它为什么做出这个诊断,否则,让人们百分百信任AI会有很大的心理问题。

前几天刚看到一则新闻,新加坡政府刚刚开始测试自动驾驶公交车。这显然是一个合适的位置,因为我坚信未来会在不久的将来成为现实。虽然无人驾驶汽车的故障率比人低,客观上大家都知道其实更安全,但是过马路的时候,旁边停着的公交车没有司机。我能不怕突然开始吗?我开车的时候,转头看到旁边的公交车上没有司机。我能不能吓一跳,不由自主地远离它?至少前期是这样。和很多盆友聊起这件事,都是客观信服,理性胆怯。

之前的程序流程是借助可预测性和逻辑关系来 *** 作的,比如哪些网页特征是排名元素,每个在搜索算法中占多少权重值。是技术工程师挑出来的,很清楚。虽然在挑的情况下很有可能是拍脑袋决定,但是通过测试实际效果和调整主要参数,还是会达到一个满意的平衡。人工系统软件并不依赖于技术工程师给出的明确因果关系,而是更善于在概率和关联性中寻找联系。对于人们来说,通常很难解释以概率和相关性为特征的判断的原因。比如也许是情感,或者是美不美。

要求AI系统软件解释自己的判断,不仅仅是心理上的问题,也是伦理、法律法规上的问题,比如求医。比如涉及到客户的权益,比如借款,人工智能基于大量的数据信息做出拒绝贷款的决定,但是金融机构无法解释拒绝的原因。他们应该告诉客户什么?2020年,欧盟国家很可能需要实施政策和法规,规定设备做出的决定必须得到解释。这是谷歌和脸书等国际公司的工作压力。很多行业,比如国防、法规、金融行业,都有人负责所有的决策。如果某个决定无法解释,也许就没人敢承担这个义务了。

AI不得不解释原因的另一个原因是,如前所述,人工智能看的是概率和相关性,但看相关性做决策有时会出错。《纽约日报》文章的内容举了一个例子。经过数据和信息训练的人工智能系统软件辅助医院的门诊急诊室。总的来说,实际效果很好,但是科研人员还是怕真的有用。因为数据和信息的关联性,很可能会欺骗人工智能做出不正确的判断。比如,数据信息显示,肺部感染的哮喘患者最终恢复情况好于平均水平,这种相关性确实存在。如果AI系统软件因为这个数据信息,给哮喘合并肺部感染的患者一个较低级别的解决方案,很可能会出大事。因为这些病人最后往往状况良好,一到就给予最高级别,得到最好更快的治疗。所以,有时候我们从关联性中看不到真正的原因。

可解释的人工智能

X.A.I.(可解释 AI)可解释人工智能是一个新近流行的行业,其目的是让AI解释自己的判断、决策和整个过程。去年,Darpa发布了大卫·冈宁博士领导干部XAI计划。谷歌仍然是这个行业的领导者,DeepDream似乎是这些领域科学研究的副产品:

回到搜索算法和SEO,百度搜索引擎往往无法全方位使用人工智能。原因之一可能是人工智能的判断不解释,看不懂。如果把优化算法应用到现在的人工智能上,一旦排名出现异常,技术工程师都不知道是什么原因,更不知道如何调整。

我觉得无人驾驶是AI产品化起步的行业之一,跟能不能解释有关系。无人驾驶汽车的大部分决策都不一定说明,也就是说说明一目了然,前面的车距离太近,需要减速或者踩刹车。这种判断应该没有进一步的解释。

搜索引擎优化专家都有同样的疑虑。竞争对手的网页没有什么独特之处,内容很差,视觉传达设计一般,外部链接一般,页面优化也一般。为什么这么好?现在的搜索算法还是可以研究的,搜索技术工程师有一些内部的专用工具可以看到排名的合理化。如果搜索技术工程师看到一个相当不好的网页排在第一位,却不知道原因,而且还很难验证,心里很可能是焦虑的。

XAI的科研才刚刚开始,这给了SEO们最后的过渡期。从人工智能系统软件在其他行业的主要表现来看,一旦大规模应用于搜索,欺诈和黑帽SEO可能会成为过去,今天的基础SEO工作可能会越来越不值得一提。SEO的人一定要回归网站的本质:展示有效的信息内容或商品并觊觎。

创作者:Zac@SEO一天一贴

版权归:中澳虚拟主机

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zz/763387.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-05-01
下一篇2022-05-01

发表评论

登录后才能评论

评论列表(0条)

    保存