<?xml version="1.0" encoding="UTF-8"?><!DOCTYPE wml PUBLIC "-//WAPFORUM//DTD WML 1.1//EN" "http://www.wapforum.org/DTD/wml_1.1.xml">
<wml>
<head> 
<meta http-equiv="Expires" content="0"/> 
<meta http-equiv="Cache-Control" content="no-cache"/> 
<meta http-equiv="Pragma" content="no-cache"/> 
</head>
<card title="机器学习还能产生“偏见”？谷歌实验室为你解密_砍柴网">
	<p><a href="https://wap.ikanchai.com/">首页</a> &gt; <a href="https://wap.ikanchai.com/?action=category&amp;catid=5">科技快报</a> &gt; <a href="https://wap.ikanchai.com/?action=category&amp;catid=16">业界</a> &gt; </p>
	<p align="center"><big>机器学习还能产生“偏见”？谷歌实验室为你解密</big></p>
	<p align="right">2016-10-09 14:13</p>
	<p>（原标题：谷歌实验室告诉你，拿什么去拯救机器学习产生的&ldquo;偏见&rdquo;？）<br />
机器学习也会对数据产生&ldquo;偏见&rdquo;，从而导致错误的预测。我们该如何解决这一问题？ Google的新论文或许会揭晓答案。<br />
<p align="center"><img src="http://upload.ikanchai.com/2016/1009/1475993587175.jpeg" /></p><br />
机器学习中的机会均等<br />
随着机器学习计算稳步发展，越来越多人开始关注其对于社会的影响。机器学习的成功分支之一是监督学习。有着足够的历史遗留数据和计算资源，学习算法预测未来事件的效果往往令人震惊。以一个假设为例，算法可以被用来高精度预测谁将会偿还他们的贷款。贷款人可能会使用这样的预测，以帮忙决定谁应该首先得到贷款。基于机器学习做出的决定，其实用性往往令人难以置信，并对我们的生活产生了深远的影响。<br />
然而，最好的预测也可能出错。尽管机器学习致力于最小化出错的可能性，但我们该如何防止某些组非均匀的共享这些错误？考虑到一些情况下，我们拥有的数据相对较少，且其特征不同于那些与预测任务相关的大众方法。由于预测精度一般与训练的数据量息息相关，一些组中的错误预测将会更加常见。例如，尽管他们偿还了贷款，预测最后也可能将过多的个体标记到&ldquo;高违约风险&rdquo;组中。当组中的成员恰逢一个敏感属性，如种族、性别、残疾、或宗教时，便会导致不公正的或有偏见的结果。<br />
尽管需要，但机器学习中一直缺乏防止这类歧视，且基于敏感属性的审核方法。有一种憨厚的方法是在做任何其他事之前，从数据中删除一组敏感属性。其想法是一种&ldquo;无意识的不公平&rdquo;，然而，由于存在&ldquo;冗余编码&rdquo;也未能成功。即使在数据中不存在某个特定的属性，其他属性的组合也可以作为代理。<br />
另一个普用方法被称之为&ldquo;统计平价&rdquo;，其要求预测必须与敏感属性无关。这直观上听起来是可取的，但结果本身往往与敏感属性相关。例如，男性心脏衰竭的发病率通常比女性更高。当预测这样的医疗情况时，要阻断预测结果和组成员之间的一切相关性，既不现实，也不可取。<br />
<p align="center"><img src="http://upload.ikanchai.com/2016/1009/1475993587575.jpeg" /></p><br />
机会平等<br />
考虑到这些概念上的困难，我们已经提出了一种方法，用于测量和防止基于一系列敏感属性所产生的歧视。我们还展示了如何调整一个给定的预测，需要的话，它可以更好的权衡分类精度和非歧视。<br />
我们想法的核心是，符合理想结果的个体，应因此而拥有平等正确分类的机会。在我们虚构的贷款例子中，它意味着预测&ldquo;低风险&rdquo;会实际偿还贷款的人不应该依赖于敏感属性，如种族或性别。我们称之为监督学习中的机会均等。<br />
实施时，我们的框架还改善了激励机制，将差预测的成本从个人转移到决策者，它可以通过投资提高预测精度以进行响应。完美的预测总能满足我们的概念，这表明建立更精准预测的中心目标与避免歧视的目标一致。<br />
为了方便你自己探索博客文章中的想法，我们的Big Picture团队创造了一个美妙的互动，以视觉化不同的概念和权衡。所以，你可以访问他们的主页了解更多相关资讯。一旦你浏览了演示，请查看论文的完整版，它由得克萨斯大学奥斯汀分校的Eric Price和芝加哥TTI的Nati Srebro共同完成。今年，我们会在巴塞罗召开的神经信息处理系统（NIPS）会议上提交该论文。所以，如果你在附近的话，一定要停下脚步和我们中的一员聊聊天。<br />
我们的论文决不是该重要且复杂话题的终点。它加入了一个正在进行的多学科研究对谈话。我们希望可以鼓舞未来的研究，进一步讨论可实现的方法，以权衡环境歧视和机器学习，并开发有助于从业者应对这些挑战的工具。<br />
<p align="center"><img src="http://upload.ikanchai.com/2016/1009/1475993587141.jpeg" /></p><br />
【来源：雷锋网】&nbsp;&nbsp;<br /></p>
		<p><a href="https://wap.ikanchai.com/?action=comment&amp;contentid=100601">共有评论0条</a></p>
	<p>
	<p>相关推荐</p>
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=151109">吴恩达离开百度，去干嘛了？答案已经揭晓</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=132614">用深度学习推断犯罪分子？AI技术应用领域都有哪些？</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=123823">机器学习+社交网络:你的很多小秘密就被读出来了</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=122782">机器学习在物联网中有何应用？首先要搞清楚它和数据分析的区别</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=119668">人工智能还会卖菜，估值超百亿，这家零售界的Uber是如何颠覆你的菜篮子的！</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=90646">DeepMind帮节省数亿美元电费！谷歌收购回本了</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=86523">谷歌转型：把2.5万工程师变成机器学习专家是怎样的体验？</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=12691">为“中国大脑”点赞，人工智能应获国家支持</a><br />
		</p>
<p><anchor title="返回"><prev/>&lt;返回</anchor><br /><br /><a href="https://wap.ikanchai.com/" title="返回首页">&lt;返回首页</a></p>
<p align="center">Copyright CmsTop.com<br />2026年04月14日 08:25:37</p></card>
</wml>