<?xml version="1.0" encoding="UTF-8"?><!DOCTYPE wml PUBLIC "-//WAPFORUM//DTD WML 1.1//EN" "http://www.wapforum.org/DTD/wml_1.1.xml">
<wml>
<head> 
<meta http-equiv="Expires" content="0"/> 
<meta http-equiv="Cache-Control" content="no-cache"/> 
<meta http-equiv="Pragma" content="no-cache"/> 
</head>
<card title="亚马逊云科技re:Invent 2024中国行：立足实用型AI，抓住不同场景需求_砍柴网">
	<p><a href="https://wap.ikanchai.com/">首页</a> &gt; <a href="https://wap.ikanchai.com/?action=category&amp;catid=5">科技快报</a> &gt; <a href="https://wap.ikanchai.com/?action=category&amp;catid=16">业界</a> &gt; </p>
	<p align="center"><big>亚马逊云科技re:Invent 2024中国行：立足实用型AI，抓住不同场景需求</big></p>
	<p align="right">2024-12-24 15:32</p>
	<p>从实用型AI（人工智能）出发，亚马逊云科技在激烈的AI竞赛中走出了属于自己的道路。<br />
12月19日，亚马逊云科技re:Invent recap上海站举办，亚马逊云科技大中华区解决方案架构总经理代闻详细介绍了亚马逊近日在re:Invent大会上推出的一系列技术发布，涵盖生成式AI、数据战略和云服务三大领域，包括全新自研大模型Amazon Nova系列和由亚马逊芯片Trainium2提供支持的计算实例。<br />
<p align="center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1224%2Fa4facaf0j00sozji3005pd001z501bgc.jpg&amp;thumbnail=660x2147483647&amp;quality=80&amp;type=jpg" /></p><br />
据介绍，re:Invent大会至今已有13年历史，今年有6万人齐聚美国拉斯维加斯会场，全球有超过40万人在线观看。而亚马逊云科技也抓住了这次机会，在现场推出了覆盖基础设施、模型和应用的全栈联动创新，并宣布与AI初创企业Anthropic和苹果公司加深合作关系。<br />
&ldquo;没有一个模型能够适用于所有场景&rdquo;<br />
在一系列新产品中，亚马逊新一代基础模型Amazon Nova系列备受瞩目。作为系列模型，Amazon Nova没有局限于一种具体类型，而是通过丰富的类型来满足不同场景的需求。该系列包括六种型号，从纯文本模型Micro、低成本多模态模型Lite、高性能多模态模型Pro到预计于2025年第一季度推出的Premier，以及两款尚未确定发布时间的更先进模型Canvas和Reel。<br />
更重要的是，Amazon Nova系列代表了亚马逊对AI发展趋势和用户痛点的理解。亚马逊CEO Andy Jassy在发布Amazon Nova时提出了&ldquo;Practical AI（实用型AI）&rdquo;的概念，认为在当前的发展阶段，没有一个模型能够适用于所有场景。代闻在演讲中也谈到，Amazon Nova的定位正是在于&ldquo;实用型 AI&rdquo;，亚马逊致力于&ldquo;为用户提供更具性价比和实用价值的选择，而非仅仅追求在打榜或公开数据测试中的表现&rdquo;。<br />
从实用角度出发，Amazon Nova大幅降低基础模型成本。在各自智能类别中，Amazon Nova Micro、Lite和Pro应用成本比Amazon Bedrock中表现最佳的模型至少降低75%，同时也是Amazon Bedrock中对应类别速度最快的模型。<br />
在采访中，代闻表示，亚马逊云科技在发布产品以及进行定价时，着眼点都是在于用户：&ldquo;因为我们是全球领先的云服务商，有着足够多的用户。所以，在打造一款产品时，很多情况下是已经有一部分用户存在相应需求，我们的定价也是面向这部分用户。&rdquo;<br />
代文表示，以Amazon Nova里的Micro模型为例，作为专用于文本到文本转换的模型，亚马逊方面在定价时会思考该模型有哪些增值点、或是能够服务到客户的点，然后在模型的各方面进行取舍：&ldquo;我们察觉到，有些客户确实只需要一个纯文本的模型，那在模型的打造上，我们就要去想办法实现更极致的性价比，以及更低的延迟。&rdquo;<br />
出于类似的考虑，亚马逊着重加强了文生图模型Amazon Nova Canvas生成高清小照片以及为图片添加水印的能力。代闻表示：&ldquo;我们不认为Amazon Nova能够解决所有问题。所以Amazon Nova在诞生之时，其不同模型的能力和价格定位，实际上是针对实际用户在不同场景下的需求呼声，进而打造出的不同定位的模型。&rdquo;<br />
以&ldquo;逆向工作法&rdquo;作为核心的软件开发逻辑<br />
此外，亚马逊还展现了其在AI领域更大的发展目标。在Amazon Nova系列之外，亚马逊预告称将在2025年第二季度发布一款&ldquo;语音转语音&rdquo;模型，以及一款&ldquo;任意转任意（Any to Any）&rdquo;多模态模型，将能够处理文本、图像、音频和视频作为输入和输出。<br />
代闻表示，亚马逊云科技从2006年3月14号推出第一款产品起，发展到如今拥有超过240项全功能的服务，以&ldquo;逆向工作法&rdquo;作为核心的软件开发逻辑，即&ldquo;只有客户有需求了，亚马逊才会去进行相应开发，不会闭门造车&rdquo;。同时，亚马逊云科技会分析客户问题背后的根本原因，进而开展创新，呈现出&ldquo;矩阵式、全栈式的创新形态&rdquo;。<br />
作为今年AI领域的一大热词，&ldquo;Agent（智能体）&rdquo;也是亚马逊云科技十分重视的一个概念。在re:Invent大会上，亚马逊生成式AI服务Amazon Bedrock发布了多智能体协作功能，用户可以使用自然语言描述需求，通过Amazon Bedrock快速创建agent来处理订单、财务报告、留存等任务。同时，亚马逊云科技为生成式AI软件助手Amazon Q推出了三款自动化智能体。<br />
代闻表示，随着智能体技术的日新月异以及其种类的日益繁多，意味着用户必须依据不同的应用场景，灵活选用不同的模型，&ldquo;在多模型统筹管理之下，为不同的智能体精准赋能&rdquo;。亚马逊云科技察觉到，&ldquo;让多个智能体实现更高效的交互协作&rdquo;是当下极为强劲的市场需求，所以针对性地推出了这方面的特性或全新功能。<br />
本次大会上，Amazon Bedrock的另一项更新也获得了AI从业者的关注。据介绍，这项名为&ldquo;自动化推理检查（automated reasoning check）&rdquo;的功能能够通过数学验证，帮助解决困扰大模型已久的&ldquo;幻觉&rdquo;问题，也就是模型输出与实际情况不符的情况。<br />
具体来看，用户可以在策略中定义规则，利用该技术检测并纠正模型幻觉。一旦模型出现&ldquo;幻觉&rdquo;迹象，便能迅速精准识别，并及时启动二次处理流程。代闻指出，这一举措堪称推动模型输出走向生产的关键&ldquo;利器&rdquo;。<br />
【来源：澎湃新闻】<br /></p>
		<p><a href="https://wap.ikanchai.com/?action=comment&amp;contentid=611858">共有评论0条</a></p>
	<p>
	<p>相关推荐</p>
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=644608">亚马逊云科技推出三款AI智能体，Kiro可连续自主编程数日</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=588878">亚马逊云科技:行业应用是AIGC最大价值的方向</a><br />
		<a href="https://wap.ikanchai.com/?action=show&amp;contentid=470955">亚马逊云科技：新的量子处理单元正式可用</a><br />
		</p>
<p><anchor title="返回"><prev/>&lt;返回</anchor><br /><br /><a href="https://wap.ikanchai.com/" title="返回首页">&lt;返回首页</a></p>
<p align="center">Copyright CmsTop.com<br />2026年04月20日 06:44:24</p></card>
</wml>