Amazon压缩机器学习模型,要让车载系统离线也能用Alexa
2018-08-15 10:12:43 | 来源:ithome | 投稿:小柯 | 编辑:dations

原标题:Amazon压缩机器学习模型,要让车载系统离线也能用Alexa

Amazon使用了压缩机器学习的新技术,在维持Alexa功能不变的情况下,将记忆体使用率降低94%,而这将能让Alexa在离线状态下,仍可以提供部分核心功能,同时也能加速Amazon云端载入第三方Alexa技能的效率。

Amazon刚释出了用于开发车内讯息娱乐系统的Alexa△SDK(Alexa△Auto△Software△Development△Kit),而这个初版的SDK预设汽车系统可以存取云端系统,以取得机器学习相关功能,但是在未来,Amazon希望支援Alexa的车辆,即便在离线状态,仍可以使用Alexa的部分核心功能。

另外,第三方开发人员为Alexa开发了超过4万5千个技能,而只有当用户明确呼叫该功能时,第三方技能才会被载入到云端记忆体中,这个过程增加了系统回应延迟。因此Amazon将使用压缩机器学习模型的方法,缩减模型使用的硬件资源,以解决离线机器学习的需求,同时加速云端载入第三方技能的速度至毫秒回应时间。

Alexa的自然语言理解系统,在解释自由形式的话语采用了不同的机器学习模型,不过,这些模型都有其共通点,像是会从输入的话语中抓取特征,或是具特定推测价值的字串,Alexa的机器学习模型都常拥有数百万个特征。另一个共通点便是,每个特征都有其权重,用以决定特征在不同类型计算扮演角色的重要程度,而为数百万个特征储存多重权重,这使得机器学习模型占据大量记忆体。

Amazon通过量化权重的方法,缩减储存权重的容量,再加上权重相关特征的特殊映射方法,综合两个压缩演算法,可以让机器学习模型记忆体使用率降低94%,最重要的是还能保持其性能不变。

tags:

上一篇  下一篇

相关:

Nvidia十年打造全新GPU设计Turing架构,推出第一款光线追踪GPU,瞄准VR趋势要让即时成像更真实

全球最大的电脑图学和互动技术大会SIGGRAPH2018年度大会今年三度在温哥华举行,GPU技术龙头Nvidia执行长黄仁勋在SIGGRAPH第二天也举办了一场新产品和技术发表会,正式发表了Nvidia第8代新GPU架构Turing(图灵),也推

机器人权威Hod Lipson:AI将赋予机器人感情和自我意识

图片来源: 摄影/王若朴 有机器人权威之称的哥伦比亚大学工程与资料科学教授Hod△Lipson,也是该校创意机器人实验室总监,一直致力于打造具自我意识、能自我复制的机器人。日前他应科技部邀请来台担任TTA奇点亚太创业

法遵科技在地化,工研院串接法报平台训练AI,要让各金融机关在法遵管理上更为快速

工研院资讯与通讯研究所,负责金融与监理科技应用研发的王庆尧博士,在资讯通日上揭露工研院在法遵科技的进程。 图片来源: 摄影 / 李静宜 金融法规变动快速,全球金融机构业者,为了因应各国法遵要求,在法遵、治

【DEF CON 18】:靠机器学习就能准确分辨程式出自何人之手

图片来源: Def△Con 美国卓克索大学(Drexel△University)电脑科学系副教授Rachel△Greenstadt与乔治华盛顿大学(George△Washington△University)电脑科学系助理教授Aylin△Caliskan上周在Def△Con骇客大会上公布

铜锣湾时代广场 GUNDAM DOCKS HK III 香港会场+日本台场限定模型 | 香港 UNWIRE.HK 玩生活.乐科技

由 Bandai 直接举办的大型高达展“GUNDAM DOCKS AT HONG KONG III”重临香港,将会在 8 月 11 日起在铜锣湾时代广场举行。此次展览将展出全球最大的“机动战士高达马沙之反击”6米 RX-93 Nu 高达 (地球联邦军) 及MSN

站长推荐: