活中变得越来越集成和重要,对人工智能研究和产品产生了持续的需求。NeurIS会议是人工智能研究人员和工程师最大的年度聚会,是分享新发现、合作和推动人工智能行业向前发展的好时机。无论您是参加今年的NeurIS会议,还是只是想了解QualommAIResear的最新成果,请继续阅读以了解我们最新的论文、演示、会议和其他AI亮点。在像NeurIS这样的学术会议上,新颖的论文是向社区其他成员贡献创新和有影响力的人工智能研究的主要方式。我想重点介绍两篇已接受的论文,它们分别推动了我们在几何卷积神经网络(NN)和贝叶斯深度学习方面的工作同质空间上的等变NN的一般理论和使用图笛卡尔积的组合贝叶斯优化。
这两篇论文是与阿姆斯特丹大学、QUVA实验室由QualommenologiesIn共同资助以及IFAR和SL实验室研究小组合作撰写的。今年,您可以在号展位找到我们,我们将通过现场演示将人工智能研究变为现实。一些令人兴奋的演示供您查看,包括AI模型量 马其顿 电话号码 化神经网络模型可能非常庞大且计算密集,这使得它们在终端设备上运行具有挑战性。将位浮点模型简单量化为位可能会导致精度损失。高通人工智能研究中心开发了可以量化模型的技术,无需数据集或重新训练,但可以保持模型的准确性。我们的并排演示展示了我们的量化技术在实时语义分割方面的优势——产生更好的分割结果,与传统技术的量化相比,这些结果更可靠、更完整。一般来说,我们发现QualommexagonDS上的量化位模型的执行速度比QualommKryoU上的位浮点模型快到倍。

工具包演示为了让人工智能无处不在,业界需要能够最大限度地降低复杂性并允许开发人员轻松开发和优化人工智能应用程序的工具。为了使我们的研究产生最大影响,我们将其商业化,通过软件工具快速提供,使应用程序能够在数十亿高通支持的人工智能设备上更高效地运行。借助最近在年高通骁龙技术峰会上发布的高通AI模型效率工具包,我们正在各种AI模型上现场演示量化。该工具包集成了我们最新的量化研究,以便开发人员可以轻松自动缩小其AI模型,以提高性能和功效,而无需牺牲准确性。AI模型编译利用AI硬件加速是实现峰值性能和功效的关键。编译器负责将高级编程语言调度并映射到在硬件上运行的低级指令。对于许多复杂的AI模型来说,手动调整是不可行的,因此我们开发了一个编译器框架,该框架使用强化学习、VM编译器和exagonNN来自动化该过程,并将AI模型有效地映射到我们的硬件。