网站首页
产品中心
显卡平台系列
服务器系列
配件系列
电源系列
矿机
冷却系统
关于我们
公司简介
新闻资讯
软件技术
服务条款
隐私政策
联系我们
联系方式
在线留言
城市分站
中文版
English
公司新闻
行业新闻
AI芯片特性及对比
目前,智能驾驶领域在处理深度学习AI算法方面,主要采用GPU、FPGA 等适合并行计算的通用芯片来实现加速。同时有部分芯片企业开始设计专门用于AI算法的ASIC专用芯片,比如谷歌TPU、地平线BPU等。在智能驾驶产业应用没有大规模兴起和批量投放之前,使用GPU、FPGA等已有的通用芯片可以避免专门研发定制芯片(ASIC)的高投入和高风险,但是,由于这类通用芯片设计初衷并非专门针对深度学习,因而存在性能不足、功耗过高等方面的问题。这些问题随着自动驾驶行业应用规模的扩大将会日益突出。
15
2021
/
09
为何GPU可以用于加速人工智能或者机器学习的计算速度(并行计算能力)
电脑显示器上显示的图像,在显示在显示器上之前,要经过一些列处理,这个过程有个专有的名词叫“渲染”。以前的计算机上没有GPU,渲染就是CPU负责的。渲染是个什么操作呢,其实就是做了一系列图形的计算,但这些计算往往非常耗时,占用了CPU的一大部分时间。而CPU还要处理计算机器许多其他任务。因此就专门针对图形处理的这些操作设计了一种处理器,也就是GPU。这样CPU就可以从繁重的图形计算中解脱出来。
什么样的 GPU 才是人工智能训练的最佳选择?
众所周知,当今业界领先(State-of-the-art)的深度学习模型都会占用巨大的显存空间,很多过去性能算得上强劲的 GPU,现在可能稍显内存不足。探讨了哪些GPU可以在不出现内存错误的情况下训练模型,这些显卡更适合个人电脑和小型工作站。该篇文章的核心结论是,显存大小非常重要。是的,显存大小正在制约着很多深度学习模型的训练。
AI做显卡、显卡跑AI!英伟达实现芯片设计自循环?
Dally在2022年的GTC演讲中描述道:「我们的设计团队是一个约有300人的小组,试图在英伟达的产品设计上探索更有前瞻性的领先位置。我们有点像远光灯,试图照亮远处的东西。这个团队被松散地组织成两半。
什么是EpiK Protocol铭识协议?
2012 年,谷歌 Knowledge Graph 产品初步成形,开启了知识图谱时代。到现在,知识图谱已经被广泛应用在自然语言处理的各项任务中,如金融、电商、医疗、政务等众多领域的信息搜索、自动问答、决策分析等。
全局搜索