清华紫光ocr(清华紫光集团)

在过去的几年里,人工智能行业无论是算法实现、海量数据采集存储,还是计算能力的体现,都离不开目前唯一的物理基础——芯片。可以说“无芯片无AI”,能否研发出具有超高

在过去的几年里,人工智能行业无论是算法实现、海量数据采集存储,还是计算能力的体现,都离不开目前唯一的物理基础——芯片。可以说“无芯片无AI”,能否研发出具有超高计算能力的芯片,满足市场需求,已经成为人工智能可持续发展的重要因素。年底,AI前线小组盘点了2019年国内外主流科技公司在AI芯片方面的进展。一些公司没有被纳入这一统计,因为它们没有在2019年发布新的AI芯片。统计维度分为三部分:主要特性、芯片参数、应用场景。如有遗漏,欢迎留言。

清华紫光ocr(清华紫光集团)插图

芯片类型

在正式盘点之前,我们先了解一下芯片类型、芯片架构和主要应用场景(注:如果只对盘点数据感兴趣,可以直接跳到文章后半部分)。

从芯片技术类型来看,AI芯片可以分为四类:GPU(图形处理单元)、FPGA(现场可编程门阵列)、ASIC(专用集成电路)和类脑芯片。

其中,GPU和FPGA因为技术成熟,占据了大部分市场份额,目前被英伟达、英特尔、AMD、Xilinx等公司主导。ASIC的发展不容小觑。虽然前期投入成本较高,但ASIC深受各大云厂商(如谷歌的TPU、华为的瑞星、阿里的广广等)的喜爱。)因为平均性能强,功耗低。与这些AI芯片相比,类脑芯片有些特殊。它们颠覆了传统的冯诺依曼架构,主要模拟人脑神经元的结构,如IBM的TrueNorth芯片、清华大学的天球运动等。

运动:清华大学研发的全球首个异质融合脑芯片于今年7月31日登上《自然》杂志封面。芯片采用28纳米工艺制造,整个芯片为3.8倍3.8mm^2.它由156个计算单元(Fcore)组成,包括约4万个神经元和1000万个突触。它可以将人工通用智能的两个主要研究方向,即基于计算机科学和基于神经科学,整合到一个平台中,既可以支持机器学习算法,也可以支持现有的类脑计算算法。

(来源:中国AI芯片产业发展白皮书)

芯片架构

芯片架构,或者说指令集架构,更准确。它是与程序设计相关的计算机体系结构的一部分,包括基本数据类型、指令集、寄存器、寻址模式、存储系统等。说到指令集架构,X86、ARM、RISC-V是必不可少的部分,其中X86占据PC市场,ARM占据移动市场,RISC-V主要应用于物联网市场。

物联网市场是人工智能技术的主要应用场景,因此开源RISC-V指令集架构往往是初创AI芯片公司的重要选项。另外,RISC-V指令集体系结构具有灵活性和可扩展性的特点。基于该架构设计的AI芯片,在固定的AI应用场景下,可以达到理想的能量利用和计算效率。

另外,AI芯片领域的指令集架构与PC上的X86架构和移动上的ARM架构并不相同。即使有RISC-V架构,AI芯片的指令集架构也没有形成统一的形式,各大公司也有自研的AI芯片指令集架构。比如:华为瑞星系列芯片采用的自研CISC指令集架构,寒武纪思源系列芯片采用的MLUv02指令集架构,地平线旭日、征途系列芯片采用的BPU架构,沈剑科技自研的DPU指令集架构...

应用场景

根据部署位置,AI芯片可以分为云端部署和终端部署。其中,部署在云端的AI芯片多指数据中心使用的AI训练芯片和AI推理芯片,部署在终端的AI芯片多指移动终端、自动驾驶、智能家居等边缘终端应用场景使用的AI推理芯片。虽然终端位置由于计算能力的限制不适合AI模型训练,但其碎片化使得终端推理市场前景广阔。

AI芯片应用价值领域分布(来源:中国AI芯片产业发展白皮书)

数据中心(云)

用于数据中心或云训练的AI芯片市场主要以英伟达的GPU为主,ASIC为辅。相对于ASIC的“专用”限制,在目前包括全球前四(AWS、GCP、微软Azure、阿里云)的公有云中,NVIDIA GPU的市场份额占到了97%以上。

虽然目前有三种与AI训练任务相关的解决方案,英伟达的GPU+CUDA计算平台,第三方异构计算平台OpenCL+AMD GPU或OpenCL+Intel /Xilinx FPGA,谷歌的TPU+云TPU平台。但是相比市场份额,生态完善,性价比,大部分企业和开发者都选择英伟达的GPU。

特定AI芯片份额

随着各大公司对云战略的不断加码,以及谷歌TPU成功案例的指导,各大云厂商都开始推出自己的云用AI芯片。比如亚马逊最近发布的用于云推理的推理芯片,华为推出的用于云训练的提升系列芯片,阿里平头哥推出的用于云推理的广广800等等其实云推理的AI芯片市场是一个百家争鸣的局面。像百度、微软、脸书、英特尔等大公司。但所采用的技术类型并不统一。

可移动终端

随着全球智能手机出货量趋于稳定,智能手机厂商开始将AI性能作为竞争的重要因素之一,性能更好的AI芯片成为智能手机厂商实现差异化竞争的标准手段。

华为海思推出的麒麟970是全球首款集成专用神经网络处理单元(NPU)的SoC芯片。随后,苹果公司发布的A系列芯片和高通的骁龙系列芯片也集成了人工智能技术。此后,AI芯片成为智能手机的标准配置,逐渐进入普及阶段。

此外,在移动端,智能手环、VR/AR眼镜等可穿戴设备将是AI芯片的潜在市场。换句话说,AI芯片凭借其在图像和语音方面的快速处理能力,将为人们带来一种全新的人机交互方式。目前很多公司像谷歌、苹果、华为、小米等。都不同程度的进入了可穿戴设备市场,所以AI芯片在移动终端也会被放在非常重要的位置。

智慧安全

人工技术在智慧安防中的应用尤为广泛,尤其是在平安城市和智慧城市建设的带动下,国内安防行业规模不断扩大。在智能安防系统中,AI芯片是不可或缺的。在这方面,大量AI芯片厂商正在涌入,包括寒武纪、地平线等AI芯片的诞生,以及传统安全芯片霸主华为海思的强势进入。

就解决方案而言,智能安防有两个思路,一个是智能前置,一个是智能后置。相应的,AI芯片在安防方面的部署也可以分为前后两种。简单来说,就是利用云推理和终端推理,实现智能分析、图像信号处理等功能。

但出于成本的考虑,目前的安防AI芯片多为终端推理的AI芯片,相关安防芯片厂商会将AI模块集成到摄像头SoC的芯片中,以达到AI技术集成的目的。然而,尽管云推理成本高昂,安全领域的AI芯片也在向“云-边结合”的方向发展。毕竟终端存在计算能力不足、算法要求高、运维困难等缺点。

自驾

对于自动驾驶行业来说,芯片同样重要。除了构建自动驾驶系统,其基于硬件的车轨级AI芯片也不容忽视。换句话说,全栈系统的开发和车规AI芯片的开发是两个行业,目前的车规AI芯片还处于从嵌入式GPU到FPGA和ASIC的过渡阶段。

近两年自动驾驶公司主要通过嵌入式GPU搭建自动驾驶系统,而一些有实力的公司会采用嵌入式GPU+FPGA的深度优化方案。未来自动驾驶芯片可能会逐渐过渡到FPGA+ASIC。总之,自动驾驶技术的发展离不开AI芯片的发展。

今年8月,地平线在世界人工智能大会上发布了中国首款车载AI芯片journey 2.0。借助地平线开发的矩阵自动驾驶计算平台,可以提供192 TOPS的计算能力。除此之外,今年4月,特斯拉还首次公开了他们的全自动驾驶(FSD)芯片。7月,马斯克在推特上表示,将为已购买全自动驾驶功能的用户免费更换FSD芯片;对于自动驾驶的领导者谷歌Waymo来说,它使用的是英伟达和英特尔的FPGA芯片。

2019年国产AI芯片主要厂商盘点阿里巴巴

1.铁铉910

主要特点:玄铁 910 基于 RISC-V 开源架构开发,核心针对高性能计算,是一款 IP core,是一款处理器,也可以理解为是 SoC 里的 CPU。芯片参数:单位性能 7.1 Coremark/MHz,主频在 12nm 工艺下达到 2.5GHz。性能在 Core Mark 跑分数据中达到 7.0,超过第二名 40% 以上,主频功耗仅为 0.2 瓦。玄铁 910 采用 3 发射 8 执行的复杂乱序执行架构,是公开的 RISC-V 处理器中首个实现每周期 2 条内存访问的处理器,对 RISC-V 指令的系统性增强扩展到 50+ 条指令。应用场景:玄铁 910 用于设计制造高性能端上芯片,应用于 5G、人工智能以及自动驾驶等领域。

2,包括灯800

主要特点:含光 800 是一款云端推理用 AI 芯片,可以用于数据中心、边缘服务器和大型端上。芯片参数:含光 800 采用台积电 12nm 制作工艺,在业界标准的 ResNet-50 测试中,推理性能达到 IPS,比目前业界最好的 AI 芯片性能高 4 倍;能效比 500 IPS/W,是第二名的 3.3 倍。应用场景:主要用于云端视觉处理场景,含光 800 已开始应用在阿里巴巴内部核心业务中。拍立淘商品库每天新增 10 亿商品图片,使用传统 GPU 算力识别需要 1 小时,使用含光 800 后可缩减至 5 分钟。在杭州城市大脑的业务测试中,1 颗含光 800 的算力相当于 10 颗 GPU。华为

1.麒麟* * * 9905G

主要特点:麒麟 990 5G 据报道是业界首款商用的 5G SoC,也是目前晶体管数最多、功能最完整、复杂度最高的 5G SoC,是首个采用达芬奇架构 NPU 的旗舰芯片,也是华为昇腾系列芯片在端侧的应用。芯片参数:麒麟 990 5G 采用 7nm+ EUV 工艺制程,首次将 5G Modem 集成到 SoC 上,板级面积相比业界其他方案小 36%,采用两个大核 + 两个中核 + 四个小核的 CPU 架构,支持超过 300 个算子,90% 的视觉计算神经网络,性能表现比同类产品要强 8 倍之多。麒麟 990 5G 也对 GPU 进行了升级,升级到 16 核 GPU Mali-G76。与骁龙 855 相比,图形性能提高 6%,能效高 20%。与前一代相比,视频优化处理能力有了很大提升,ISP 吞吐率提升 15%,能效提升 15%,照片降噪 30%,视频降噪 20%。应用场景:华为今年发布的年度旗舰 5G 手机 Mate 30 系列已经搭载该芯片。

2.瑞星910

主要特点:昇腾 910 是目前已发布的单芯片计算密度最大的 AI 芯片。芯片参数:昇腾 910 是目前为止计算密度最大的单芯片,最大功耗为 350W,半精度为(FP 16)256 Tera FLOPS,比英伟达 V100 的 125 Tera FLOPS 还要高出近 1 倍。若集齐 1024 个昇腾 910,将会出现迄今为止全球最大的 AI 计算集群,性能也将达到 256 个 P,不管多复杂的模型都能轻松训练。在算力方面,昇腾 910 完全达到设计规格,即:半精度 (FP16) 算力达到 256 Tera-FLOPS,整数精度 (INT8) 算力达到 512 Tera-OPS,重要的是,达到规格算力所需功耗仅 310W,明显低于设计规格的 350W。应用场景:华为已经把昇腾 910 用于实际 AI 训练任务,比如在典型的 ResNet50 网络的训练中,昇腾 910 与 MindSpore 配合,与现有主流训练单卡配合 TensorFlow 相比,显示出接近两倍的性能提升。

3.瑞星310

主要特点:昇腾 310 是目前面向计算场景最强算力的 AI SoC。芯片参数:昇腾 310 采用华为自研达芬奇架构,使用了华为自研的高效灵活 CISC 指令集,每个 AI 核心可以在 1 个周期内完成 4096 次 MAC 计算,集成了张量、矢量、标量等多种运算单元,支持多种混合精度计算,支持训练及推理两种场景的数据精度运算。统一架构可以适配多种场景,功耗范围从几十毫瓦到几百瓦,弹性多核堆叠,可在多种场景下提供最优能耗比。应用场景:基于昇腾 310 的 MDC 和很多国内外主流车企在园区巴士、新能源车、自动驾驶等场景已经深入合作。基于昇腾 310,华为云提供了图像分析类服务、OCR 服务、视频智能分析服务等云服务。基于昇腾 310 的 Atlas 系列板卡、服务器,与数十家伙伴在智慧交通、智慧电力等数十个行业落地行业解决方案。百度(全球最大的中文搜索引擎)

昆仑芯片系列

主要特点:昆仑系列芯片基于 XPU 架构设计,包括训练用昆仑 818-300 和推理用昆仑 818-100 两种 AI 芯片。2018 年 7 月,昆仑芯片在百度开发者大会上首次曝光,当时号称业内设计算力最高的 AI 芯片。芯片参数:昆仑芯片采用三星 14nm 制作工艺,支持 PCIe 4.0 x8,并提供 512 GBps 的内存带宽,能够在 150 W 的功率下实现 260 TOPS 的处理能力;它支持针对自然语言处理的预训练模型 Ernie,推理速度比传统 GPU/FPGA 加速模型快 3 倍。应用场景:该款芯片将主要用于云计算和边缘计算,预计在 2020 年初实现量产。随缘科技

加斯DTU

主要特点:邃思 DTU 基于通用 AI 处理器的设计,具备一定的可编程性,是一款云端训练用 AI 芯片。芯片参数:燧思 DTU 采用 12nm FinFET 制作工艺,集成有 141 亿个晶体管,具备 16Gbps 的 PCIe 4.0 接口和 25Gbps 的 ESL 高速互联;支持 CNN、RNN、LSTM、BERT 等网络模型以及 FP32、FP16、BF16、Int8、Int16、Int32 等数据类型,最大功耗为 200W。应用场景:搭载邃思 DTU 的加速板卡云燧 T10 已经可以实现量产,预计 2020 年第一季度上市。据了解,目前燧原科技已经与腾讯针对通用人工智能应用场景的项目开展了密切的合作。寒武纪

1.思源220

主要特点:思元 220 基于寒武纪自研架构 MLUv02 设计,是一款专门用于边缘计算应用场景的 AI 加速产品。芯片参数:思元 220 集成有 4 核 ARM CORTEX A55、LPDDR4x 内存以及丰富的外围接口。用户既可以使用思元 220 作为 AI 加速协处理器,也可以使用其实现 SoC 方案。思元 220 的整体功耗小于 15W ,算力可达 16TOPS(INT8)。应用场景:可用于智慧工厂、智慧零售、无人机、智能机器人等诸多应用场景。

2.思源270

主要特点:思元 270 基于寒武纪自研架构 MLUv02 设计,是一款云端推理用 AI 芯片。芯片参数:思元 270 采用台积电 16nm 制作工艺,性能是上一代 MLU100 的 4 倍,算力达到 128TOPS(INT8);同时兼容 INT4 和 INT16 运算,理论峰值分别达到 256TOPS 和 64TOPS;支持浮点运算和混合精度运算。功耗 70W~150W。应用场景:思元 270 支持视觉、语音、自然语言处理以及传统机器学习等多种人工智能应用,可应用于推荐引擎、NLP、智能视频分析等多种场景。地平线

1.旅程2.0

主要特点:征程 2.0 基于地平线自研架构 BPU2.0 设计,是中国首款车规级 AI 芯片(用于自动驾驶)。芯片参数:征程 2.0 可提供超过 4 TOPS 的等效算力,典型功耗 2W,满足 AEC-Q100 标准,每 TOPS 算力可以处理的帧数是同等算力 GPU 的 10 倍以上,识别精度超过 99%,延迟少于 100 毫秒,多任务模式下可以同时执行超过 60 个分类任务,每秒钟识别目标数可超过 2000 个。应用场景:目前,征程 2.0 芯片已实现量产,将主要应用于自动驾驶领域。据了解,地平线已经获得了五个国家市场客户的前装定点项目。

2.旭日东升2.0

主要特点:旭日 2.0 基于地平线自研架构 BPU2.0 设计,属于终端推理用 AI 芯片。芯片参数:旭日 2.0 分类模型 MobileNet V2 的运行速度超过每秒 700 张图片,检测模型 Yolo V3 的运行速度超过每秒 40 张图片,能够达到甚至超过业内标称 4TOPS 算力的 AI 芯片;最大输入分辨率为 4K@30fps;支持主流外部接口;功耗为 2W。应用场景:旭日 2.0 在边缘端即可实现全视频结构化能力,可以完成 10-30 万人前端识别、密集人群时空属性行为分析、以及多种非机动车 / 机动车检测分类。适用于 AIoT 领域。比奇

TH1520

主要特点:TH1520 是一款聚焦于语音应用场景下的 AI 专用芯片。芯片参数:TH1520 进行了算法硬件优化,基于双 DSP 架构,内部集成 codec 编解码器以及大容量的内置存储单元,同时,TH1520 采用了 AI 指令集扩展和算法硬件加速的方式,使其相较于传统通用芯片具有 10X 以上的效率提升。此外,TH1520 在架构上具有算力及存储资源的灵活性,支持未来算法的升级和扩展。兼具低功耗及实用性,采用多级唤醒模式,内置低功耗 IP,使其在 always-on 监听阶段的功耗低至毫瓦级,典型工作场景功耗仅需几十毫瓦,极端场景峰值功耗不超过百毫瓦。该芯片支持单麦、双麦、线性 4 麦、环形 4 麦、环形 6 麦等全系列麦克风阵列,同时支持 USB/SPI/UART/I2S/I2C/GPIO 等应用接口和多种格式的参考音,能在各类 IOT 产品中灵活部署应用。应用场景:主要面向智能家居、智能终端、车载、手机、可穿戴设备等各类终端设备。易图科技

按图芯片questcore(搜索)

主要特点:据介绍,这是全球首款深度学习云端定制 SoC 芯片,已经实现量产。芯片参数:依图芯片 questcore(求索)基于拥有自主知识产权的 ManyCore 架构,基于领域专用架构(Domain Specific Architecture,DSA)理念。作为云端服务器芯片,它可以独立运行,不依赖 Intel x86 CPU。虽说是为了服务器芯片而生,questcore 既支持云端,也支持边缘。在实际的云端应用场景,依图 questcore 最高能提供每秒 15 TOPS 的视觉推理性能,最大功耗仅 20W,比一个普通的电灯泡还小。集成度高,能高效适配各类深度学习算法,模型兼容性好,可扩展性高,支持 TensorFlow、PyTorch 等各类深度学习框架,无缝接入现有生态。应用场景:专为计算机视觉应用而生,针对视觉领域的不同运算进行加速,适用于人脸识别、车辆检测、视频结构化分析、行人再识别等多种视觉推理任务。瑞新微电子

RK3399Pro

主要特点:RK3399Pro 还内置了性能高达 3.0Tops、融合了瑞芯微 Rockchip 在机器视觉、语音处理、深度学习等领域的多年经验打造的 NPU,让典型深度神经网络 Inception V3、ResNet34、VGG16 等模型在其上的运行效果表现出众,性能大幅提升。芯片参数:RK3399Pro 采用专有 AI 硬件设计,NPU 运算性能高达 3.0Tops,高性能与低功耗指标均大幅领先:相较同类 NPU 芯片性能领先 150%;相较 GPU 作为 AI 运算单元的大型芯片方案,功耗不到其所需的 1%。RK3399Pro 的 NPU 支持 8bit 与 16bit 运算,能够兼容各类 AI 软件框架。现有 AI 接口支持 OpenVX 及 TensorFlowLite/AndroidNN API,AI 软件工具支持对 Caffe/TensorFlow 模型的导入及映射、优化。RK3399Pro 这颗 AI 芯片采用双核 Cortex-A72+ 四核 Cortex-A53 的 big.LITTLE 大小核 CPU 架构,芯片在整体性能、功耗方面具技术领先性。同时,芯片还集成了四核的 ARM 高端 GPU Mali-T860,进一步提升了芯片在图形处理方面的能力。应用场景:主要应用于智能驾驶、图像识别、安防监控、无人机、语音识别等各 AI 应用领域。紫光展锐

胡本T710

主要特点:虎贲 T710 是一个高性能 AI 边缘计算平台。芯片参数:虎贲 T710 采用 8 核 CPU 架构,其中 4 颗为 2.0GHz 的 Arm Cortex-A75,4 颗为 1.8GHz 的 Arm Cortex-A55;并搭载工作频率为 800MHz 的 IMG PowerVR GM 9446 图形处理器(GPU)。除了架构和算力,该芯片能效大于等于 2.5TOPS/W,超过业界平均水平 30%;支持多种 AI 训练框架, 如 TensorFlow、TensorFlow Lite、Caffe 等;支持多种 AI 模型量化方式,包括 INT4、INT8、INT16 和 FP16 等;支持 Android NN,并且提供紫光展锐自研 SDK,使第三方应用程序更高效部署 AI 功能。整合了如 4K@30fps 编解码,802.11AC,BT 5.0 等强大的多媒体能力和先进的无线通信能力。应用场景:为各类 AI 应用提供高效能、低功耗的技术基础。2019年国际人工智能芯片主要厂商盘点美国英特尔公司(财富500强公司之一?以生产CPU芯片著称)

NNP-T和NNP-I

主要特点:NNP 系列芯片主要用于数据中心,NNP-T 属于云端训练用 AI 芯片,NNP-I 则属于云端推理用 AI 芯片。芯片参数:NNP-T 代号 Spring Crest,采用了台积电的 16nm 制作工艺,集成有 270 亿个晶体管,支持 TensorFlow、PaddlePaddle、PyTorch 框架,同时也支持 C++ 深度学习软件库和编译器 nGraph。NNP-T 的工作频率是 1.1GHz,风冷条件下功率配置为 150W 到 250W。NNP-I 代号 Spring Hill,采用了 10nm 的制作工艺,它在 ResNet50 的效率可达 4.8TOPs/W,功率范围在 10W 到 50W 之间。应用场景:据英特尔称,NNP-I 已经被 Facebook 采用;NNP-T 也与百度达成了合作。NNP 系列芯片将主要应用于数据中心。显卡

奥林芯片

主要特点:Orin 是一款用于自动驾驶的系统级 AI 芯片,集成有 170 亿个晶体管,并且达到了 ISO ASIL-D 等系统安全标准。芯片参数:Orin 系统级芯片集成了英伟达新一代 GPU 架构和 Arm Hercules CPU 内核以及全新深度学习和计算机视觉加速器,每秒可运行 200 万亿次计算,几乎是英伟达上一代 Xavier 系统级芯片性能的 7 倍。应用场景:英伟达发布的全新的软件定义自动驾驶平台 DRIVE AGX Orin,内置了全新的 Orin 系统级芯片。亚马孙

推理芯片

主要特点: Inferentia 是一款专用于机器学习推理的 ASIC 芯片,它具有大容量片上内存,可用于缓存大型模型,而无需将它们存储到芯片以外。芯片参数:Inferentia 芯片支持 FP16、BF16 和 INT8 数据类型,算力达 128 TOPS。还支持 TensorFlow、Apache MXNet 和 PyTorch 深度学习框架以及使用 ONNX 格式的模型。与 EC4 上的常规英伟达 G4 实例相比,借助 Inferentia,AWS 可提供更低的延迟和三倍的吞吐量,且每次推理成本降低 40%。应用场景:Inferentia 芯片将主要用于云端推理任务。赛灵斯

Virtex超量程+ VU19P

主要特点:这是一款 FPGA 芯片,考虑到芯片设计背后需要更大容量的 FPGA 实现高效仿真和功能验证,因此也出现在了本次的盘点名单中。芯片参数:VU19P FPGA 采用台积电 16nm 工艺制造(上代为 20nm),基于 ARM 架构,集成了 16 个 Cortex-A9 CPU 核心、893.8 万个系统逻辑单元、2072 个用户 I/O 接口、224Mb(28MB)内存,DDR4 内存带宽最高 1.5Tbps(192GB/s),80 个 28G 收发器带宽最高 4.5Tbps(576GB/s),支持 PCIe 3.0 x16、PCIe 4.0 x8、CCIX。应用场景:主要面向最顶级 ASIC、SoC 芯片的仿真和原型设计,以及测试、测量、计算、网络、航空、国防等应用领域,支持各种复杂的新兴算法,包括人工智能、机器学习、视频处理、传感器融合等。苹果

A13仿生芯片

主要特点:宣称具备智能手机有史以来最好的机器学习性能芯片参数:该款芯片包含 85 亿个晶体管,同时配备有 6 个 CPU 核心:两个运行主频为 2.66 GHz 的高性能核心(称为 Lightning)与四个高能效核心(称为 Thunder)。另外,其还拥有一块四核图形处理器,一个 LTE 调制解调器,一款苹果自主设计的图像处理器,外加一套每秒可运行超过 5 万亿次运算的八核机器智能神经引擎。这款新的芯片体积更小、智能度更高、性能更强,同时又通过某种神奇的方式获得了低于上代方案的功耗水平。事实上,其能效较去年的 A12 芯片提高了约 30%,这也成为新一代 iPhone 实现 5 个小时电池续航提升的重要基础之一。应用场景:iPhone

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。

作者:美站资讯,如若转载,请注明出处:https://www.meizw.com/n/128392.html

发表回复

登录后才能评论