它使用自己的数据来训练自己的算法;这些算法在部署在自己的云上的自己的芯片上运行;然后开发了自己的应用程序。 在谷歌的生产工作负载(占数据中心 NN 推理需求的 95%)中,TPU v1 的速度比同期的 Intel Haswell CPU 和英伟达 K80 GPU 快 15 至 30 倍。 更重要的是,Pod 的规模扩大了 4 倍,达到 1024 个芯片,使每个 Pod 的性能增加了 8 倍。
Published at: 2025-11-11 09:31:24
Still want to read the full version? Full article