结论与延伸阅读

Part 11 of How To Scale Your Model (第10部分:JAX | 第12部分:GPU)

感谢阅读!这里我们将包含一些进一步学习的参考资料。

感谢阅读这组文章,恭喜你一直读到了最后。 在我们结束之前,有一些致谢:

致谢

本文档代表了 Google DeepMind 许多人的重大集体投入,我们想简要致谢!

我们还要感谢许多在整个过程中提供关键反馈的其他人,特别是 Zak Stone、Nikhil Sethi、Caitlin Stanton、Alek Dimitriev、Sridhar Lakshmanamurthy、Albert Magyar、Diwakar Gupta、Jeff Dean、Corry Wang、Matt Johnson、Peter Hawkins 等人。感谢 Ruiqi Gao 帮助完成 HTML 格式化。

感谢大家!

在你离开之前,你可能也会喜欢阅读关于 NVIDIA GPU 的新第12章

延伸阅读

有很多相关的文章,包括以下内容:

这个领域仍然有很大的空间进行全面的写作,所以 我们希望这份手稿能鼓励更多这样的工作!我们也相信 这是一个值得研究和探索的富有成效的领域。在许多情况下,即使 手头没有很多硬件加速器也可以进行这项工作。

反馈

请留下评论或问题,以便我们进一步改进。你可以通过以下方式联系我们的通讯作者 Jacob Austin: jacobaustin123 [at] gmail [dot] com,或者在 GitHub 上发布 issue、pull request 或讨论来建议编辑。

Miscellaneous

*Work done at Google DeepMind, now at MatX.

Citation

For attribution in academic contexts, please cite this work as:

    Austin et al., "How to Scale Your Model", Google DeepMind, online, 2025.

or as a BibTeX entry:

    @article{scaling-book,
      title = {How to Scale Your Model},
      author = {Austin, Jacob and Douglas, Sholto and Frostig, Roy and Levskaya, Anselm and Chen, Charlie and Vikram, Sharad
      and Lebron, Federico and Choy, Peter and Ramasesh, Vinay and Webson, Albert and Pope, Reiner},
      publisher = {Google DeepMind},
      howpublished = {Online},
      note = {Retrieved from https://jax-ml.github.io/scaling-book/},
      year = {2025}
    }