当地时间周二(4月4日),谷歌公布了其用于训练人工智能(AI)模型的超级计算机的最新细节。该公司称,这些系统比英伟达公司的同期系统更快、更节能。
目前,谷歌公司90%以上的AI训练工作都是通过谷歌自主研制的TPU芯片(Tensor Processing Unit)完成的。其AI训练的过程是:通过给模型输入数据,使其能够用类似人类的文本回应、并具备生成图像等功能。
现谷歌TPU芯片已经出到第四代(TPU v4)了。谷歌公司周二发布的一篇论文详细阐述了,该公司是如何利用自己定制的光开关将4000多个芯片组合到一台超级计算机中,从而帮助连接一台台独立机器。
改善芯片间的连接
随着OpenAI的ChatGPT、谷歌的Bard等AI聊天机器人的竞争愈演愈烈,改善芯片间的连接已成为开发AI超算的科技公司的一个关键竞争点。
由于ChatGPT、Bard等产品背后使用的大型语言模型的规模太庞大了,无法存储在单一芯片上。所以,这些模型必须分散在数千个芯片上,然后这些芯片必须同时工作,花费数周或更长时间来训练语言模型。
谷歌的PaLM是该公司迄今为止公开披露的最大的语言模型。其训练方式是:通过将其分配到两台各包含4000个芯片的超级计算机中,历时50天进行训练。
谷歌周二称,其超级计算机可以很轻松地在运行过程中重新配置芯片之间的连接,有助于避免问题并调整性能。
该公司的研究员Norm Jouppi和工程师David Patterson在上述论文中写道,“电路切换可以很容易地绕过故障组件…这种灵活性甚至允许我们改变超级计算机互连的拓扑结构,以加速机器学习模型的性能。”
研发新版本
虽然谷歌直到现在才披露关于其超级计算机的详细信息,不过事实上,自2020年以来,该系统已经在公司内部上线,应用于该公司位于俄克拉荷马州的一个数据中心。
据悉,初创公司Midjourney使用该系统来训练其模型,在输入几句文字后,模型就会生成新的图像。
谷歌在论文中还写道,相比于与TPU v4同时发布的英伟达A100芯片,其芯片速度高达A100的1.7倍,能耗效率是A100的1.9倍。
不过谷歌也承认,并没有将TPU v4与英伟达目前的H100芯片进行比较。给出的理由是:H100上市时间晚于谷歌芯片,并且采用了更新的技术。
此外,谷歌还暗示,正在研发一种新版本TPU,以期与英伟达H100芯片竞争,但没有提供细节。
消息,美联储委员会已终止对瑞银和瑞士信贷于2023年与Archegos交易相关的执法行动。...
2 伊朗战争冲击供应,美国炼油厂加速满负消息,由于伊朗战争切断了波斯湾的能源供应,美国炼油商正在加紧生产燃料,以填补汽油、...
3 印度与阿联酋合作扩大战略原油与天然气消息,印度将与阿联酋合作扩大战略原油与天然气储备,这是全球第三大石油消费国为应对未...
4 OneStream扩大与微软战略合作,推广人工智消息,金融软件提供商OneStream宣布扩大与微软的战略合作伙伴关系,以在首席财务官办公室内...
5 0x0ddf...a902:BTC空单浮亏收窄至1167.59万美消息,地址pension-USDT.ETH的BTC空单浮亏已从1387.79万美元收窄至1167.59万美元。该地址的均价为6...
6 最新行情晚报:BTC比特币价格跌破80000美XBIT Wallet数据来源,比特币BTC今日行情消息,BTC比特币最新价格:$79992.84000000,24小时涨0.06%,...
7 加密协议总收入达55亿美元,同比增长1消息,据数据,目前加密协议总收入为每年55亿美元,同比增长10%。在过去一年中,新的创收类...
8 伊朗外长:霍尔木兹海峡仍对友好国家商伊朗外长阿拉格齐15日在印度新德里举行的新闻发布会上表示,霍尔木兹海峡仍对友好国家商业...
9 Thorchain遭黑客攻击,损失超1000万美元消息,Thorchain在比特币、以太坊、BSC和Base上遭到黑客攻击,损失超过1000万美元,具体情况由分...
10 Notion发布开发者平台,支持后端集成与数消息,Notion发布了开发者平台,开始将工作区从知识库前端向企业内部集成平台延伸。新平台...
成都来彰科技 蜀ICP备2025134723号-1
资讯来源互联网,如有版权问题请联系管理员删除。