不一定要从零开始才有大的模型!
日期:2023-07-12 14:41:24 / 人气:320
WAIC2023镇馆之宝亚马逊基岩详解《作者:郝俊辉来源:IT时报》
基岩(基岩),在地理学上,是地表坚硬的岩层,难以开采;在我的世界里,是最基本的方块,不能破坏。在2023世界人工智能大会(WAIC2023)上,是亚马逊云技术带来的镇馆之宝——基础大模型云服务。
今年4月发布的Amazon基岩是亚马逊云技术在生成式AI领域的重要布局。之所以称之为“云服务”不仅仅是“大模型”,是因为它不仅提供了亚马逊云技术的自有模型Amazon Titan,还提供了对创业公司基本模型服务的访问,如AI21 Labs、Anthropic和Stability AI。其核心功能是帮助开发者轻松定制模型,构建自己的生成式AI应用。
在不久前举行的WAIC2023上,亚马逊云技术生成式AI产品研究院院长雪莉·马库斯(Sherry Marcus)向中国用户解释了亚马逊基岩。
“大模范家庭”小组服务
“大多数客户不需要从头开始训练他们的模型。”对于大模型的应用场景,Sherry Marcus认为我们不能依赖一个通用的、单一的大语言模型来处理各种任务。“正确的做法是,客户可以访问多个模型,然后根据自己的需求和数据定制自己的模型。”
用户进入亚马逊基岩官网,可能只需要点击几下,就能找到适合自己的模型服务。
首先是选择基本型号。亚马逊基岩提供了一个“大模型家族”,为客户提供已经训练好的预训练模型。
其中,亚马逊Titan系列的基本型号有Titan Text和Titan Embeddings S,Titan Text可以从简单的自然语言命令生成文本,适用于撰写博客、电子邮件、文档摘要、开放式问答和信息抽取等多种应用。Titan嵌入可以为搜索、异常检测和个性化等应用生成文本嵌入。
当然也可以选择其他公司预训的大模型。AI21 Labs是多语言大语言模型,用于对话、问答和工作流自动化。稳定扩散是《文生图》的顶流,虚拟人像质量堪比高清相机。
选好基本款后,就进入微调阶段。只要向模型发送提示词,亚马逊基岩就会自动部署基础模型进行推理。
“客户可以根据自己的需求,在大语言模型的基础上建立专门的或专门化的模型,使用自己的数据,这样既可以享受大模型的丰富,又可以体验小模型带来的快速迭代。”雪莉·马库斯(Sherry Marcus)解释说,通过微调,客户可以最大限度地提高特定任务的准确性,仅使用20个样本标签就可以达到任务的准确性。相比基础款,这些定制款风格各异,更适合银行、出行、医疗等消费场景。
“芯片家族桶”解决计算能力问题
ChatGPT是全球云服务提供商的新“游戏”。“Changer”(规则制定者),提供基于基础模型云服务的Maas(大模型即服务),无疑将是云商下半场的主要战术。
目前,除了亚马逊云技术之外,华为云、腾讯云等国内云厂商都提出为客户提供“大模型超市”,而商汤、科大讯飞等自主计算能力较强的AI公司很有可能分一杯羹。
在这场由AIGC引发的创新浪潮中,计算能力将是关键的赢家,不仅是稀缺的计算能力资源,还有高度灵活的计算供电能力。
WAIC 2023前一周,亚马逊云技术中国峰会落幕。当时,亚马逊云技术大中华区产品部总经理陈展示了一张亚马逊自研芯片的全家福:作为亚马逊云技术的首款自研芯片,亚马逊Nitro实现了高度轻量化的虚拟化,而基于ARM架构的CPU芯片亚马逊Graviton可以将一级方程式赛车的开发速度提升70%。
当然,用于机器学习训练和推理的芯片Amazon Trainium和Amazon Inferentia更受关注。据陈介绍,基于Trainium的Trn1实例与通用GPU实例相比,训练吞吐量可提升1.2倍,多节点集群吞吐量可提升1.5倍。考虑到成本,单个节点成本可以降低1.8倍,集群成本可以降低2.3倍。
对于需要集群训练的大型模型,亚马逊可以用3万个Trainium芯片构建一个EC2 UltraCluster,让用户在云上获得6 EFlops(每秒100亿次浮点运算)的训练超级计算能力。
ChatGPT带来的英伟达浪潮,让世人的目光聚焦在A100、H100等明星芯片上。然而,在实际应用中,推理芯片才是“金兽”。原因很简单。培训往往只是阶段性服务,而推理是7×24在线不间断服务。对于客户来说,推理芯片的吞吐量、延迟和成本非常重要。
陈举例说,英飞凌2在服务稳定扩散2.1时可以节省50%的成本,而提供视频剪辑的另一家“人气炸鸡”Runway通过英飞凌2的吞吐量是前者的两倍。雪莉·马库斯(Sherry Marcus)透露,通过Trainium和推论,推理的性价比提高了40%,数据吞吐量提高了4倍。
通过亚马逊基岩提供基础大规模模型服务和自研芯片保证计算能力,亚马逊云技术试图以低成本、加速的方式解答更多人对AI创新的困惑。
“重塑”成千上万个行业
“基础模式潜力巨大,但我们仍处于初级阶段。”亚马逊云技术负责数据库、数据分析和机器学习的全球副总裁Swami Sivasubramanian此前曾表示,基础模型的多样化将推动新一轮创新浪潮。
这一波虽然只“涨”了8个月,但是一头扎进去的云服务商、AI服务商、企业客户已经看到了红利。亚马逊云技术在金融、医疗、外贸、医药等行业都有合作案例。
在医疗和生命科学领域,生成性AI将对药学、临床试验和医疗实践等整个价值链产生巨大影响,包括设计和合成新的蛋白质序列,预测药物效果和副作用,识别患者风险因素,提供个性化护理方法,甚至综合患者和医疗数据进行模拟研究。
亚马逊云技术大中华区机器学习产品总监张洋介绍,飞利浦医疗与亚马逊云技术合作,在云端部署飞利浦HealthSuite影像平台的服务,通过使用基于亚马逊基岩的基础模型,加速开发基于云计算的生成式人工智能应用,提供临床决策支持,实现更精准的诊断。在中国,也有医疗客户已经在使用稳定扩散来帮助生成大分子。
DSP在跨界广告和互联网广告方面也有过类似的案例。张洋以眼镜销售为例。以前智能做一个眼镜的广告,只需要一副眼镜或者一个模特去拍摄,需要花费大量的时间和精力,还可能涉及版权。现在,通过使用AIGC合成一个带眼镜的模型,这个模型的推理速度提高了270%,从原来的每分钟1.5幅图像提高到4幅图像,在有限的流量和成本下获得了更多的变换。
“AIGC将重塑大量的客户体验和应用,”Sherry Marcus认为,人类目前面临的最大挑战是如何理解AIGC能给各行业的变革带来的影响。“我们可以看得更远,看看它未来会带来哪些颠覆性的创新。”"
基岩(基岩),在地理学上,是地表坚硬的岩层,难以开采;在我的世界里,是最基本的方块,不能破坏。在2023世界人工智能大会(WAIC2023)上,是亚马逊云技术带来的镇馆之宝——基础大模型云服务。
今年4月发布的Amazon基岩是亚马逊云技术在生成式AI领域的重要布局。之所以称之为“云服务”不仅仅是“大模型”,是因为它不仅提供了亚马逊云技术的自有模型Amazon Titan,还提供了对创业公司基本模型服务的访问,如AI21 Labs、Anthropic和Stability AI。其核心功能是帮助开发者轻松定制模型,构建自己的生成式AI应用。
在不久前举行的WAIC2023上,亚马逊云技术生成式AI产品研究院院长雪莉·马库斯(Sherry Marcus)向中国用户解释了亚马逊基岩。

“大模范家庭”小组服务
“大多数客户不需要从头开始训练他们的模型。”对于大模型的应用场景,Sherry Marcus认为我们不能依赖一个通用的、单一的大语言模型来处理各种任务。“正确的做法是,客户可以访问多个模型,然后根据自己的需求和数据定制自己的模型。”
用户进入亚马逊基岩官网,可能只需要点击几下,就能找到适合自己的模型服务。
首先是选择基本型号。亚马逊基岩提供了一个“大模型家族”,为客户提供已经训练好的预训练模型。
其中,亚马逊Titan系列的基本型号有Titan Text和Titan Embeddings S,Titan Text可以从简单的自然语言命令生成文本,适用于撰写博客、电子邮件、文档摘要、开放式问答和信息抽取等多种应用。Titan嵌入可以为搜索、异常检测和个性化等应用生成文本嵌入。
当然也可以选择其他公司预训的大模型。AI21 Labs是多语言大语言模型,用于对话、问答和工作流自动化。稳定扩散是《文生图》的顶流,虚拟人像质量堪比高清相机。
选好基本款后,就进入微调阶段。只要向模型发送提示词,亚马逊基岩就会自动部署基础模型进行推理。
“客户可以根据自己的需求,在大语言模型的基础上建立专门的或专门化的模型,使用自己的数据,这样既可以享受大模型的丰富,又可以体验小模型带来的快速迭代。”雪莉·马库斯(Sherry Marcus)解释说,通过微调,客户可以最大限度地提高特定任务的准确性,仅使用20个样本标签就可以达到任务的准确性。相比基础款,这些定制款风格各异,更适合银行、出行、医疗等消费场景。
“芯片家族桶”解决计算能力问题
ChatGPT是全球云服务提供商的新“游戏”。“Changer”(规则制定者),提供基于基础模型云服务的Maas(大模型即服务),无疑将是云商下半场的主要战术。
目前,除了亚马逊云技术之外,华为云、腾讯云等国内云厂商都提出为客户提供“大模型超市”,而商汤、科大讯飞等自主计算能力较强的AI公司很有可能分一杯羹。
在这场由AIGC引发的创新浪潮中,计算能力将是关键的赢家,不仅是稀缺的计算能力资源,还有高度灵活的计算供电能力。
WAIC 2023前一周,亚马逊云技术中国峰会落幕。当时,亚马逊云技术大中华区产品部总经理陈展示了一张亚马逊自研芯片的全家福:作为亚马逊云技术的首款自研芯片,亚马逊Nitro实现了高度轻量化的虚拟化,而基于ARM架构的CPU芯片亚马逊Graviton可以将一级方程式赛车的开发速度提升70%。
当然,用于机器学习训练和推理的芯片Amazon Trainium和Amazon Inferentia更受关注。据陈介绍,基于Trainium的Trn1实例与通用GPU实例相比,训练吞吐量可提升1.2倍,多节点集群吞吐量可提升1.5倍。考虑到成本,单个节点成本可以降低1.8倍,集群成本可以降低2.3倍。
对于需要集群训练的大型模型,亚马逊可以用3万个Trainium芯片构建一个EC2 UltraCluster,让用户在云上获得6 EFlops(每秒100亿次浮点运算)的训练超级计算能力。
ChatGPT带来的英伟达浪潮,让世人的目光聚焦在A100、H100等明星芯片上。然而,在实际应用中,推理芯片才是“金兽”。原因很简单。培训往往只是阶段性服务,而推理是7×24在线不间断服务。对于客户来说,推理芯片的吞吐量、延迟和成本非常重要。
陈举例说,英飞凌2在服务稳定扩散2.1时可以节省50%的成本,而提供视频剪辑的另一家“人气炸鸡”Runway通过英飞凌2的吞吐量是前者的两倍。雪莉·马库斯(Sherry Marcus)透露,通过Trainium和推论,推理的性价比提高了40%,数据吞吐量提高了4倍。
通过亚马逊基岩提供基础大规模模型服务和自研芯片保证计算能力,亚马逊云技术试图以低成本、加速的方式解答更多人对AI创新的困惑。
“重塑”成千上万个行业
“基础模式潜力巨大,但我们仍处于初级阶段。”亚马逊云技术负责数据库、数据分析和机器学习的全球副总裁Swami Sivasubramanian此前曾表示,基础模型的多样化将推动新一轮创新浪潮。
这一波虽然只“涨”了8个月,但是一头扎进去的云服务商、AI服务商、企业客户已经看到了红利。亚马逊云技术在金融、医疗、外贸、医药等行业都有合作案例。
在医疗和生命科学领域,生成性AI将对药学、临床试验和医疗实践等整个价值链产生巨大影响,包括设计和合成新的蛋白质序列,预测药物效果和副作用,识别患者风险因素,提供个性化护理方法,甚至综合患者和医疗数据进行模拟研究。
亚马逊云技术大中华区机器学习产品总监张洋介绍,飞利浦医疗与亚马逊云技术合作,在云端部署飞利浦HealthSuite影像平台的服务,通过使用基于亚马逊基岩的基础模型,加速开发基于云计算的生成式人工智能应用,提供临床决策支持,实现更精准的诊断。在中国,也有医疗客户已经在使用稳定扩散来帮助生成大分子。
DSP在跨界广告和互联网广告方面也有过类似的案例。张洋以眼镜销售为例。以前智能做一个眼镜的广告,只需要一副眼镜或者一个模特去拍摄,需要花费大量的时间和精力,还可能涉及版权。现在,通过使用AIGC合成一个带眼镜的模型,这个模型的推理速度提高了270%,从原来的每分钟1.5幅图像提高到4幅图像,在有限的流量和成本下获得了更多的变换。
“AIGC将重塑大量的客户体验和应用,”Sherry Marcus认为,人类目前面临的最大挑战是如何理解AIGC能给各行业的变革带来的影响。“我们可以看得更远,看看它未来会带来哪些颠覆性的创新。”"
作者:银豹娱乐
新闻资讯 News
- 不一定要从零开始才有大的模型!07-12
- 微软正式推出Dev Box服务,帮助...07-12
- PixivFANBOX更新运营规则...07-12
- 关于GPT-4的参数数量、架构、...07-12