admin管理员组文章数量:1030398
智谱 GLM 新成员开源:高性能、推理快,体验入口“z.ai”免费开放
继智谱在上个月发布了他们的AutoGLM沉思全新智能体,在AI圈子引起广泛的反向,很多人纷纷使用AutoGLM沉思去完成自己工作中的一些任务,如写研究报告、行业调研等等。
那么,AutoGLM沉思智能体背后是怎么样的一套技术呢?
AutoGLM沉思的核心技术包括多个底层模型的协作,包括基础模型、GLM-Z1推理模型 、 GLM-Z1-Rumination沉思模型 、AutoGLM模型,而这些驱动Agent的模型,将在4.14日完全开源,任何用户都可以遵循最宽松的开源协议进行使用。
马上到4月中旬了,上次的AutoGLM沉思发布会,智谱就提前预告了接下来将要发布的东西。智谱要把他们辛辛苦苦训练、微调的模型开源出来了!
这张图其实是上次发布会露出的,将会陆续开源基座模型、推理模型、沉思模型,这三个是AutoGLM沉思的核心技术。
本次开源的模型有三个,沉思模型 GLM-Z1-Rumination-32B-0414、GLM-Z1-32B-0414 、基础模型 GLM-4-32B-0414,接下来将为你一一介绍。
基础模型 GLM-4-32B-0414
新一代基础模型 GLM-4-32B-0414,凭借32B参数量,性能可与更大参数量主流模型比肩。其预训练阶段融入更多代码类、推理类数据,并在对齐阶段优化智能体能力,行动能力行业领先,工具调用、联网搜索、代码等智能体任务表现更优。
该模型支持在对话中实时展示 HTML、CSS、JS、SVG 等代码,用户可一键点击在对话窗口查看代码运行结果,便于灵活修改调整,无需切换程序。
上面生成的HTML网页,最终是这个样子的:
沉思模型 GLM-Z1-Rumination-32B-0414
沉思模型 GLM-Z1-Rumination-32B-0414 提升了模型结合工具使用完成长程推理的能力,突破了传统 AI 单纯依赖内部知识推理的局限,创新性地结合实时联网搜索、动态工具调用、深度分析和自我验证,形成完整的自主研究流程。
沉思模型 GLM-Z1-Rumination-32B-0414能主动理解用户需求,在复杂任务中不断优化推理、反复验证与修正假设,使研究成果更具可靠性与实用性。
与传统推理模型相比,沉思模型 GLM-Z1-Rumination-32B-0414 预示着 AI 助手从“高智商”迈向“高智商+高自主”阶段,能够自主完成更复杂、更深入的研究任务。
GLM-Z1-32B-0414
这款开源的推理模型分为三款,有推理速度非常快的,也有极高性价比的。
部分任务上,GLM-Z1-32B-0414 依靠32B 参数,性能已与拥有 671B 参数的 DeepSeek-R1 相媲美。
推理模型版本的对比如下:
模型 | GLM-Z1-AirX(极速版) | GLM-Z1-Air(高性价比版) | GLM-Z1-Flash(免费版) |
---|---|---|---|
优势 | 8倍推理速度,最高200tokens/秒 | 最高性价比,是R1模型价格的1/30 | 唯一免费调用 |
速率 | 100-200+TPS左右 | 50TPS左右 | - |
收费 | 5元/M | 0.5元/M | 免费 |
GLM-Z1-9B-0414
GLM-Z1-9B-0414 是一个小尺寸模型,在数学推理及通用任务上表现出色,特别适合在资源受限的场景。
我们知道,推理模型在处理模糊任务、大海捞针测试、多步骤agent规划以及代码审查方面具有卓越的性能,接下来将有几个例子进行逐一测试。
示例一:处理模糊任务
系统提示词:
你是一位经验丰富的推理专家,现在我有一个任务需要你处理。我手头的信息非常有限,可能有些地方并不明确,但我相信你能理解我的意图并填补其中的空白。如果你需要进一步澄清,请随时提问。任务是:根据我提供的这些碎片化的线索,推测出事件的可能经过。
用户提示词:
线索: 小区里的一棵大树突然倒下,砸坏了停在附近的几辆车。 有居民看到前一天晚上有人在树下挖东西,但没看清具体在做什么。 小区的物业人员检查后发现,大树的根部被人动过,似乎被挖断了几根主根。 小区的监控显示,案发前一天晚上有一辆面包车在大树附近停留了很久,但车牌被遮挡。 小区的绿化养护记录显示,这棵大树之前一直生长良好,没有病虫害。
想必很多喜欢剧情游戏的朋友都会遇到这样的难题,在有限的信息里面推测出整个的事情经过,得花费很长的时间,而且可能会陷入误区,越想越脑壳痛......
那么推理模型这么厉害了,那么使用GLM-Z1-Air模型试试它的水准怎么样,我让它扮演推理专家的角色,给了他故事剧情的一些线索,然后让他帮我推理出故事的梗概。
哎,难度有点低了,我找了一个中等难度的剧本杀,然后其中有15条线索,每个线索之间是离散分布的,需要GLM-Z1-AirX模型帮我推理出这个事件的经过。
背景
: 一座古老的宅邸中发生了一起离奇的事件。宅邸的主人在一夜之间失踪,留下了许多令人困惑的线索。
线索:
- 主人的日记:在主人的书房中发现了一本日记,最后一页写着:“今晚,我将揭开真相。”
- 神秘的信件:主人的书桌上有一封未寄出的信,信中提到“家族的秘密终于要大白于天下了”。
- 奇怪的脚印:宅邸的花园中发现了一串奇怪的脚印,似乎是从书房通往地下室的。
- 地下室的锁:地下室的门被锁上了,但锁上没有主人的指纹,而是有一层薄薄的灰尘。
- 监控录像:宅邸的监控录像显示,案发当晚有一名不明身份的人影在花园中徘徊。
- 目击者证词:宅邸的管家表示,案发当晚听到主人书房中有奇怪的声音,但没有看到任何人进出。
- 家族画像:在客厅的墙上挂着一幅家族画像,画像中有一处被划掉的痕迹,似乎是最近才有的。
- 遗失的钥匙:主人的钥匙链上少了一把钥匙,而这把钥匙正是地下室的备用钥匙。
- 奇怪的钟声:案发当晚,附近的居民听到宅邸的古钟敲响了13下,这在家族中是一个不祥的征兆。
- 家族传说:家族中流传着一个关于“隐藏财富”的传说,但无人知晓具体细节。
- 旧信件:在主人的书桌抽屉中发现了一封旧信,信中提到“真相就在你脚下”。
- 地下室的日记:在地下室中发现了一本旧日记,记录了家族过去的秘密。
- 神秘的符号:在地下室的墙上发现了一些奇怪的符号,与家族画像上的划痕相似。
- 目击者证词:邻居表示,案发当晚看到一辆陌生的车停在宅邸外。
- 手机信号:主人的手机在失踪后仍处于开机状态,但位置一直在移动。
任务:推测主人失踪的可能经过。
推演的最终结局为主人于凌晨1:12启动地下室应急系统,触发长子预设的氮气室装置(教堂冷藏系统改造)。尸体经特殊处理(遗体冷冻干燥技术)后,通过预埋管道转移至城郊教堂地窖,伪造成自然失踪。手机信号由长子团队远程操控,实现"死亡信号漂移"迷惑。
示例二:多步骤代理规划,以电商用户为例
系统提示词:
现在我有一个复杂的问题需要解决,需要你作为“规划者”来制定详细的多步骤解决方案。请根据任务的性质和需求,选择合适的模型作为“执行者”。你可以根据高智能和低延迟的重要性来分配任务。请输出你的规划方案,包括每一步的具体内容和选择的执行者模型。
用户输入:
问题描述: 电商网站面临用户流失问题,需要预测用户流失的可能性,并制定相应的挽回策略。需要考虑用户的历史购买行为、浏览行为、用户反馈等多个因素。
GLM-Z1-Air在多步骤代理规划方面表现的非常不错,如上演示,46秒内他就给我生成了一个关于电商网站优化的问题,但是我最开始的问题是非常模糊的,只提到了遇到的一些问题以及我的要求,
GLM-Z1-Air就给我哗啦啦的输出一大堆,把我的问题进行了逐步拆解,为了方便大家观看,重要的内容我给放到下面一起了,每个执行步骤其实是非常明确的。而且根据要求确定了最终的执行方案。
接下来我就使用GLM-Z1-Airx作为一个对比吧,同样的输入,然后整个执行过程放在下面的VCR里面,我惊呆了,10几秒内就解决这个问题了,速度真正快了4-5倍左右。
示例三:审查、调试和改进代码质量
系统提示词:
我有一段代码需要你进行审查和改进。请仔细检查代码中的问题,并提出改进建议。你可以直接输出改进后的代码,或者列出需要修改的地方和原因。
用户输入的代码片段,这段代码其实存在多个问题,比如说异常处理不完善、数据完整性缺失和可读性差等问题。例如,未处理文件读取权限,未记录问题数据,数据丢失风险高,且缺少日志功能,不利于调试。同时,文件路径硬编码,灵活性不足。
交给推理模型,看他能不能帮我们找出其中的问题。
import json
def read_data_from_file(file_path):
with open(file_path, "r") as file:
data = json.load(file)
return data
def process_data(data):
results = []
for item in data:
try:
name = item["name"]
age = item["age"]
if age < 18:
raise ValueError("Age must be at least 18")
results.append({"name": name, "age": age})
except KeyError as e:
print(f"Missing key: {e}")
except ValueError as e:
print(f"Value error: {e}")
return results
def save_results_to_file(results, file_path):
with open(file_path, "w") as file:
json.dump(results, file)
def main():
input_file = "input.json"
output_file = "output.json"
try:
data = read_data_from_file(input_file)
processed_data = process_data(data)
save_results_to_file(processed_data, output_file)
print("Processing complete. Results saved to output.json")
except FileNotFoundError:
print("Input file not found")
except json.JSONDecodeError:
print("Invalid JSON format in input file")
if __name__ == "__main__":
main()
如下为代码审查测试流程,根据我提供的代码,GLM-Z1-Air能够非常快速的进行推理。
我将代码审查之后优化的点放到如下这张图里面,可以看到,在多个代码隐患里面都做了修改优化,并且推理过程很快,token在那唰唰的跑。
然后使用GLM-Z1-Airx(极速版),我们再测试一下,我擦,20多秒就跑完了,上面使用GLM-Z1-Air也得两分钟左右,真真真的太快了!
示例四:规范提示
提示词:
我需要你根据以下指令完成任务。任务内容是……(具体任务描述)。请保持提示简单直接,避免思维链提示。使用分隔符以提高清晰度。优先尝试零样本提示,需要时再使用少样本。提供具体指导,明确说明最终目标。
用户输入:撰写一个市场分析报告,使用GLM-Z1-Air模型。
任务描述: 根据以下信息,撰写一个市场分析报告。 输入: 市场趋势:智能手机市场增长放缓 竞争对手:苹果、三星、华为 目标市场:年轻人 输出: 市场分析报告:智能手机市场竞争激烈,年轻人市场是主要增长点。
同一个撰写市场分析报告的任务,使用GLM-Z1-Air模型和GLM-Z1-AirX模型进行对比,可以明显的发现,后者在速率方面更胜一筹。
说完了这些,相信大家会问:我应该去哪里体验呢?
现在有两种方式即可体验,第一种就是去智谱的MaaS服务平台上就可体验
链接在这里:
到体验中心页面,在模型选择岚切换不同的模型,比如切换到GLM-Z1-Air模型,就可以输入指令进行体验了。
给他一个旅行规划的任务指令,然后就可以分析我的需求,为我生成旅行规划。
偷偷告诉你,智谱搞了很牛逼的顶级域名:z.ai,即将把三类 GLM 模型上线,面向全球用户免费使用。
他们把本次开源的三款模型,全部放上去了,现在全球用户都可以免费体验了!
z.ai 目前已上线三款开源模型:
GLM-4-32B(基座模型):强大代码生成能力,支持Artifacts 功能
Z1-32B(推理模型):优越的推理性能,最高达 200 Tokens/秒 的极速输出
Z1-Rumination-32B(沉思模型):Deep Research 能力背后的模型,适合深度调研
切换为Z1-32B(GLM-Z1-AirX)模型,我是开了联网搜索的,根据我的问题,找出了关键词,进行先搜后想,根据内容来确定问题怎么问答。
如果切换为Z1-Rumination模型,进入沉思模式,先想后搜,根据每一个步骤去搜索内容,然后补充完善,然后来个大包圆。
z.ai 不仅仅是一个超级域名这么简单,它将逐渐发展为下一代的 AI 应用平台入口,为全新的AI开源生态注入活力。
最后,我也是刚刚了解到,智谱是大模型六小龙里面第一家正式启动IPO流程的大模型创业公司。
智谱 GLM 新成员开源:高性能、推理快,体验入口“z.ai”免费开放
继智谱在上个月发布了他们的AutoGLM沉思全新智能体,在AI圈子引起广泛的反向,很多人纷纷使用AutoGLM沉思去完成自己工作中的一些任务,如写研究报告、行业调研等等。
那么,AutoGLM沉思智能体背后是怎么样的一套技术呢?
AutoGLM沉思的核心技术包括多个底层模型的协作,包括基础模型、GLM-Z1推理模型 、 GLM-Z1-Rumination沉思模型 、AutoGLM模型,而这些驱动Agent的模型,将在4.14日完全开源,任何用户都可以遵循最宽松的开源协议进行使用。
马上到4月中旬了,上次的AutoGLM沉思发布会,智谱就提前预告了接下来将要发布的东西。智谱要把他们辛辛苦苦训练、微调的模型开源出来了!
这张图其实是上次发布会露出的,将会陆续开源基座模型、推理模型、沉思模型,这三个是AutoGLM沉思的核心技术。
本次开源的模型有三个,沉思模型 GLM-Z1-Rumination-32B-0414、GLM-Z1-32B-0414 、基础模型 GLM-4-32B-0414,接下来将为你一一介绍。
基础模型 GLM-4-32B-0414
新一代基础模型 GLM-4-32B-0414,凭借32B参数量,性能可与更大参数量主流模型比肩。其预训练阶段融入更多代码类、推理类数据,并在对齐阶段优化智能体能力,行动能力行业领先,工具调用、联网搜索、代码等智能体任务表现更优。
该模型支持在对话中实时展示 HTML、CSS、JS、SVG 等代码,用户可一键点击在对话窗口查看代码运行结果,便于灵活修改调整,无需切换程序。
上面生成的HTML网页,最终是这个样子的:
沉思模型 GLM-Z1-Rumination-32B-0414
沉思模型 GLM-Z1-Rumination-32B-0414 提升了模型结合工具使用完成长程推理的能力,突破了传统 AI 单纯依赖内部知识推理的局限,创新性地结合实时联网搜索、动态工具调用、深度分析和自我验证,形成完整的自主研究流程。
沉思模型 GLM-Z1-Rumination-32B-0414能主动理解用户需求,在复杂任务中不断优化推理、反复验证与修正假设,使研究成果更具可靠性与实用性。
与传统推理模型相比,沉思模型 GLM-Z1-Rumination-32B-0414 预示着 AI 助手从“高智商”迈向“高智商+高自主”阶段,能够自主完成更复杂、更深入的研究任务。
GLM-Z1-32B-0414
这款开源的推理模型分为三款,有推理速度非常快的,也有极高性价比的。
部分任务上,GLM-Z1-32B-0414 依靠32B 参数,性能已与拥有 671B 参数的 DeepSeek-R1 相媲美。
推理模型版本的对比如下:
模型 | GLM-Z1-AirX(极速版) | GLM-Z1-Air(高性价比版) | GLM-Z1-Flash(免费版) |
---|---|---|---|
优势 | 8倍推理速度,最高200tokens/秒 | 最高性价比,是R1模型价格的1/30 | 唯一免费调用 |
速率 | 100-200+TPS左右 | 50TPS左右 | - |
收费 | 5元/M | 0.5元/M | 免费 |
GLM-Z1-9B-0414
GLM-Z1-9B-0414 是一个小尺寸模型,在数学推理及通用任务上表现出色,特别适合在资源受限的场景。
我们知道,推理模型在处理模糊任务、大海捞针测试、多步骤agent规划以及代码审查方面具有卓越的性能,接下来将有几个例子进行逐一测试。
示例一:处理模糊任务
系统提示词:
你是一位经验丰富的推理专家,现在我有一个任务需要你处理。我手头的信息非常有限,可能有些地方并不明确,但我相信你能理解我的意图并填补其中的空白。如果你需要进一步澄清,请随时提问。任务是:根据我提供的这些碎片化的线索,推测出事件的可能经过。
用户提示词:
线索: 小区里的一棵大树突然倒下,砸坏了停在附近的几辆车。 有居民看到前一天晚上有人在树下挖东西,但没看清具体在做什么。 小区的物业人员检查后发现,大树的根部被人动过,似乎被挖断了几根主根。 小区的监控显示,案发前一天晚上有一辆面包车在大树附近停留了很久,但车牌被遮挡。 小区的绿化养护记录显示,这棵大树之前一直生长良好,没有病虫害。
想必很多喜欢剧情游戏的朋友都会遇到这样的难题,在有限的信息里面推测出整个的事情经过,得花费很长的时间,而且可能会陷入误区,越想越脑壳痛......
那么推理模型这么厉害了,那么使用GLM-Z1-Air模型试试它的水准怎么样,我让它扮演推理专家的角色,给了他故事剧情的一些线索,然后让他帮我推理出故事的梗概。
哎,难度有点低了,我找了一个中等难度的剧本杀,然后其中有15条线索,每个线索之间是离散分布的,需要GLM-Z1-AirX模型帮我推理出这个事件的经过。
背景
: 一座古老的宅邸中发生了一起离奇的事件。宅邸的主人在一夜之间失踪,留下了许多令人困惑的线索。
线索:
- 主人的日记:在主人的书房中发现了一本日记,最后一页写着:“今晚,我将揭开真相。”
- 神秘的信件:主人的书桌上有一封未寄出的信,信中提到“家族的秘密终于要大白于天下了”。
- 奇怪的脚印:宅邸的花园中发现了一串奇怪的脚印,似乎是从书房通往地下室的。
- 地下室的锁:地下室的门被锁上了,但锁上没有主人的指纹,而是有一层薄薄的灰尘。
- 监控录像:宅邸的监控录像显示,案发当晚有一名不明身份的人影在花园中徘徊。
- 目击者证词:宅邸的管家表示,案发当晚听到主人书房中有奇怪的声音,但没有看到任何人进出。
- 家族画像:在客厅的墙上挂着一幅家族画像,画像中有一处被划掉的痕迹,似乎是最近才有的。
- 遗失的钥匙:主人的钥匙链上少了一把钥匙,而这把钥匙正是地下室的备用钥匙。
- 奇怪的钟声:案发当晚,附近的居民听到宅邸的古钟敲响了13下,这在家族中是一个不祥的征兆。
- 家族传说:家族中流传着一个关于“隐藏财富”的传说,但无人知晓具体细节。
- 旧信件:在主人的书桌抽屉中发现了一封旧信,信中提到“真相就在你脚下”。
- 地下室的日记:在地下室中发现了一本旧日记,记录了家族过去的秘密。
- 神秘的符号:在地下室的墙上发现了一些奇怪的符号,与家族画像上的划痕相似。
- 目击者证词:邻居表示,案发当晚看到一辆陌生的车停在宅邸外。
- 手机信号:主人的手机在失踪后仍处于开机状态,但位置一直在移动。
任务:推测主人失踪的可能经过。
推演的最终结局为主人于凌晨1:12启动地下室应急系统,触发长子预设的氮气室装置(教堂冷藏系统改造)。尸体经特殊处理(遗体冷冻干燥技术)后,通过预埋管道转移至城郊教堂地窖,伪造成自然失踪。手机信号由长子团队远程操控,实现"死亡信号漂移"迷惑。
示例二:多步骤代理规划,以电商用户为例
系统提示词:
现在我有一个复杂的问题需要解决,需要你作为“规划者”来制定详细的多步骤解决方案。请根据任务的性质和需求,选择合适的模型作为“执行者”。你可以根据高智能和低延迟的重要性来分配任务。请输出你的规划方案,包括每一步的具体内容和选择的执行者模型。
用户输入:
问题描述: 电商网站面临用户流失问题,需要预测用户流失的可能性,并制定相应的挽回策略。需要考虑用户的历史购买行为、浏览行为、用户反馈等多个因素。
GLM-Z1-Air在多步骤代理规划方面表现的非常不错,如上演示,46秒内他就给我生成了一个关于电商网站优化的问题,但是我最开始的问题是非常模糊的,只提到了遇到的一些问题以及我的要求,
GLM-Z1-Air就给我哗啦啦的输出一大堆,把我的问题进行了逐步拆解,为了方便大家观看,重要的内容我给放到下面一起了,每个执行步骤其实是非常明确的。而且根据要求确定了最终的执行方案。
接下来我就使用GLM-Z1-Airx作为一个对比吧,同样的输入,然后整个执行过程放在下面的VCR里面,我惊呆了,10几秒内就解决这个问题了,速度真正快了4-5倍左右。
示例三:审查、调试和改进代码质量
系统提示词:
我有一段代码需要你进行审查和改进。请仔细检查代码中的问题,并提出改进建议。你可以直接输出改进后的代码,或者列出需要修改的地方和原因。
用户输入的代码片段,这段代码其实存在多个问题,比如说异常处理不完善、数据完整性缺失和可读性差等问题。例如,未处理文件读取权限,未记录问题数据,数据丢失风险高,且缺少日志功能,不利于调试。同时,文件路径硬编码,灵活性不足。
交给推理模型,看他能不能帮我们找出其中的问题。
import json
def read_data_from_file(file_path):
with open(file_path, "r") as file:
data = json.load(file)
return data
def process_data(data):
results = []
for item in data:
try:
name = item["name"]
age = item["age"]
if age < 18:
raise ValueError("Age must be at least 18")
results.append({"name": name, "age": age})
except KeyError as e:
print(f"Missing key: {e}")
except ValueError as e:
print(f"Value error: {e}")
return results
def save_results_to_file(results, file_path):
with open(file_path, "w") as file:
json.dump(results, file)
def main():
input_file = "input.json"
output_file = "output.json"
try:
data = read_data_from_file(input_file)
processed_data = process_data(data)
save_results_to_file(processed_data, output_file)
print("Processing complete. Results saved to output.json")
except FileNotFoundError:
print("Input file not found")
except json.JSONDecodeError:
print("Invalid JSON format in input file")
if __name__ == "__main__":
main()
如下为代码审查测试流程,根据我提供的代码,GLM-Z1-Air能够非常快速的进行推理。
我将代码审查之后优化的点放到如下这张图里面,可以看到,在多个代码隐患里面都做了修改优化,并且推理过程很快,token在那唰唰的跑。
然后使用GLM-Z1-Airx(极速版),我们再测试一下,我擦,20多秒就跑完了,上面使用GLM-Z1-Air也得两分钟左右,真真真的太快了!
示例四:规范提示
提示词:
我需要你根据以下指令完成任务。任务内容是……(具体任务描述)。请保持提示简单直接,避免思维链提示。使用分隔符以提高清晰度。优先尝试零样本提示,需要时再使用少样本。提供具体指导,明确说明最终目标。
用户输入:撰写一个市场分析报告,使用GLM-Z1-Air模型。
任务描述: 根据以下信息,撰写一个市场分析报告。 输入: 市场趋势:智能手机市场增长放缓 竞争对手:苹果、三星、华为 目标市场:年轻人 输出: 市场分析报告:智能手机市场竞争激烈,年轻人市场是主要增长点。
同一个撰写市场分析报告的任务,使用GLM-Z1-Air模型和GLM-Z1-AirX模型进行对比,可以明显的发现,后者在速率方面更胜一筹。
说完了这些,相信大家会问:我应该去哪里体验呢?
现在有两种方式即可体验,第一种就是去智谱的MaaS服务平台上就可体验
链接在这里:
到体验中心页面,在模型选择岚切换不同的模型,比如切换到GLM-Z1-Air模型,就可以输入指令进行体验了。
给他一个旅行规划的任务指令,然后就可以分析我的需求,为我生成旅行规划。
偷偷告诉你,智谱搞了很牛逼的顶级域名:z.ai,即将把三类 GLM 模型上线,面向全球用户免费使用。
他们把本次开源的三款模型,全部放上去了,现在全球用户都可以免费体验了!
z.ai 目前已上线三款开源模型:
GLM-4-32B(基座模型):强大代码生成能力,支持Artifacts 功能
Z1-32B(推理模型):优越的推理性能,最高达 200 Tokens/秒 的极速输出
Z1-Rumination-32B(沉思模型):Deep Research 能力背后的模型,适合深度调研
切换为Z1-32B(GLM-Z1-AirX)模型,我是开了联网搜索的,根据我的问题,找出了关键词,进行先搜后想,根据内容来确定问题怎么问答。
如果切换为Z1-Rumination模型,进入沉思模式,先想后搜,根据每一个步骤去搜索内容,然后补充完善,然后来个大包圆。
z.ai 不仅仅是一个超级域名这么简单,它将逐渐发展为下一代的 AI 应用平台入口,为全新的AI开源生态注入活力。
最后,我也是刚刚了解到,智谱是大模型六小龙里面第一家正式启动IPO流程的大模型创业公司。
本文标签: 智谱 GLM 新成员开源高性能推理快,体验入口“zai”免费开放
版权声明:本文标题:智谱 GLM 新成员开源:高性能、推理快,体验入口“z.ai”免费开放 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://it.en369.cn/jiaocheng/1747656110a2199604.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论