AI视频通话来了,你想用它来做什么呢!

AI视频通话,能用来干啥?

首先,AI视频通话的入口,就在首页底部输入框右侧的电话按钮

图片

进入通话界面,再点击视频按钮,就可以开启视频通话的模式了:

图片

现在,是时候打开新世界的大门了!

它能直接辅导小孩做作业。不仅能直接看到、看懂题目,还会循循善诱,一步步引导小孩自己思考找到正确答案。

轻松拿捏英语翻译,甚至是专业论文。

当然还能变成日常生活助手,比如让它帮忙看下食品是否过期。

还能陪人闲聊,情绪价值拉满。

而且可以随时打断它的话,不用固定一来一回,就像和人聊天那样。

(聊天过程也主打一个“啊对对对,你们人类说的都对”)

同时也能和人互动,可以准确找到手指指到的地方。

新增的AI视频通话能力,让智谱清言不用仅仅依赖打字、语音这种人类主动输入的形式了解世界,只要打开摄像头,咱们看到的画面,AI也能了解。

这样一来,AI的能力立马提升了一个维度。具备跨文本、音频、视频实时推理能力后,AI也在交互上变得更加灵活、亲切。

基座大模型也升级了

除了这次AI视频通话功能之外,智谱AI在大模型技术上也一波大更新——

推出新一代基座大模型GLM-4-Plus

而且是敢在KDD国际数据挖掘与知识发现大会上发布的那种。今年以来,智谱以“国产之光”的形象频繁在ICLR等国际舞台上露脸亮相,向外展示中国大模型当下最前沿进展。

首先,在语言文本能力方面,GLM-4-Plus已经取得与GPT4o及405B参数量的Llama3.1相当的成绩。

图片

大模型长文本能力也随着此次的更新得到了加强:

图片

图像和视频理解能力方面,GLM-4-Plus也取得了较为突出的成绩;而且还是可以理解网页内容,并将其转换为HTML代码的那种。

图片

即使是面对复杂的视频内容,GLM-4V-Plus也能轻松hold住。

据了解,该模型将上线开放平台(bigmodel.cn),智谱AI还将提供国内首个通用视频理解模型的API!

图片

例:

GLM-4V-Plus在看完视频之后,便可以对其内容做理解并回答用户的问题。

用户:这个穿绿色衣服的球员在整个视频都做了什么?

GLM-4V-Plus:在整个视频中,穿绿色衣服的球员在场上运球,然后跳起将球投入篮筐。

用户:这个视频的精彩时刻是什么?发生在第几秒?

GLM-4V-Plus:这个视频的精彩时刻发生在第4秒,当时穿绿色衣服的球员跳起并将球投入篮筐。

由此,也就不难理解智谱清言上的AI视频通话功能为什么可以做到如此丝滑了。

智谱AI,又先迈了一步

今年以来,智谱的大动作不断。

不仅仅是这次上线的AI视频通话是全国首个,更早之前的每一个“大动作”也都是属于领先的梯队。

比如年初发布的新一代基座模型GLM-4,全面对标GPT-4;7月发布的类Sora视频生成模型CogVideoX;以及文生图模型迎来最新版本CogView-3-Plus,其效果接近目前最佳的MJ-V6及FLUX等模型,并支持图片编辑功能。

全面对标OpenAI,不是说说而已。

更关键的是,发布即开放,这很智谱。

智谱清影上线即可免费体验。底层模型同样开放。

也是在这两天,智谱AI的CogVideoX-5B宣布开源。它能在低门槛条件下带来更好的视频生成效果。

图片

为开源社区提供了更丰富选择。

图片

与此同时,GLM-4-Flash也已经做到了完全免费。

由此可见,智谱AI在让大模型变得亲民这条路上是认真的。

毕竟AIGC应用,好用、易用才是硬道理;得用户者得天下。

那么你觉得智谱AI的视频通话功能如何呢?欢迎体验过后在评论区留言讨论哦~

p.s.目前只是Beta版本,近期还会有更大版本迭代~

视频通话内测开通链接:
https://zhipu-ai.feishu.cn/share/base/form/shrcnqpIx9q5ILEFeT2cPNhyuSf