Meta 公司发布人工智能系统:文字生成短视频

打造 Make-A-Video 的研究人员过滤掉了攻击性的图片和文字,但对于由数百万和数以百万计的文字和图片组成的数据集,几乎不可能完全删除有偏见和有害的内容。Meta 公司的一位发言人说,目前还没有向公众提供这个模型,“作为这项研究的一部分,我们将继续探索进一步完善和减少潜在风险的方法”。

10 月 2 日消息,Meta 公司近日发布了一个人工智能系统,可以根据文字提示生成短视频。

IT之家了解到,这个系统名为 Make-A-Video,允许用户输入一连串的词语,比如“一只穿着超级英雄服装、披着红色斗篷在天空中飞翔的狗”,然后生成一个五秒钟的短视频。

虽然效果相当粗糙,但这个系统显然要比文字转图片 AI 系统更高级。

上个月,人工智能实验室 OpenAI 向所有人提供了其最新的文本转图像人工智能系统 DALL-E,而人工智能初创公司 Stability.AI 则推出了 Stable Diffusion,这是一个开源的文本转图像系统。

但文本转视频 AI 系统伴随着一些更大的挑战。首先,这些模型需要大量的计算能力。它们比大型文本到图像的人工智能模型的计算量还要大,后者使用数百万张图像进行训练,因为仅仅拼凑一个短视频就需要数百张图像。这意味着在可预见的未来,只有大型科技公司才有能力建立这些系统。它们的训练也比较棘手,因为没有大规模的高质量视频与文本配对的数据集。

为了解决这个问题,Meta 结合了三个开源图像和视频数据集的数据来训练其模型。标准的文本转图像数据集的标记静态图像帮助人工智能学习物体的名称和它们的样子。一个视频数据库帮助它学习这些物体应该如何在世界中移动。这两种方法的结合帮助 Make-A-Video 能够从文本中大规模地生成视频。

Meta 公司称,该技术可以“为创作者和艺术家带来新的机会”。但是,随着技术的发展,人们担心它可能被用作创造和传播错误信息和深度伪造的有力工具,它可能会使人们更难区分网上的真实和虚假内容。

打造 Make-A-Video 的研究人员过滤掉了攻击性的图片和文字,但对于由数百万和数以百万计的文字和图片组成的数据集,几乎不可能完全删除有偏见和有害的内容。

Meta 公司的一位发言人说,目前还没有向公众提供这个模型,“作为这项研究的一部分,我们将继续探索进一步完善和减少潜在风险的方法”。

THE END
责任编辑:李斌
免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!
Baidu
map