Gen-2介绍
Runway最新推出的AI视频生成模型,不用文本,一张图,Gen-2就能生成视频。
好玩到停不下来!
这意味着,一部大片,只需要图片就够了,岂不是人人都能成为好莱坞导演。
这不,已经有网友用Gen-2,结合PS修图,MusicGen、AudioLDM等工具配音,做出了「机器人总动员」翻版影片。
有人把Midjourney和Gen-2混搭,视频画面高级质感简直让人惊掉下巴。
有人用时4小时,制作了一部「火焰之旅」预告片,没有任何提示,只是图像!
有了Gen-2,重拍一部「狮子王」,绝对是不可想象的!

手把手教程
首先通过网页https://research.runwayml.com/gen2注册登录runway的账号,进入runway的编辑界面.
点击左侧的Generate Video。
然后点击屏幕中间的Gen-2:Text to Video进入Gen-2。
在左边的区域上传一张照片,小编这里用的是一张由Midjourney生成的机器人的照片。

提示词:Futuristic machine who is a kind robot who wants to save his planet from his human friends, cinematic, digital illustration, stylized, deep depth of field, high definition, –ar 16:9 –v 5.2
然后什么Prompt都不用输入,上传完照片之后就直接点击Generate。大概1分钟之后,一段4秒钟的视频就生成了。
图中的机器人瞬间就动了起来!
数据统计
数据评估
关于Gen-2特别声明
本站智能信息网提供的Gen-2都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由智能信息网实际控制,在2025年4月26日 下午10:51收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,智能信息网不承担任何责任。
相关导航
PaLM(Pathways Language Model) 是一种大型语言模型,即 LLM,类似于OpenAI 创建的 GPT 系列或Meta 的 LLaMA 系列模型。谷歌于 2022 年 4 月首次宣布推出 PaLM,超过了5400亿个训练参数。与其他 LLM 一样,PaLM 是一个灵活的系统,可以执行各种文本生成和编辑任务。例如,你可以将 PaLM 训练成像 ChatGPT 这样的对话式聊天机器人,或者你可以将它用于诸如总结文本甚至编写代码等任务。(这类似于谷歌今天也为其 Workspace 应用程序(如 Google Docs 和 Gmail)宣布的功能。)在 2023 谷歌 I/O 大会上,谷歌 CEO 皮查伊宣布推出对标 GPT-4 的大模型 PaLM 2,并正式发布预览版本,改进了数学、代码、推理、多语言翻译和自然语言生成能力。谷歌将为 PaLM 2 提供四种不同大小的版本,从最小到最大:Gecko、Otter、Bison 和 Unicorn。Gecko 非常轻巧,可以在移动设备上工作,并且速度足够快,即使在离线时也能在设备上运行出色的交互式应用程序。这种多功能性意味着可以对 PaLM 2 进行微调,以更多方式支持整个类别的产品,从而帮助更多人。PaLM 2的特性PaLM 2 是谷歌的下一代大语言模型,具有改进的多语言、推理和编码能力。多语言性: PaLM 2 在多语言文本方面接受了更多的训练,涵盖 100 多种语言。这显著提高了它在多种语言中理解、生成和翻译细微差别文本(包括成语、诗歌和谜语)的能力,这是一个很难解决的问题。PaLM 2 还通过了“精通”级别的高级语言能力考试。推理: PaLM 2 的广泛数据集包括科学论文和包含数学表达式的网页。因此,它展示了逻辑、常识推理和数学方面的改进能力。编程: PaLM 2 在大量公开可用的源代码数据集上进行了预训练。这意味着它擅长 Python 和 JavaScript 等流行的编程语言,但也可以生成 Prolog、Fortran 和 Verilog 等语言的专用代码。
OneStory
OneStory是什么OneStory是一款创新的AI故事生成助手,用户只需输入文字描述,AI能帮你生成连贯的图片和视频,无需专业技能。无论是角色设计、场景布局还是动画制作。OneStory就像一个智能故事机,你只要告诉它你的故事,就能帮你画出角色、场景,甚至还能做成动画视频。OneStory让创作故事和视频变得像说话一样简单。OneStory的主要功能AI智能画笔:使用AI文生图、文生视频技术,将用户的文字描述转换成图像和视频,让创意快速可视化。一键生成分镜脚本:将剧本或创意文稿自动转化为专业分镜脚本和故事板,简化制作流程。影视级图像创作:即使没有美术基础,用户也能通过AI快速创作出高质量的图像故事。画面元素级控制:提供文本提示词和图像编辑器,支持用户对画面中的单个元素进行精准控制和修改。角色资产库构建:支持用户通过提示词和人物形象图片,创建个性化的角色库,打造独特的IP形象。多场景适用性:适用于多种不同的创作场景和案例,满足不同用户的个性化需求。如何使用OneStory产品官网:访问 onestory.art ,微信扫码注册登录账号。明确创作目标:在开始之前,想清楚你想要创作的主题和风格,例如是卡通形象、科幻战士还是古装仙子等。输入描述:在OneStory的输入框中,详细描述你的角色或场景,包括外貌特征、服装、表情、动作和环境等。使用关键词:尽量使用具体和丰富的关键词来描述,AI能更准确地理解并生成你想要的图像。调整参数:根据需要,调整生成图像的参数,比如分辨率、尺寸比例等。生成图像:输入描述和调整参数后,点击生成按钮,AI将根据你的描述创建图像。筛选和优化:需要多次生成,从多个结果中选择最满意的图像,可使用局部编辑功能来调整不满意的细节。系列化创作:要保持角色或场景的一致性,尽量在后续创作中保持关键词和描述的一致性,只对细节进行微调。一键生成视频:如果你想将图像串联成视频,OneStory支持视频生成功能,可根据生成的图像一键制作动画视频。OneStory怎么收费OneStory提供多种订阅方案,主要包括:免费用户:基础试用服务。普通会员:18元/月,180元/年,提供100个项目、600次重绘、8000字字符数,以及AI编辑器优先体验。高级会员:38元/月,380元/年,提供500个项目、2000次重绘、15000字字符数。团队会员:价格定制,包括团队协作功能如多人编辑和图片批注。OneStory的应用场景个人创作:个人艺术家和爱好者可以用OneStory快速将创意转化为视觉作品,不论是绘画、插图还是动画。教育领域:教师和学生可用OneStory进行故事叙述、角色设计和场景构建教学活动,提高学生的创造力和想象力。电影和电视制作:电影制作人和电视制片人可使用OneStory来生成分镜脚本和故事板,加快前期制作流程。游戏开发:游戏开发者可使用OneStory来设计游戏角色、环境和动画,提高开发效率。虚拟现实和增强现实:VR和AR开发者可以用OneStory来创造沉浸式体验的视觉效果。企业宣传:企业用OneStory来制作宣传材料,如产品介绍视频、公司故事等,更生动地展示企业形象。出版物设计:出版行业可以用OneStory来设计书籍封面、插图和漫画,提升出版物的吸引力。艺术展览和画廊:艺术家可以用OneStory来创作数字艺术作品,用于线上或线下的艺术展览。
GPT
GPT-4介绍GPT-4(Generative Pre-trained Transformer)是 OpenAI 开发的自然语言处理模型 GPT 家族中的第四个版本,该模型依靠强大的神经网络来理解和生成类似人类的语言。 如何免费使用GPT-4?不开会员的6种方法 目前官方版的GPT-4仅能通过ChatGPT Plus付费会员才能使用,免费版的ChatGPT无法使用最新的GPT-4,而Plus版本需要每个月花费20美元来订阅,并且国内付款非常困... AI教程 2年前 (2023) GPT-4 通过使用被称为「转换器(Transformer)」的特殊架构来帮助软件理解单词的含义以及它们在句子中的组合方式。通俗来讲,Transformer帮助计算机找出如何将所有的词以正确的顺序放在一起,使之有意义。之所以采用这样的方法,是因为该模型已经在一个巨大的数据集上进行了训练,其中包括来自不同来源的文本,如书籍、文章和网站。这种训练使 GPT-4 模型能够进行类似人类的对话,并产生看似有意义的回应。不过虽然 GPT-4 创造的文本和回应读起来像人,但它远远不是有意识的智能,离通用人工智能还有距离。GPT-4的工作原理GPT-4通过与其前身(GPT-3.5)相同的基本流程工作,但规模更大,以下是其主要的工作原理:Transformer架构: GPT-4是使用一种叫做「Transformer」的设计来构建的,这些转换器就像超级智能机器,能够理解一句话中哪些词是重要的,以及它们之间的关系。大规模的预训练: GPT-4从大量的文本中学习,如书籍、网站和文章,这样一来,它就能更好地理解语言模式、语法和事实。微调(Fine-tuning): 在从大量文本中学习后,GPT-4会在特定的任务中接受训练,如回答问题或理解文本中的情感,这有助于它在处理这些任务时变得更加出色。分词(Tokenization): GPT-4将文本分解成更小的部分,称为「tokens」,这些token可以是单词或单词的一部分,这有助于它处理不同的语言并理解词语的含义。上下文窗口(Context window): GPT-4有一个限制,即它可以一次查看多少个token。这个限制有助于它理解语境和单词之间的关系,但这也意味着它不一定能理解很长的句子或段落。概率分布和抽样: 当GPT-4生成文本时,它根据模型认为每个词的可能性的大小来猜测下一个词。然后,它从这些猜测中挑选出一个词,使其够创造出多样化和有趣的句子。细粒度控制(Fine-grained control): GPT-4可以通过使用特殊提示或调整其设置等技巧,引导它给出特定类型的答案或文本,以帮助从该模型中获得我们想要的结果。ChatGPT和GPT-4的区别ChatGPT 和 GPT-4 并不是同一回事,ChatGPT 是基于 GPT-3.5 和 GPT-4 模型的,专门为对话式人工智能应用而设计的,比如根据用户输入生成类似人类的文本回复。而GPT-4指的是GPT系列大语言模型的当前版本——驱动ChatGPT的引擎。ChatGPT提供的输出读起来更自然,GPT-4更强大,在输入/输出方面可以处理更多文本。GPT-4可以免费访问吗?这个问题的答案:是也不是。用户可以通过ChatGPT、New Bing等软件访问GPT-4,这些平台使用GPT-4来生成内容并与用户互动。然而,GPT-4只有在ChatGPT Plus付费计划下才能使用,或者作为开发者建立应用程序和服务的API。New Bing(新必应)可以每天免费有限次数使用GPT-4驱动的AI聊天,而独立用户在这些人工智能聊天机器人平台之外没有机会使用GPT-4。
Segment Anything(SAM): Meta最新推出的AI图像分割模型
Segment Anything Model(SAM)是Meta AI研究院最新推出的图像分割模型,该模型通过点或框等输入提示生成高质量的物体遮罩,并且可以用于为图像中的所有物体和对象生成遮罩。SAM模型在超过1100万张图像和11亿张掩模的数据集上进行了训练,并且在各种图像分割任务上具有强大的零样本性能。
Jan(Jan.ai)
Jan(Jan.ai)是一个免费开源的本地运行大模型并进行AI聊天对话的工具,可帮助用户在本地电脑(Windows、Mac、Linux)上安装、部署、运行并使用开源版本的ChatGPT替代大模型,如LLaMa、Mistral、Phi-2等20多个模型,也支持输入自己的OpenAI API Key以运行GPT。相较于AI工具集此前介绍的Ollama,该工具提供了对话UI和API服务器,适合开发者、研究人员或AI爱好者本地体验开源的大模型。Jan的主要功能本地运行开源大模型:支持LlaMa、Mistral、Phi-2、DeepSeek、Yi等20多个模型,可手动导入也可以在模型库下载模型简洁好用的聊天界面:软件界面清爽简洁、直观易用,直接在本地与开源大模型快速进行对话聊天支持多个平台:Jan支持在Windows、Mac(Intel、M1/M2/M3)和Linux等操作系统运行,后续还将推出移动端APP。内置API服务器:与OpenAI API兼容,可通过API获取模型信息、下载、启动、停止模型及聊天等如何使用Jan访问Jan的官网(jan.ai),选择对应的电脑操作系统版本,点击Download进行下载然后安装并打开软件,在软件界面的左下角点击Download your first model进入模型库Hub界面,选择你感兴趣的模型进行下载,下载完成后点击Use使用该模型在对话界面输入你的描述即可与你选择的模型进行对话啦Jan还在持续开发中,后续会支持移动端APP、创建AI助理、推理引擎、插件扩展等功能。
Pika
Pika是一家AI视频生成初创公司,不仅能根据文字、图片或视频风格生成视频,还能对视频局部进行编辑。
Viva
Viva是什么Viva是由智象未来(HiDream.ai)推出的一个免费的AI创意视觉生成平台,提供文本到图像、文本到视频、图像到视频等多种生成功能。用户只需输入描述性的文字或上传图片,Viva AI就能生成具有逼真效果的短视频。该平台具备AI视频生成、AI图像增强、视频增强、创意滤镜、和自动背景移除等特性,支持多种视频参数设置,如长宽比、运动强度等,并且提供4K分辨率放大,旨在帮助用户轻松创造和提升视觉内容,让每个瞬间都变得生动。Viva的主要功能AI视频生成:Viva AI突破了传统视频制作的界限,能够根据文本描述(文生视频)或现有图像(图生视频)生成引人入胜的视频内容,为视频创作者提供了无限的可能性。AI图像生成:利用AI的强大能力,Viva AI能够根据用户的文本描述或现有图像,创造出全新的视觉作品,极大地丰富了图像创作的维度。AI图像增强:平台的AI图像增强功能可以显著提升图像的清晰度、色彩和细节,使得每一张图像都焕发出专业级别的光彩。AI视频增强:Viva AI的视频增强技术能够对视频内容进行深度优化,无论是提高分辨率(最高4K)还是增强动态效果,都能让视频内容更加生动和吸引人。图像重绘:Viva AI的图像重绘功能允许用户对图像进行风格转换或外观调整,满足个性化设计的需求,创造出独一无二的视觉体验。图像扩展:通过智能算法,Viva AI能够无缝扩展图像的画幅或内容,同时保持图像质量,为用户提供更大的创作空间。图像消除:Viva AI的自动背景移除功能,使用户能够轻松去除图像中的背景元素,专注于突出主题,简化了复杂的图像编辑过程。如何使用Viva生成视频访问Viva的官网(vivago.ai/video),国内版为HiDream.ai选择Text to Video文生视频输入提示词,设置负面提示词、视频画面比例和运动强度最后点击Generate等待视频生成即可你也可以选择Image to Video上传图片进行图生视频Viva的应用场景社交媒体内容:创作者可以利用Viva生成有趣的视频内容,用于吸引粉丝和提高社交媒体平台的互动率。广告制作:企业或个人可以使用Viva快速制作广告视频,节省成本同时保持创意和吸引力。电影和视频制作:电影制作人和视频编辑者可以使用Viva作为前期创意和概念验证的工具。艺术创作:艺术家和设计师可以使用Viva将他们的创意想法转化为视觉作品,探索新的艺术表现形式。个人娱乐:用户可以为自己或朋友制作个性化的视频,用于纪念特殊时刻或分享生活趣事。
寻光
寻光是由阿里巴巴达摩院研发的一站式AI视频创作平台,利用先进的人工智能技术,为用户提供从剧本创作到分镜图设计、角色定制、场景生成以及视频编辑的全流程服务。寻光支持AI辅助的剧本分析、角色和场景的智能生成、以及视频内容的精细化编辑,包括目标新增、消除、编辑和风格变换等。寻光旨在通过AI技术提升视频创作的效率和质量,让视频制作变得更加简单和高效。寻光已开放试用体验,用户可前往官网进行体验。寻光的产品功能故事板生成:寻光能够理解剧本内容,并将其转化为一系列可视化的分镜头脚本。用户只需输入剧本,AI便能自动生成与剧本内容相匹配的分镜头,包括场景布局、角色位置和动作等。该功能极大地提升了从剧本到视频制作的转换效率,使导演和编剧能够快速预览故事的视觉呈现。角色库管理:寻光提供角色库管理功能,允许用户创建和存储多样化的角色模型。用户可以根据剧情需要,定制角色的外观特征、性格特点甚至情感表达。角色库中的每个角色都可以被赋予独特的行为和反应,以适应不同的剧情发展。视觉素材创作:寻光平台支持多种视觉素材的创作方式,包括但不限于角色生图、文生图、图生视频等。用户可以通过文本描述或现有图像来生成新的角色图像或场景,丰富视频的视觉元素,快速构建起视频的基本视觉框架,为后续编辑打下基础。视频内容编辑:寻光提供了一系列高级视频编辑功能,使用户能够对视频内容进行深度定制。用户可以对视频中的特定目标进行新增、消除或编辑,实现精准的内容调整。支持风格变换,用户可以根据需要调整视频的整体风格和氛围。寻光还提供超分辨率技术和帧率控制,优化视频的质量和流畅度。运镜控制与运动控制:寻光允许用户对视频镜头的运动轨迹和速度进行精细控制,实现平滑的镜头过渡和动态效果。用户可以根据剧情需要,设计复杂的镜头运动,增强视觉叙事的吸引力。前景生成与图层编辑:寻光支持前景元素的生成,用户可以根据视频内容添加或修改前景物体。该平台提供图层拆解功能,用户可以轻松分离视频中的不同元素,进行单独编辑。此外,还支持图层融合,用户可以将多个视频图层融合在一起,创造出复杂的视觉效果。如何使用寻光寻光已开放体验,用户可前往官网进行体验:访问寻光的官方网站(xunguang.com),注册并登录然后点击进入,进入后点击右上角“试用体验版”寻光的目标受众独立视频创作者:对于希望快速制作视频内容的个人创作者来说,寻光提供了从剧本到成片的一系列工具,简化了视频制作的复杂性。专业视频制作团队:专业团队可以利用寻光提升工作效率,尤其是在前期的剧本分析、角色设计和场景规划阶段,以及后期的视频编辑和特效制作。教育机构和学生:在学习视频制作和多媒体设计的过程中,寻光可以作为教学工具,帮助学生理解视频创作的各个环节。企业市场部门:企业可以利用寻光制作产品宣传视频、教学视频或内部培训材料,提高内容生产的效率和质量。动画和游戏开发者:在动画制作和游戏设计中,寻光的角色定制和场景生成功能可以为创作者提供灵感和素材。社交媒体内容创作者:需要制作吸引人的短视频内容的社交媒体用户,可以使用寻光快速生成有趣、有创意的视频。广告和公关行业:在广告创意和公关传播中,寻光可以帮助快速生成吸引眼球的视频广告或宣传材料。电影和电视剧制作人员:在电影和电视剧的前期制作中,寻光可以辅助制作故事板和概念艺术,帮助团队更好地规划拍摄。
暂无评论...

