Gen-2介绍
Runway最新推出的AI视频生成模型,不用文本,一张图,Gen-2就能生成视频。
好玩到停不下来!
这意味着,一部大片,只需要图片就够了,岂不是人人都能成为好莱坞导演。
这不,已经有网友用Gen-2,结合PS修图,MusicGen、AudioLDM等工具配音,做出了「机器人总动员」翻版影片。
有人把Midjourney和Gen-2混搭,视频画面高级质感简直让人惊掉下巴。
有人用时4小时,制作了一部「火焰之旅」预告片,没有任何提示,只是图像!
有了Gen-2,重拍一部「狮子王」,绝对是不可想象的!

手把手教程
首先通过网页https://research.runwayml.com/gen2注册登录runway的账号,进入runway的编辑界面.
点击左侧的Generate Video。
然后点击屏幕中间的Gen-2:Text to Video进入Gen-2。
在左边的区域上传一张照片,小编这里用的是一张由Midjourney生成的机器人的照片。

提示词:Futuristic machine who is a kind robot who wants to save his planet from his human friends, cinematic, digital illustration, stylized, deep depth of field, high definition, –ar 16:9 –v 5.2
然后什么Prompt都不用输入,上传完照片之后就直接点击Generate。大概1分钟之后,一段4秒钟的视频就生成了。
图中的机器人瞬间就动了起来!
数据统计
数据评估
关于Gen-2特别声明
本站智能信息网提供的Gen-2都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由智能信息网实际控制,在2025年4月26日 下午10:51收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,智能信息网不承担任何责任。
相关导航
通义千问官网通义千问是基于的大语言模型的产品,它利用自然语言
Gradio
Gradio是一个开源的Python库,用于构建演示机器学习或数据科学,以及web应用程序。你可以使用Gradio基于自己的机器学习模型或数据科学工作流快速创建一个漂亮的用户界面,让用户可以尝试拖放他们自己的图像、输入文本、录制他们自己的声音,并通过浏览器与你的演示程序进行交互。Google、HuggingFace、亚马逊、Meta、思科、VMware等公司都在使用。Gradio适用于:向客户/合伙人/用户/学生演示您的机器学习模型。通过自动共享链接快速部署您的模型,并获得模型性能反馈。在开发过程中使用内置的操作和解释工具交互式地调试模型。
OneStory
OneStory是什么OneStory是一款创新的AI故事生成助手,用户只需输入文字描述,AI能帮你生成连贯的图片和视频,无需专业技能。无论是角色设计、场景布局还是动画制作。OneStory就像一个智能故事机,你只要告诉它你的故事,就能帮你画出角色、场景,甚至还能做成动画视频。OneStory让创作故事和视频变得像说话一样简单。OneStory的主要功能AI智能画笔:使用AI文生图、文生视频技术,将用户的文字描述转换成图像和视频,让创意快速可视化。一键生成分镜脚本:将剧本或创意文稿自动转化为专业分镜脚本和故事板,简化制作流程。影视级图像创作:即使没有美术基础,用户也能通过AI快速创作出高质量的图像故事。画面元素级控制:提供文本提示词和图像编辑器,支持用户对画面中的单个元素进行精准控制和修改。角色资产库构建:支持用户通过提示词和人物形象图片,创建个性化的角色库,打造独特的IP形象。多场景适用性:适用于多种不同的创作场景和案例,满足不同用户的个性化需求。如何使用OneStory产品官网:访问 onestory.art ,微信扫码注册登录账号。明确创作目标:在开始之前,想清楚你想要创作的主题和风格,例如是卡通形象、科幻战士还是古装仙子等。输入描述:在OneStory的输入框中,详细描述你的角色或场景,包括外貌特征、服装、表情、动作和环境等。使用关键词:尽量使用具体和丰富的关键词来描述,AI能更准确地理解并生成你想要的图像。调整参数:根据需要,调整生成图像的参数,比如分辨率、尺寸比例等。生成图像:输入描述和调整参数后,点击生成按钮,AI将根据你的描述创建图像。筛选和优化:需要多次生成,从多个结果中选择最满意的图像,可使用局部编辑功能来调整不满意的细节。系列化创作:要保持角色或场景的一致性,尽量在后续创作中保持关键词和描述的一致性,只对细节进行微调。一键生成视频:如果你想将图像串联成视频,OneStory支持视频生成功能,可根据生成的图像一键制作动画视频。OneStory怎么收费OneStory提供多种订阅方案,主要包括:免费用户:基础试用服务。普通会员:18元/月,180元/年,提供100个项目、600次重绘、8000字字符数,以及AI编辑器优先体验。高级会员:38元/月,380元/年,提供500个项目、2000次重绘、15000字字符数。团队会员:价格定制,包括团队协作功能如多人编辑和图片批注。OneStory的应用场景个人创作:个人艺术家和爱好者可以用OneStory快速将创意转化为视觉作品,不论是绘画、插图还是动画。教育领域:教师和学生可用OneStory进行故事叙述、角色设计和场景构建教学活动,提高学生的创造力和想象力。电影和电视制作:电影制作人和电视制片人可使用OneStory来生成分镜脚本和故事板,加快前期制作流程。游戏开发:游戏开发者可使用OneStory来设计游戏角色、环境和动画,提高开发效率。虚拟现实和增强现实:VR和AR开发者可以用OneStory来创造沉浸式体验的视觉效果。企业宣传:企业用OneStory来制作宣传材料,如产品介绍视频、公司故事等,更生动地展示企业形象。出版物设计:出版行业可以用OneStory来设计书籍封面、插图和漫画,提升出版物的吸引力。艺术展览和画廊:艺术家可以用OneStory来创作数字艺术作品,用于线上或线下的艺术展览。
MOKI
MOKI是什么MOKI是美图公司推出的AI视频短片创作平台,专注于辅助视频创作者打造动画短片、网文短剧、故事绘本和音乐视频(MV),基于美图自研的奇想智能大模型(MiracleVision),通过智能剪辑、自动配乐、音效添加和字幕生成等功能,大幅简化视频制作流程,提高创作效率。MOKI深度理解创作者需求,实现内容和成本的双重可控,让视频创作变得更加简单和高效。MOKI的主要功能AI短片创作:MOKI支持用户创作多种类型的视频内容,包括动画短片、网文短剧、故事绘本和音乐视频等,满足不同创作需求。MOKI通过AI技术,提供创意构思辅助,帮助用户快速生成视频脚本和故事板。智能剪辑:MOKI利用AI算法自动识别视频中的关键帧,确保剪辑过程中重要内容不被遗漏。根据视频内容的节奏和情感变化,MOKI会智能调整剪辑节奏,使视频更加流畅和富有表现力。AI配乐:MOKI的AI配乐功能可以根据视频的主题和情感氛围,自动匹配合适的背景音乐。提供丰富的版权音乐库,确保用户使用的背景音乐合法且多样。音效添加:MOKI能够根据视频的具体场景,自动添加环境音效或特定动作音效,增强视频的真实感。平台提供广泛的音效资源,用户可以根据需要选择和调整音效。自动字幕:MOKI通过先进的语音识别技术,自动将视频中的对话转换成文字,并支持多种语言的字幕生成,满足不同地区用户的需求。内容可控性:虽然MOKI提供自动化的创作流程,但用户仍然可以对生成的内容进行细致的编辑和调整。用户可以根据自己的创意和需求,对视频的各个方面进行个性化定制。如何使用MOKIMOKI的官方网站(moki.cn)已正式上线,开放内测体验。申请内测:访问官网,申请内测创建一个账户并登录MOKI平台。前期准备:准备视频的脚本、确定视觉风格和角色设定。脚本输入:将脚本输入到MOKI中,可以是文本形式,也可以是更详细的分镜头脚本。角色和风格设置:在MOKI中设置角色的外观、动作和表情,以及整个视频的视觉风格。自动生成分镜图:利用MOKI的AI技术,根据输入的脚本和设置自动生成分镜图。视频素材生成:将分镜图转换为视频素材,MOKI可能提供一些定制选项以调整生成的视频效果。智能剪辑:使用MOKI的智能剪辑功能,自动对视频素材进行剪辑,以达到理想的视频长度和节奏。AI配乐和音效:根据视频内容,MOKI自动选择合适的背景音乐和音效,创作者也可以手动选择或调整。自动字幕生成:MOKI自动识别视频中的对话并生成字幕,创作者可以编辑和校对字幕以确保准确性。细节调整:对生成的视频进行细节调整,如人物动作的微调、场景的优化等。最终输出:完成所有编辑和调整后,MOKI可以输出最终的视频文件,供创作者分享或发布。MOKI的工作流程MOKI的AI短片工作流与传统视频制作流程相比,在多个方面实现了效率的显著提升前期准备阶段:用户首先利用MOKI的AI功能快速生成视频脚本,这一过程可以根据用户的需求和创意快速完成。接着,用户可以选择视频的视觉风格和角色设计,MOKI提供多样化的风格选项,以适应不同的故事背景和用户偏好。分镜图与视频素材生成阶段:在脚本和视觉元素确定后,MOKI的AI将智能生成连续的分镜图,这些分镜图为视频制作提供了详细的视觉规划。用户可以对生成的分镜图进行局部重绘和调整,以确保每个场景都符合创意愿景。利用美图奇想大模型的强大能力,分镜图被转化为具有动态效果的视频片段,大大减少了传统拍摄和动画制作的时间与成本。后期制作与优化阶段:用户通过MOKI的智能剪辑功能,将所有视频素材流畅地串联起来,形成初步的视频草稿。AI音效和AI配乐功能根据视频内容自动添加合适的音效和背景音乐,增强视频的听觉体验。自动字幕功能确保视频的对话部分有准确的文字描述,提高视频的可访问性。如果有需要改进的地方,MOKI支持用户进行多次精细化剪辑和调优,直到达到满意的效果。
腾讯混元AI视频
腾讯混元AI视频是什么腾讯混元AI视频是腾讯推出的强大的AI视频生成工具,具备高度的创新性和实用性。用户可以通过平台生成高质量的视频内容,支持创意视频制作、特效生成,动画与游戏开发,满足多样化的需求。用户可以通过上传一张图片进行简短描述,让图片动起来生成5秒的短视频。支持对口型、动作驱动和背景音效自动生成等功能。能根据文本提示生成相应的视频内容。在画质、物体运动、镜头切换等方面表现出色,能理解和遵循复杂的提示词,生成具有大片质感的视频。腾讯混元AI视频的主要功能图生视频生成:用户上传一张图片并输入简短描述,平台可将静态图片转化为5秒的短视频,同时支持自动生成背景音效。文生视频生成:根据文本提示生成相应的视频内容,支持多语言输入,能理解和生成中文和英文视频。音频驱动功能:用户上传人物图片并输入文本或音频,模型能精准匹配嘴型,让图片中的人物“说话”或“唱歌”。动作驱动功能:用户上传图片后选择动作模板,模型可让图片中的人物完成跳舞、挥手等动作。多镜头生成与自然转场:能根据文本提示生成多个镜头,并实现镜头之间的自然切换。高质量视频输出:支持2K高清画质,适用于写实、动漫和CGI等多种角色和场景。如何使用腾讯混元AI视频访问官网:访问腾讯混元AI视频的官方网站。注册/登录:点击“登录”,输入相应的账号信息并完成登录。开始创作:登录后,进入创作页面,选择“图生视频”或“文生视频”等功能。图生视频:上传一张图片,输入简短描述,平台将生成5秒的短视频,同时支持自动生成背景音效。文生视频:输入文本提示词,平台会根据文本生成相应的视频内容,支持多语言输入,可生成高清画质的视频。调整参数(可选):风格:选择视频的风格(如写实、动漫、CGI等)。镜头运动:设置镜头的运动方式(如平移、旋转等)。物体运动:指定物体的动作(如跳舞、挥手等)。分辨率:选择生成视频的分辨率(如高清、标清等)。生成视频:点击“生成”按钮,等待平台完成视频生成。下载视频:生成完成后,可以下载生成的视频到本地。使用腾讯云API接口(开发者)申请API接口:企业和开发者可以通过腾讯云申请API接口。开发集成:根据腾讯云提供的API文档,将混元AI视频生成能力集成到自己的应用或服务中,实现更高效的视频生成和定制化开发。本地部署(高级用户)环境准备:硬件要求:NVIDIA显卡,支持CUDA,最低60GB显存(生成720p视频),推荐80GB显存。操作系统:Linux(官方测试环境)。CUDA版本:推荐CUDA 11.8或12.0。克隆源码:访问Github仓库克隆代码。安装依赖:安装所需的环境依赖。下载预训练模型:从官方提供的链接下载预训练模型文件。运行推理:使用平台提供的脚本运行模型,生成视频。腾讯混元AI视频的应用场景短视频创作:用户可以通过上传图片或输入文本描述,快速生成个性化的短视频内容,用于社交媒体分享。例如,输入一段描述“一位中国美女穿着汉服,头发随风飘扬,背景是张家界”,即可生成相应的视频。动画制作:能够生成具有连贯动作和丰富场景的动画视频,支持多种风格,如写实、动漫、CGI等,适用于动画短片、动画广告等创作。比如生成“一只戴红围巾的企鹅在花海散步”的动画场景。特效制作:可以生成各种特效视频,如科幻场景、魔法效果、粒子特效等,为影视、游戏等提供特效素材。广告宣传:根据产品或服务的特点,生成吸引人的广告视频,提升广告的吸引力和效果。
绘蛙AI视频
绘蛙AI视频是什么绘蛙AI视频是绘蛙推出的AI电商营销视频内容创作平台,帮助用户快速生成高质量的电商营销视频。平台提供多种功能,满足不同场景下的视频创作需求。 用户可以通过上传单张全身模特图片或最多4张图片,AI技术生成动态视频。单图生成视频功能适合展示单个产品的动态效果,多图生成连贯短片功能适合制作展示多个产品或多个场景的视频内容。平台支持多种图片格式(jpg/jpeg/png/heic/webp),要求图片大小在20K到15M之间,分辨率大于600×800。可以选择视频的时长(如5秒或10秒)和画质,确保生成的视频符合高质量标准。绘蛙AI视频的主要功能图片生成视频:用户上传全身模特图,绘蛙AI能将静态图片转换成动态视频内容,增加商品展示的吸引力。多图生成连贯短片:用户可以上传最多4张图片,AI将这些图片组合成一个连贯的视频短片。大小20K~15M,分辨率大于600×800,支持jpg/jpeg/png/heic/webp格式。单图生成视频:用户上传单张全身模特图片,AI将生成一个动态视频。自定义动作:用户可以选择模特的动作,如“右手摸嘴角”“向前模特步”“原地旋转一圈”等,生成更具个性化的视频。支持模特女人、男人、女孩、男孩等不同主体类型。高清画质与视频时长选择:用户可以选择生成视频的画质和时长(如5秒或10秒),确保视频质量和符合使用需求。内容描述与限制:用户可以输入视频内容描述(非必填),帮助AI更好地理解生成意图;也可以输入不希望出现的内容,如“毁容变形”“低品质模糊”等,以优化视频效果。视频编辑和优化:支持用户对生成的视频进行进一步的优化和调整,满足特定的营销需求。多场景适配:生成的视频内容可以适用于多种电商场景,如社交媒体营销、产品展示、广告投放等。一键式操作:只需上传图片,自动处理并生成视频,简化了视频制作的复杂流程。高分辨率支持:支持高分辨率图片上传,确保视频输出的清晰度和质量。如何使用绘蛙AI视频访问绘蛙AI视频官网:访问绘蛙AI视频官网,注册登录账号,使用AI视频工具。选择功能:可选择自定义动作、多图成片、模板动作等功能。上传图片:上传符合要求的全身模特图。图片大小应在20K到15M之间,分辨率大于600×800像素。选择动态模板:上传图片后,根据需要选择合适的动态模板或者相关参数等。生成视频:开始生成动态视频,绘蛙AI将开始处理您上传的图片,转换成视频内容。预览和编辑:视频生成后,预览视频内容。可以对视频进行进一步的调整和优化。下载视频:确认视频内容满意后,将视频保存到设备本地。绘蛙AI视频的应用场景电商产品展示:用于电商平台的商品详情页,通过视频展示商品的使用方式、特点和效果,提高商品的吸引力。社交媒体营销:在社交媒体平台上发布视频内容,吸引粉丝和潜在客户的注意力,增加品牌的曝光度。广告宣传:制作广告视频,用于线上或线下的广告投放,以动态视频的形式传达广告信息。时尚和服装展示:展示服装模特穿着效果,为时尚品牌和服装电商提供动态的服装展示。
Vozo
Vozo是什么Vozo是一款多功能AI视频编辑工具,支持一键脚本重写、自动配音、文本驱动的语音编辑、多角色口型同步、专业多语言翻译和自动视频优化,为用户提供高效、灵活的视频创作解决方案。Vozo简化了视频编辑过程,为内容创作者提供了广阔的创意空间,支持视频内容的国际化和个性化传播,推动视频内容创作和分发进入一个多元化、个性化的新时代。Vozo的主要功能智能视频重写与重配音:Vozo能根据用户给出的提示自动重写视频脚本,并生成与原视频声音相似的配音,视频内容可以快速适应不同的语境和风格。文本驱动的语音编辑:用户可直接通过编辑文本来调整视频的解说,无需重新录制音频,同时可以选择合适的口音、语调和情感,以匹配视频内容的需要。多角色口型同步:Vozo采用先进技术实现视频中多个角色的口型同步,确保对话看起来自然流畅,增强了视频的真实感和沉浸感。专业视频翻译:支持将视频内容翻译成多种语言和方言,翻译准确度高,帮助创作者轻松实现内容的国际化,拓宽受众范围。自动视频优化:Vozo能够自动调整视频的裁剪、重构和比例,适应不同社交平台的格式要求,确保视频在各个平台上都能以最佳状态呈现。如何使用Vozo下载和安装:访问Vozo的官网(vozo.ai)下载Vozo应用程序,并按照指示完成安装。注册和登录:安装完成后,打开Vozo应用程序,注册账户或使用现有账户登录。导入视频:登录后,导入需要编辑的视频文件。智能视频重写与重配音:选择视频后,使用智能视频重写功能,输入新的脚本提示。Vozo将根据提示自动生成新的配音,可以预览并调整以确保配音与视频内容匹配。多角色口型同步:如果视频中有多个角色对话,可以使用口型同步功能,确保每个角色的口型与配音同步。导出和分享:编辑完成后,预览整个视频,确认无误后导出视频文件。Vozo提供多种视频格式和质量选项供选择。导出后,可将视频分享到社交媒体或其他平台。Vozo的应用场景视频内容的二次创作:Vozo允许用户通过简单的提示词来重写视频脚本,并自动生成与原声相似的配音,将经典视频转化为病毒营销视频或喜剧效果 。广告和营销:广告公司可利用Vozo快速创建针对不同受众的多版本广告,提高创意效率 。多语言视频制作:Vozo支持将视频翻译成30多种语言和方言,翻译准确度高达98.9%,帮助营销人员和电商将产品视频翻译成多种语言,扩大全球市场影响力 。视频配音和文本编辑:可直接通过编辑文本来修改视频解说,无需重新录音,系统提供多种口音、语调和情感选项,提高视频内容的灵活性和表现力 。多角色口型同步:Vozo采用先进技术,能为视频中的多个角色实现自然流畅的口型同步,确保对话看起来真实自然。视频格式自动优化:Vozo能自动裁剪、重构和调整视频比例,以适应不同社交平台的要求,确保内容在各种平台上都能以最佳格式呈现。
StableVicuna:StabilityAI推出的第一个通过RLHF训练的大规模开源聊天机器人
StableVicuna 是由 Stable Diffusion 背后的 StabilityAI 推出的第一个通过基于人类反馈的强化学习(RLHF)训练的大规模开源聊天机器人。StableVicuna是Vicuna v0 13b的进一步指令微调和RLHF训练版本,它是一个指令微调的 LLaMA 130亿模型。
暂无评论...

