Gen-2介绍
Runway最新推出的AI视频生成模型,不用文本,一张图,Gen-2就能生成视频。
好玩到停不下来!
这意味着,一部大片,只需要图片就够了,岂不是人人都能成为好莱坞导演。
这不,已经有网友用Gen-2,结合PS修图,MusicGen、AudioLDM等工具配音,做出了「机器人总动员」翻版影片。
有人把Midjourney和Gen-2混搭,视频画面高级质感简直让人惊掉下巴。
有人用时4小时,制作了一部「火焰之旅」预告片,没有任何提示,只是图像!
有了Gen-2,重拍一部「狮子王」,绝对是不可想象的!

手把手教程
首先通过网页https://research.runwayml.com/gen2注册登录runway的账号,进入runway的编辑界面.
点击左侧的Generate Video。
然后点击屏幕中间的Gen-2:Text to Video进入Gen-2。
在左边的区域上传一张照片,小编这里用的是一张由Midjourney生成的机器人的照片。

提示词:Futuristic machine who is a kind robot who wants to save his planet from his human friends, cinematic, digital illustration, stylized, deep depth of field, high definition, –ar 16:9 –v 5.2
然后什么Prompt都不用输入,上传完照片之后就直接点击Generate。大概1分钟之后,一段4秒钟的视频就生成了。
图中的机器人瞬间就动了起来!
数据统计
数据评估
关于Gen-2特别声明
本站智能信息网提供的Gen-2都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由智能信息网实际控制,在2025年4月26日 下午10:51收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,智能信息网不承担任何责任。
相关导航
OpenBMB全称为Open Lab for Big Model Base,旨在打造大规模预训练语言模型库与相关工具, 加速百亿级以上大模型的训练、微调与推理,降低大模型使用门槛,与国内外开发者共同努力形成大模型开源社区, 推动大模型生态发展,实现大模型的标准化、普及化和实用化,让大模型飞入千家万户。OpenBMB开源社区由清华大学自然语言处理实验室和智源研究院语言大模型加速技术创新中心共同支持发起。 发起团队拥有深厚的自然语言处理和预训练模型研究基础,近年来围绕模型预训练、提示微调、模型压缩技术等方面在顶级国际会议上发表了数十篇高水平论文。
通义千问
通义千问官网通义千问是基于的大语言模型的产品,它利用自然语言
度加创作工具
度加创作工具-度加剪辑官网文案成片、文章成片、素材匹配、一键
DeepFloyd IF:StabilityAI旗下的DeepFloyd团队推出的图片生成模型
DeepFloyd IF是由StabilityAI旗下的DeepFloyd研究团队推出的开源的文本到图像生成模型,IF是一个基于级联方法的模块化神经网络。IF是由多个神经模块(处理特定任务的独立神经网络)构建的,在一个架构内联合起来产生协同效应。IF以级联方式生成高分辨率图像:从产生低分辨率样本的基础模型开始,然后由一系列的升级模型提升,以创造令人惊叹的高分辨率图像。IF的基础和超分辨率模型采用扩散模型,利用马尔可夫链步骤将随机噪声引入数据中,然后再反转过程,从噪声中生成新的数据样本。IF在像素空间内操作,而不是依赖潜伏图像表征的潜伏扩散(如稳定扩散)。
Ollama
Ollama是一个用于在本地计算机上运行大型语言模型的命令行工具,允许用户下载并本地运行像Llama 2、Code Llama和其他模型,并支持自定义和创建自己的模型。该免费开源的项目,目前支持macOS和Linux操作系统,未来还将支持Windows系统。此外,Ollama还提供了官方的Docker镜像,由此使用Docker容器部署大型语言模型变得更加简单,确保所有与这些模型的交互都在本地进行,无需将私有数据发送到第三方服务。Ollama在macOS和Linux上支持GPU加速,并提供了简单的命令行界面(CLI)以及用于与应用程序交互的REST API。该工具对于需要在本地机器上运行和实验大语言模型的开发人员或研究人员来说特别有用,无需依赖外部云服务。Ollama安装包获取获取Ollama安装包,扫码关注回复:OllamaOllama支持的模型Ollma提供一个模型库,用户可以自行选择安装想要运行的模型,目前支持40+的模型,还在持续增加中,以下是可以下载的开源模型示例:模型参数大小文件大小下载运行命令DeepSeek-R11.5B、7B、14B、32B等12-320GBollama run deepseek-r1Neural Chat7B4.1GBollama run neural-chatStarling7B4.1GBollama run starling-lmMistral7B4.1GBollama run mistralLlama 27B3.8GBollama run llama2Code Llama7B3.8GBollama run codellamaLlama 2 Uncensored7B3.8GBollama run llama2-uncensoredLlama 2 13B13B7.3GBollama run llama2:13bLlama 2 70B70B39GBollama run llama2:70bOrca Mini3B1.9GBollama run orca-miniVicuna7B3.8GBollama run vicuna
腾讯混元大模型
腾讯混元大模型介绍腾讯混元大模型是由腾讯全链路自研的通用大语
Vozo
Vozo是什么Vozo是一款多功能AI视频编辑工具,支持一键脚本重写、自动配音、文本驱动的语音编辑、多角色口型同步、专业多语言翻译和自动视频优化,为用户提供高效、灵活的视频创作解决方案。Vozo简化了视频编辑过程,为内容创作者提供了广阔的创意空间,支持视频内容的国际化和个性化传播,推动视频内容创作和分发进入一个多元化、个性化的新时代。Vozo的主要功能智能视频重写与重配音:Vozo能根据用户给出的提示自动重写视频脚本,并生成与原视频声音相似的配音,视频内容可以快速适应不同的语境和风格。文本驱动的语音编辑:用户可直接通过编辑文本来调整视频的解说,无需重新录制音频,同时可以选择合适的口音、语调和情感,以匹配视频内容的需要。多角色口型同步:Vozo采用先进技术实现视频中多个角色的口型同步,确保对话看起来自然流畅,增强了视频的真实感和沉浸感。专业视频翻译:支持将视频内容翻译成多种语言和方言,翻译准确度高,帮助创作者轻松实现内容的国际化,拓宽受众范围。自动视频优化:Vozo能够自动调整视频的裁剪、重构和比例,适应不同社交平台的格式要求,确保视频在各个平台上都能以最佳状态呈现。如何使用Vozo下载和安装:访问Vozo的官网(vozo.ai)下载Vozo应用程序,并按照指示完成安装。注册和登录:安装完成后,打开Vozo应用程序,注册账户或使用现有账户登录。导入视频:登录后,导入需要编辑的视频文件。智能视频重写与重配音:选择视频后,使用智能视频重写功能,输入新的脚本提示。Vozo将根据提示自动生成新的配音,可以预览并调整以确保配音与视频内容匹配。多角色口型同步:如果视频中有多个角色对话,可以使用口型同步功能,确保每个角色的口型与配音同步。导出和分享:编辑完成后,预览整个视频,确认无误后导出视频文件。Vozo提供多种视频格式和质量选项供选择。导出后,可将视频分享到社交媒体或其他平台。Vozo的应用场景视频内容的二次创作:Vozo允许用户通过简单的提示词来重写视频脚本,并自动生成与原声相似的配音,将经典视频转化为病毒营销视频或喜剧效果 。广告和营销:广告公司可利用Vozo快速创建针对不同受众的多版本广告,提高创意效率 。多语言视频制作:Vozo支持将视频翻译成30多种语言和方言,翻译准确度高达98.9%,帮助营销人员和电商将产品视频翻译成多种语言,扩大全球市场影响力 。视频配音和文本编辑:可直接通过编辑文本来修改视频解说,无需重新录音,系统提供多种口音、语调和情感选项,提高视频内容的灵活性和表现力 。多角色口型同步:Vozo采用先进技术,能为视频中的多个角色实现自然流畅的口型同步,确保对话看起来真实自然。视频格式自动优化:Vozo能自动裁剪、重构和调整视频比例,以适应不同社交平台的要求,确保内容在各种平台上都能以最佳格式呈现。
StableLM:Stability AI推出的开源的类ChatGPT大语言模型
StableLM是由Stable Diffusion背后的团队Stability AI最新推出的开源的类ChatGPT大语言模型,该模型目前处于Alpha版本,拥有的参数量分别为30亿和70亿,后续还将推出150亿到650亿参数模型。
暂无评论...

