Gen-2介绍
Runway最新推出的AI视频生成模型,不用文本,一张图,Gen-2就能生成视频。
好玩到停不下来!
这意味着,一部大片,只需要图片就够了,岂不是人人都能成为好莱坞导演。
这不,已经有网友用Gen-2,结合PS修图,MusicGen、AudioLDM等工具配音,做出了「机器人总动员」翻版影片。
有人把Midjourney和Gen-2混搭,视频画面高级质感简直让人惊掉下巴。
有人用时4小时,制作了一部「火焰之旅」预告片,没有任何提示,只是图像!
有了Gen-2,重拍一部「狮子王」,绝对是不可想象的!

手把手教程
首先通过网页https://research.runwayml.com/gen2注册登录runway的账号,进入runway的编辑界面.
点击左侧的Generate Video。
然后点击屏幕中间的Gen-2:Text to Video进入Gen-2。
在左边的区域上传一张照片,小编这里用的是一张由Midjourney生成的机器人的照片。

提示词:Futuristic machine who is a kind robot who wants to save his planet from his human friends, cinematic, digital illustration, stylized, deep depth of field, high definition, –ar 16:9 –v 5.2
然后什么Prompt都不用输入,上传完照片之后就直接点击Generate。大概1分钟之后,一段4秒钟的视频就生成了。
图中的机器人瞬间就动了起来!
数据统计
数据评估
关于Gen-2特别声明
本站智能信息网提供的Gen-2都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由智能信息网实际控制,在2025年4月26日 下午10:51收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,智能信息网不承担任何责任。
相关导航
智谱清流官网智谱清流是智谱AI推出的企业级AI智能体开发平台
Llama 3
Llama 3是什么Llama 3是Meta公司最新开源推出的新一代大型语言模型(LLM),包含8B和70B两种参数规模的模型,标志着开源人工智能领域的又一重大进步。作为Llama系列的第三代产品,Llama 3不仅继承了前代模型的强大功能,还通过一系列创新和改进,提供了更高效、更可靠的AI解决方案,旨在通过先进的自然语言处理技术,支持广泛的应用场景,包括但不限于编程、问题解决、翻译和对话生成。Llama 3的系列型号Llama 3目前提供了两种型号,分别为8B(80亿参数)和70B(700亿参数)的版本,这两种型号旨在满足不同层次的应用需求,为用户提供了灵活性和选择的自由度。Llama-3-8B:8B参数模型,这是一个相对较小但高效的模型,拥有80亿个参数。专为需要快速推理和较少计算资源的应用场景设计,同时保持了较高的性能标准。Llama-3-70B:70B参数模型,这是一个更大规模的模型,拥有700亿个参数。它能够处理更复杂的任务,提供更深入的语言理解和生成能力,适合对性能要求更高的应用。后续,Llama 3 还会推出 400B 参数规模的模型,目前还在训练中。Meta 还表示等完成 Llama 3 的训练,还将发布一份详细的研究论文。Llama 3的官网入口官方项目主页:https://llama.meta.com/llama3/GitHub模型权重和代码:https://github.com/meta-llama/llama3/Hugging Face模型:https://huggingface.co/collections/meta-llama/meta-llama-3-66214712577ca38149ebb2b6Llama 3的改进地方参数规模:Llama 3提供了8B和70B两种参数规模的模型,相比Llama 2,参数数量的增加使得模型能够捕捉和学习更复杂的语言模式。训练数据集:Llama 3的训练数据集比Llama 2大了7倍,包含了超过15万亿个token,其中包括4倍的代码数据,这使得Llama 3在理解和生成代码方面更加出色。模型架构:Llama 3采用了更高效的分词器和分组查询注意力(Grouped Query Attention, GQA)技术,提高了模型的推理效率和处理长文本的能力。性能提升:通过改进的预训练和后训练过程,Llama 3在减少错误拒绝率、提升响应对齐和增加模型响应多样性方面取得了进步。安全性:引入了Llama Guard 2等新的信任和安全工具,以及Code Shield和CyberSec Eval 2,增强了模型的安全性和可靠性。多语言支持:Llama 3在预训练数据中加入了超过30种语言的高质量非英语数据,为未来的多语言能力打下了基础。推理和代码生成:Llama 3在推理、代码生成和指令跟随等方面展现了大幅提升的能力,使其在复杂任务处理上更加精准和高效。Llama 3的性能评估根据Meta的官方博客,经指令微调后的 Llama 3 8B 模型在MMLU、GPQA、HumanEval、GSM-8K、MATH等数据集基准测试中都优于同等级参数规模的模型(Gemma 7B、Mistral 7B),而微调后的 Llama 3 70B 在 MLLU、HumanEval、GSM-8K 等基准测试中也都优于同等规模的 Gemini Pro 1.5 和 Claude 3 Sonnet 模型。此外,Meta还开发了一套新的高质量人类评估集,包含 1800 个提示,涵盖 12 个关键用例:寻求建议、头脑风暴、分类、封闭式问答、编码、创意写作、提取、塑造角色/角色、开放式问答、推理、重写和总结。通过与Claude Sonnet、Mistral Medium和GPT-3.5等竞争模型的比较,人类评估者基于该评估集进行了偏好排名,结果显示Llama 3在真实世界场景中的性能非常出色,最低都有52.9%的胜出率。Llama 3的技术架构解码器架构:Llama 3采用了解码器(decoder-only)架构,这是一种标准的Transformer模型架构,主要用于处理自然语言生成任务。分词器和词汇量:Llama 3使用了具有128K个token的分词器,这使得模型能够更高效地编码语言,从而显著提升性能。分组查询注意力(Grouped Query Attention, GQA):为了提高推理效率,Llama 3在8B和70B模型中都采用了GQA技术。这种技术通过将注意力机制中的查询分组,减少了计算量,同时保持了模型的性能。长序列处理:Llama 3支持长达8,192个token的序列,使用掩码(masking)技术确保自注意力(self-attention)不会跨越文档边界,这对于处理长文本尤其重要。预训练数据集:Llama 3在超过15TB的token上进行了预训练,这个数据集不仅规模巨大,而且质量高,为模型提供了丰富的语言信息。多语言数据:为了支持多语言能力,Llama 3的预训练数据集包含了超过5%的非英语高质量数据,涵盖了超过30种语言。数据过滤和质量控制:Llama 3的开发团队开发了一系列数据过滤管道,包括启发式过滤器、NSFW(不适合工作场所)过滤器、语义去重方法和文本分类器,以确保训练数据的高质量。扩展性和并行化:Llama 3的训练过程中采用了数据并行化、模型并行化和流水线并行化,这些技术的应用使得模型能够高效地在大量GPU上进行训练。指令微调(Instruction Fine-Tuning):Llama 3在预训练模型的基础上,通过指令微调进一步提升了模型在特定任务上的表现,如对话和编程任务。如何使用Llama 3开发人员Meta已在GitHub、Hugging Face、Replicate上开源其Llama 3模型,开发人员可使用torchtune等工具对Llama 3进行定制和微调,以适应特定的用例和需求,感兴趣的开发者可以查看官方的入门指南并前往下载部署。官方模型下载:https://llama.meta.com/llama-downloadsGitHub地址:https://github.com/meta-llama/llama3/Hugging Face地址:https://huggingface.co/meta-llamaReplicate地址:https://replicate.com/meta普通用户不懂技术的普通用户想要体验Llama 3可以通过以下方式使用:访问Meta最新推出的Meta AI聊天助手进行体验(注:Meta.AI会锁区,只有部分国家可使用)访问Replicate提供的Chat with Llama进行体验https://llama3.replicate.dev/使用Hugging Chat(https://huggingface.co/chat/),可手动将模型切换至Llama 3
Pika
Pika是什么Pika是近期热门的人工智能初创公司Pika Labs推出的AI视频生成和编辑工具,该工具可以将任何创意转化为视频,用户只需输入文字或图像,即可快速生成3D动画、动漫、卡通、电影等风格的视频。该AI视频生成工具最早于2023年4月下旬推出测试版,累计已经超过50万名早期用户使用,每周都在生成数百万个视频。不过,目前Pika还在进一步完善中,实际使用来看离大规模投入到真正的生产环境中还有一定的距离。Pika的主要功能文本/图像转视频:只需输入几行文本或上传图像,即可利用AI创建简短的高质量视频视频转视频:将现有视频转换为不同的风格,包括不同的角色和对象,同时保持视频的结构视频画面比例扩展:扩展视频的画布或宽高比,比如从9:16竖屏智能转换为16:9横屏,AI模型将预测超出原始视频边界的内容视频内容改变:AI编辑视频画面中的内容或物体,例如改变某人的衣服、添加另一个角色、改变环境或添加道具Pika的适用人群个人消费者:即使完全不懂任何视频制作的人,也可以轻松使用AI创作和编辑视频短视频创作者:快速生成病毒性传播的短视频,在TikTok上带有#pikalabs标签的短视频累计超过3000万次观看电影专业人员:AI将剧本生成分镜初稿,激发摄影灵感并辅助后期电影视频编辑如何使用Pika访问Pika的官网(pika.art),点击使用谷歌或Discord账号登录官网,加入等待列表你也可以直接点击Discord邀请链接(https://discord.com/invite/pika)加入其Discord社区抢先体验加入Pika的Discord社区后,选择任意一个生成频道如#generate-1,然后在输入框中输入/create+提示指令最后等待Pika将视频生成即可常见问题Pika是免费的吗?Pika目前处于免费公测中,用户可以加入Discord频道中体验,后续可能推出付费版本。Pika可以生成多长时间的视频?Pika目前默认生成的视频长度只有3秒钟,后续更新可能支持生成更长时间。Pika生成的视频可以商用吗?目前可以将Pika生成的视频免费商用,不过后期若Pika结束测试或推出付费版,该政策可能有变化。
SoundView
SoundView是什么SoundView(声动视界)是AI视频本地化工具,支持视频配音和视频翻译。SoundView集成多语种翻译、语音合成、语音识别和大模型技术,简化、加速产品营销视频的创作。SoundView支持100种语言的配音和字幕编辑,让视频制作效率提升10倍,视频翻译成本降低90%。SoundView能为无声视频添加真实人声,增强视频感染力,提高转化率。SoundView通过模仿原音色配音,提升优质素材复用率至5倍,是企业全球营销的得力助手。SoundView的主要功能多语种配音:提供视频翻译和配音服务,支持中、英、法、德、日、韩、俄、泰语等100种语言的翻译。快速实现视频的多语种配音,大幅提升视频制作效率。字幕实时在线编辑:支持字幕实时在线编辑。编辑后的字幕能一键合成音频。翻译字幕自动对齐音频:支持翻译字幕与音频的自动对齐。支持手动调节语速,以适应不同的配音需求。无声配音:为原本无声的视频添加真实人声口播,提升视频的表现力和感染力。音色模仿:模仿视频原音色进行配音,编辑优质素材的口播文稿,提升优质素材的复用率。如何使用SoundView访问网站:访问SoundView官网,根据提示完成注册登录。选择服务:根据您的需求选择服务类型,比如视频翻译、视频配音、文本配音等。视频翻译:选择目标语言,将视频内容翻译成所需的语言。编辑和校对翻译后的字幕,确保准确性。视频配音:选择适合的音色为视频配音。调整语速和语调以匹配视频内容。预览和调整:预览配音和翻译后的视频,如不符合要求,进行编辑和调整。导出视频:完成所有编辑后,导出配音完成的视频文件。分享视频:将导出的视频分享到社交媒体、网站或其他营销渠道。SoundView的产品定价3分钟:免费试用。5分钟:¥25。15分钟:¥59。50分钟:¥159。会员权益:最多支持100种语言、视频配音、 视频翻译、 音频生成、系统音色库、音量编辑器、AI脚本修改。SoundView的应用场景跨境电商:将产品介绍视频翻译成不同语言,适应不同国家的市场。国际营销:为国际品牌制作多语种的营销视频,扩大全球影响力。社交媒体内容创作:为社交媒体平台(如TikTok、Instagram、Facebook)创作多语种的视频内容。教育和培训:制作多语种的教育视频,提供给不同语言背景的学生。旅游和文化推广:制作旅游宣传视频,介绍不同国家的文化和景点。
Segment Anything(SAM): Meta最新推出的AI图像分割模型
Segment Anything Model(SAM)是Meta AI研究院最新推出的图像分割模型,该模型通过点或框等输入提示生成高质量的物体遮罩,并且可以用于为图像中的所有物体和对象生成遮罩。SAM模型在超过1100万张图像和11亿张掩模的数据集上进行了训练,并且在各种图像分割任务上具有强大的零样本性能。
Humva
Humva是什么Humva 是创新的AI数字人生成工具,专注于为用户提供个性化数字形象和视频内容制作服务。通过简单易用的界面,用户能快速创建专属的数字人,支持多种背景、性别、行业和服装选择,满足不同场景需求。 Humva 的核心优势在于强大的定制化功能和高效的内容生成能力。用户可以输入脚本,快速生成高质量的视频内容,适用于社交媒体、产品推广、教育培训等多种场景。Humva的主要功能自定义数字人生成:用户可以通过上传一张照片或选择预设模板,快速生成个性化的虚拟形象。平台提供丰富的自定义选项,包括发型、服装、肤色、姿势和动作等,满足不同用户的需求。一键生成视频内容:Humva 支持将文本脚本转化为视频内容,用户只需输入脚本并选择虚拟角色,即可生成高质量的视频。视频主持人生成:提供数千种视频主持人选择,适用于社交媒体内容、产品介绍等多种用途。定制化视频内容:用户可以输入脚本并生成定制化的视频内容,支持多语言和多种口音。多语言支持与全球化应用:Humva 支持多种语言,能满足不同国家和地区用户的需求,帮助企业和创作者在全球范围内进行内容推广。如何使用Humva访问官网并注册:访问 Humva 的官方网站,注册账户并登录。创建数字人:在平台上选择“创建数字人”。 选择一个形象模板,如卡通风格或写实风格。 使用自定义功能调整虚拟形象的外观,包括发型、服装、肤色等。 调整虚拟形象的姿势和动作,符合使用场景。生成视频内容:选择一个虚拟形象作为视频代言人。 输入脚本或台词,根据需要调整虚拟形象的情感和语气。 点击“生成视频”,Humva 会根据输入内容生成视频。下载与分享:视频生成后,点击“导出视频”或“下载”按钮。 将生成的视频分享到社交媒体或其他平台。Humva的应用场景社交媒体内容创作:通过个性化的数字分身丰富内容,吸引更多关注者。产品介绍与推广:用虚拟主持人进行产品介绍,提升展示效果。教育与培训:创建虚拟讲师,制作生动的教学视频。企业宣传:定制企业形象代言人,制作品牌宣传视频。
Viva
Viva是什么Viva是由智象未来(HiDream.ai)推出的一个免费的AI创意视觉生成平台,提供文本到图像、文本到视频、图像到视频等多种生成功能。用户只需输入描述性的文字或上传图片,Viva AI就能生成具有逼真效果的短视频。该平台具备AI视频生成、AI图像增强、视频增强、创意滤镜、和自动背景移除等特性,支持多种视频参数设置,如长宽比、运动强度等,并且提供4K分辨率放大,旨在帮助用户轻松创造和提升视觉内容,让每个瞬间都变得生动。Viva的主要功能AI视频生成:Viva AI突破了传统视频制作的界限,能够根据文本描述(文生视频)或现有图像(图生视频)生成引人入胜的视频内容,为视频创作者提供了无限的可能性。AI图像生成:利用AI的强大能力,Viva AI能够根据用户的文本描述或现有图像,创造出全新的视觉作品,极大地丰富了图像创作的维度。AI图像增强:平台的AI图像增强功能可以显著提升图像的清晰度、色彩和细节,使得每一张图像都焕发出专业级别的光彩。AI视频增强:Viva AI的视频增强技术能够对视频内容进行深度优化,无论是提高分辨率(最高4K)还是增强动态效果,都能让视频内容更加生动和吸引人。图像重绘:Viva AI的图像重绘功能允许用户对图像进行风格转换或外观调整,满足个性化设计的需求,创造出独一无二的视觉体验。图像扩展:通过智能算法,Viva AI能够无缝扩展图像的画幅或内容,同时保持图像质量,为用户提供更大的创作空间。图像消除:Viva AI的自动背景移除功能,使用户能够轻松去除图像中的背景元素,专注于突出主题,简化了复杂的图像编辑过程。如何使用Viva生成视频访问Viva的官网(vivago.ai/video),国内版为HiDream.ai选择Text to Video文生视频输入提示词,设置负面提示词、视频画面比例和运动强度最后点击Generate等待视频生成即可你也可以选择Image to Video上传图片进行图生视频Viva的应用场景社交媒体内容:创作者可以利用Viva生成有趣的视频内容,用于吸引粉丝和提高社交媒体平台的互动率。广告制作:企业或个人可以使用Viva快速制作广告视频,节省成本同时保持创意和吸引力。电影和视频制作:电影制作人和视频编辑者可以使用Viva作为前期创意和概念验证的工具。艺术创作:艺术家和设计师可以使用Viva将他们的创意想法转化为视觉作品,探索新的艺术表现形式。个人娱乐:用户可以为自己或朋友制作个性化的视频,用于纪念特殊时刻或分享生活趣事。
讯飞绘镜
讯飞绘镜官网一款由科大讯飞推出的AI文生视频创作平台,可以轻
暂无评论...

