MLX

9个月前发布 9,455 0 0

MLX是由苹果的机器学习研究团队推出的用于机器学习的阵列框架,该开源框架专为 Apple Silicon 芯片而设计优化,从NumPy、PyTorch、Jax和ArrayFire等框架中吸取灵感,提供简单友好的使用方法,帮助开发人员在苹果M系列芯片上有效地开发、训练和部署模型。MLX的主要功能熟悉的 API:MLX 有一个紧随 NumPy...

收录时间:
2025-04-23

MLX是由苹果的机器学习研究团队推出的用于机器学习的阵列框架,该开源框架专为 Apple Silicon 芯片而设计优化,从NumPy、PyTorch、Jax和ArrayFire等框架中吸取灵感,提供简单友好的使用方法,帮助开发人员在苹果M系列芯片上有效地开发、训练和部署模型。

MLX的主要功能

  • 熟悉的 API:MLX 有一个紧随 NumPy 的 Python API。MLX 还拥有功能齐全的 C++ API,与 Python API 非常相似。
  • 可组合的函数转换:MLX 支持用于自动微分、自动向量化和计算图优化的可组合函数转换。
  • 惰性计算:MLX 中的计算是惰性计算,数组仅在需要时才会具体化。
  • 动态图构建:MLX 中的计算图是动态构建的。更改函数参数的形状不会触发缓慢的编译,并且调试简单直观。
  • 多设备:可以在任何支持的设备(CPU 和 GPU)上运行。
  • 统一内存:MLX 和其他框架的主要区别在于统一内存模型,阵列共享内存。MLX 上的操作可以在任何支持的设备类型上运行,无需移动数据。

数据统计

数据评估

MLX浏览人数已经达到9,455,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:MLX的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找MLX的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于MLX特别声明

本站智能信息网提供的MLX都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由智能信息网实际控制,在2025年4月23日 下午2:52收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,智能信息网不承担任何责任。

相关导航

Infinigence 无问芯穹

Infinigence 无问芯穹

无问芯穹是什么Infinigence 无问芯穹是专门大模型应用开发者打造的企业级AI大模型服务平台,专注于AI 2.0时代的解决方案。构建大模型与多种芯片间的高效部署桥梁,推动AGI(通用人工智能)时代的基础设施建设。无问芯穹提供算力推理平台、AI基础设施解决方案以及端上智能一体化解决方案,支持超过20个主流模型和10余种计算卡,实现软硬件联合优化与统一部署。无问芯穹的主要功能智算云平台:提供从算力、模型到应用的一站式服务,包括全面的云管平台、强大的基础云产品、一站式AI开发平台、大模型开发平台、大模型应用开发平台以及行业大模型。国产化AI算力适配和性能优化:对十余种国产AI芯片全面适配,通过算法和编译优化,实现性能提升50%~200%,并实现多源异构国产AI芯片的统一调度和混合精度计算。Megrez-3B-Omni模型:全球首个端侧全模态理解开源模型,能处理图像、音频和文本三种模态数据,支持中文和英文语音输入,实现模态间的自由切换,并提供直观自然的交互体验。一站式AI平台(AIStudio):面向机器学习开发者,提供开发机、任务等功能的企业级开发平台,支持从数据托管、代码开发、模型训练、模型部署的全生命周期工作流。算力推理平台:提供算力资源的异构纳管、运维和监控能力,以及丰富的算力运营体系。大模型服务平台(模型即服务,Model as a Service):提供数据处理、微调、推理等快速便捷的模型调用API,并集成模型与应用结合的最佳实践,提供专家支持与经验的工具化沉淀。异构芯片混合训练平台:全球首个支持单任务千卡规模异构芯片混合训练的平台,具备万卡扩展性,支持包括AMD、华为昇腾、天数智芯、沐曦、摩尔线程、NVIDIA六种异构芯片在内的大模型混合训练。“端模型+端软件+端IP”端上智能一体化解决方案:提供包括软件、IP在内的端上智能一体化解决方案,实现多种大模型算法在多元芯片上的高效、统一部署。无问芯穹的官网地址官网地址:cloud.infini-ai.com无问芯穹的应用场景个人助理:基于语音指令管理日程和提醒,提高生活和工作效率。智能家居控制:通过语音或图像识别技术控制家中的智能设备,如智能灯泡和智能锁。车载语音助手:在驾驶时用语音控制导航、音乐播放和电话,提高驾驶安全。移动设备应用:在手机和平板电脑上提供语音识别和图像识别功能,增强用户体验。教育辅助:基于语音和图像识别技术辅助语言学习和阅读,特别是对视障人士。AI模组与终端融合:通过“端侧算力+通信+API”功能的AI模组产品,将大模型能力带入到各种终端设备。
LangChain:开发由语言模型驱动的应用程序的框架

LangChain:开发由语言模型驱动的应用程序的框架

大语言模型(LLM)正在成为一种变革性技术,使开发人员能够构建以前无法构建的应用程序。但是,单独使用这些LLM通常不足以创建一个真正强大的应用程序——当你可以将它们与其他计算或知识来源相结合时,便可能实现其真正的能力。LangChain是一个用于开发由语言模型驱动的应用程序的框架,允许开发人员将语言模型连接到其他数据源并与其环境相交互。LangChain旨在帮助开发者在以下六个主要领域,按照复杂性递增的顺序:📃 LLMs and Prompts: 这包括提示管理、提示优化、适用于所有 LLM 的通用界面以及用于处理 LLM 的通用实用程序。🔗 Chains: 链不仅仅是单个 LLM 调用,而是调用序列(无论是对 LLM 还是对不同的实用程序)。 LangChain 为链提供标准接口、与其他工具的大量集成以及用于常见应用程序的端到端链。📚 Data Augmented Generation: 数据增强生成涉及特定类型的链,这些链首先与外部数据源交互以获取数据以用于生成步骤。 这方面的例子包括对长文本的总结和对特定数据源的问答。🤖 Agents: 代理涉及 LLM 做出关于采取哪些行动的决定,采取该行动,看到一个观察,并重复直到完成。LangChain 为代理提供了一个标准接口,可供选择的代理选择,以及端到端代理的示例。🧠 Memory: 内存是链/代理调用之间持久状态的概念。 LangChain 提供了内存的标准接口、内存实现的集合以及使用内存的链/代理的示例。🧐 Evaluation: [BETA] 众所周知,生成模型很难用传统指标进行评估。 评估它们的一种新方法是使用语言模型本身进行评估,LangChain 提供了一些提示/链来协助这一点。
扣子Coze

扣子Coze

Coze是字节跳动推出的零代码 AI 应用开发平台,可以理解为字节跳动版的GPTs。无论用户是否有编程经验,都可以通过该平台快速创建各种类型的聊天机器人、智能体、AI应用和插件,并将其部署在社交平台和即时聊天应用程序中,如Discord、WhatsApp、Twitter、飞书、微信公众号、豆包等。目前Coze平台上拥有海量AI智能体,图文、音视频生成等各个领域全覆盖,完全免费使用。Coze国际版(coze.com)提供的是基于OpenAI GPT-4和GPT-3.5的API来创建和使用AI聊天机器人,并未使用自研的云雀大模型。如同此前推出的聊天机器人豆包国际版为Cici,字节也推出了一个国内版本的Coze扣子(coze.cn),采用了豆包大模型,允许用户自主创建自定义聊天机器人。2025年4月18日,字节跳动推出通用型 AI Agent,集成MCP扩展插件 :扣子空间Coze的主要功能丰富的插件工具:该平台目前包含 60 多个不同的插件,包括新闻阅读、旅行计划、生产力工具、图像理解 API 和多模态模型知识库调取和管理:Coze提供易于使用的知识库功能,使 AI 能够与用户自己的数据(如PDF、网页文本)进行交互。可以存储和管理知识中的数据长期记忆能力:提供便捷的数据库存储能力,可以让 AI 机器人持久记住对话中的关键参数或内容定时计划任务:通过计划任务功能,用户可以使用自然语言轻松创建复杂的任务,创建好的机器人会准时发送相应的消息内容。工作流程自动化:轻松创建一个工作流程将创意想法转换为机器人技能,如收集电影评论、起草行业研究报告等预览和调试:机器人开发完成后,可以发送消息来查看机器人的响应,并根据知识搜索结果和工具响应来排查问题如何使用Coze创建机器人访问Coze的官网(coze.cn),点击Get started登录/注册账号选择侧边栏的Bots菜单,点击Create bot,然后添加机器人Logo、名称、描述信息然后在Persona & Prompt输入框中输入机器人角色和提示词,右侧可预览和调试输出信息测试无误后可点击右上角的Publish发布创建好的机器人Coze的适用人群开发人员:专注于为特定任务调整AI模型和提示词,而不是花费大量时间进行初始开发企业公司:通过将AI机器人集成到内部程序如客户支持系统、内容创作工具和推荐引擎中,开发创新的应用和服务研究人员:利用该平台作为实验工具进行各种研究任务,探索自然语言生成和理解AI爱好者:免费的GPT API,创建自定义机器人用于日常生活、学习和工作中常见问题Coze支持哪些大模型?Coze国际版目前支持通过GPT-3.5和GPT-4模型来构建AI机器人,国内版基于豆包大模型。Coze是免费的吗?Coze目前是免费向用户开放的,同时提供了部分增值服务。Coze创建的机器人可以发布到哪些平台?Coze目前支持将创建好的机器人发布到Discord和Cici,后续将支持WhatsApp和Twitter。
ChatDev

ChatDev

ChatDev是人工智能公司面壁智能最新推出的基于“大模型+Agent”的智能软件开发平台,用户只需输入自然语言,便能生成和创建可运行的软件。通过该平台,软件开发者和没有编程经验的普通用户可以以极低的成本和门槛高效完成软件开发和创建的工作。开源版本的ChatDev已在GitHub上斩获17K Star。ChatDev的功能特色虚拟软件公司模拟现实世界运行,通过担任不同角色的各种智能体进行运营,包括首席执行官、首席产品官、首席技术官、程序员、代码评审员、测试员、美术设计师等模仿现实世界进行软件开发赋能软件开发的全流程,从需求分析、界面设计,到代码编写、软件测试和应用发布基于大型语言模型(LLM)的易于使用、高度可定制和可扩展的框架,是研究群体智能的理想场景可进行任意类型的软件的编写和开发,如红包雨、计时器、贪吃蛇、吃豆人、单位转换器等各种类型的软件如何使用ChatDev访问ChatDev的官网(chatdev.modelbest.cn),登录或注册账号申请试用申请成功后回到软件创建界面,填写项目名称和软件描述等项目设置等待服务器响应项目生成,ChatDev的智能体会按照需求指令模拟现实世界软件公司的运行软件生成后可直接下载和分享,若对结果不满意,也可以调整和修改以上是SaaS版的使用步骤,若要自己部署和运行,请访问ChatDev的GitHub库查看快速开始的说明。常见问题ChatDev基于什么大模型?开源版的ChatDev调用的是OpenAI的GPT大模型的能力,开发者需要自己设置API Key,可以使用GPT-3.5,也可以使用GPT-4。ChatDev支持Git版本控制吗?支持,ChatDev已推出Git模式,扮演程序员的智能体可以利用Git进行版本控制。ChatDev是免费的吗?ChatDev是免费开源的,开发者可以克隆GitHub库进行设置和本地运行,也可以访问面壁智能的网站申请使用SaaS版本。
模力方舟

模力方舟

模力方舟是什么模力方舟(Gitee AI)是面向开发者、终端用户与产业场景的 AI 应用共创平台。依托 Gitee 全球第二大开发者平台的 DevOps 能力和开源的开发者服务体系,提供高可用的模型服务能力、Serverless 应用构建能力与 API 组合能力。平台汇聚超 70 款主流大模型,覆盖多种任务类型及行业场景,支持 Serverless 部署与私有化交付。AI 模型广场具备极简接入、高性能推理、灵活扩展等亮点,可助力开发者快速构建 AI 应用。平台提供 AI 开发者教育、AI 应用共创、模型定制等服务,是连接创作者与用户、AI 能力与实际场景的共创平台,推动 AI 应用生态建设。模力方舟的主要功能AI 模型广场:提供标准化模型接口,支持私有化部署与 Serverless 调用。可视化应用构建:图形化配置界面,零代码生成应用并上线。算力广泛兼容:适配昇腾、天数、沐曦等主流国产 AI 芯片,同时支持英伟达等国际主流硬件环境。推理成本显著降低:Serverless 架构显著降低开发与部署负担,推理成本最高可降 90%。AI 应用共创:提供覆盖 AI 应用“开发 → 上架 → 展示 → 变现”全流程服务,助力开发者高效实现从创意到产品、从产品到用户的完整闭环。共创 AI 应用生态,链接创意、用户与算力价值链。模型定制:提供包括微调、强化学习、参数插拔等在内的模型定制服务,助力企业客户快速打造专属 AI 能力,适配业务场景,高效落地应用。AI 开发者教育:通过系列 AI 技术活动,包括前沿技术分享、场景化实战训练营等,为开发者打造学习与交流空间。同时为企业提供展示技术能力、产品方案的合作窗口,共建开放共创的 AI 生态。稳定高可用的服务通道:API Token 独立绑定,支持高并发调用。智能推理缓存机制:内置多级缓存与模型复用机制,提升响应效率。多类型模型支持:兼容 Diffusion、多语言、多模态、RAG 等主流模型。LoRA 动态加载:支持运行时热插拔轻量化模型参数,快速实现个性化微调。能力组合和多模型链路:支持多 API 编排与工作流式调用,构建个性化 AI 应用。私有化部署:私有化部署能力覆盖推理服务、Serverless 平台及完整 MaaS 模型管理平台,支持以软硬一体机形式落地企业级场景,提升安全性与部署效率。如何使用模力方舟访问官网:访问模力方舟(Gitee AI)的官方网站。注册账号:使用邮箱或手机号注册账号,也可以通过Gitee账号直接登录。完善信息:根据提示完善个人或企业信息,使用平台的各项服务。浏览模型:在AI模型广场中,查看平台提供的70多款主流大模型,涵盖文本生成、图像生成、语义理解、多模态等任务类型。选择模型:根据你的需求,选择合适的模型进行应用开发。例如,如果你需要开发文本生成类应用,可以选择擅长文本生成的模型。使用API服务获取API Key:在平台中创建应用并获取API Key,这是调用模型接口的必要凭证。阅读文档:查看所选模型的API文档,了解接口的参数、返回值等详细信息。调用API:使用API Key,通过HTTP请求调用模型接口,将你的输入数据发送给模型,并获取模型的输出结果。可视化应用构建进入应用构建界面:在平台中找到可视化应用构建工具。配置应用:通过图形化界面进行应用配置,无需编写代码。你可以设置应用的名称、描述、输入输出等基本信息。连接模型:将所选的AI模型与应用进行连接,配置模型的调用参数。生成应用:完成配置后,点击生成应用按钮,平台将自动生成应用并上线。模力方舟的应用场景智能客服和助理:基于企业知识库、产品文档、使用手册等已有数据训练企业定制化的私有模型,可接入语音模型。政务服务:提供适用于政务工作的综合解决方案,如智能业务办理解决方案、云端法庭解决方案等。电商直播行业:提供智能化内容生成,识别用户兴趣和情感,提供有针对性的营销内容。内容创作:生成高质量的文本、图像、视频等内容,用于广告、媒体、创意等行业。数据分析:通过自然语言处理和数据分析技术,为企业提供智能决策支持。智能办公:自动化办公流程,如文档生成、会议记录整理、任务管理等,提高工作效率。
Gumloop

Gumloop

Gumloop是什么Gumloop是AI零代码工作流平台,通过简单的拖放界面使用户能够创建和部署 AI 驱动的工作流自动化,无需编写代码。核心优势在于易用性和强大的 AI 功能,适合非技术用户快速上手,设计和实施复杂的自动化流程。Gumloop 提供了预定义的自动化模板,支持与多个流行服务的连接,如 Twitter、AWS、GitHub、Outlook、Google 等,支持用户自定义工作流程。Gumloop 提供了 Chrome 扩展程序,用于构建 AI 浏览器自动化。Gumloop的主要功能自动化构建:用户可以通过拖放和链接节点来创建强大的自动化流程,模块化组件被称为“flows”,使任何人能轻松构建和定制工作流。平台整合:Gumloop 提供与 Twitter、AWS、GitHub、Outlook、Google 等流行服务的广泛整合,实现跨平台的全面自动化。可扩展的基础设施:用户缺乏技术背景,也能大规模运行工作流。Gumloop 设计了高效的处理能力,能处理大量工作负载。团队协作:用户可以在统一的工作空间内与团队成员共享和共同建立工作流,增强生产力和合作能力。安全性和可扩展性:Gumloop 专注于安全性和可扩展性,提供 SOC 2 和 GDPR 合规性、数据加密和细粒度访问控制等功能。自动化模板:提供预定义的自动化模板,帮助用户快速开始,适用于多种业务场景。AI 数据提取器:内置的 AI 数据提取器可以从各种内容中提取所需数据,如文本、网页、电子邮件等。测试和运行:用户可以在 Gumloop 提供的沙箱中测试工作流程,在满意后部署。Gumloop的产品官网产品官网:gumloop.com如何使用Gumloop创建账户:访问 Gumloop 官方网站注册账户。探索模板:查看预构建的自动化模板,模板涵盖了销售、CRM、网页抓取、软件开发等多个领域。阅读文档:通过官方文档了解如何使用平台,包括快速入门指南和深入教程。构建工作流程:使用直观的拖放界面创建自定义工作流程,可以添加和连接多个自动化组件。测试和运行:在 Gumloop 提供的沙箱环境中测试您的工作流程,满意后可以共享或部署。Gumloop的应用场景客户服务自动化:使用 Gumloop 创建智能客服机器人,自动处理常见查询,分类和路由客户请求。营销自动化:通过个性化内容推荐,自动化社交媒体发布和互动,以及数据分析和报告生成,来提升营销效率。财务流程自动化:自动化发票处理、报销审核,智能异常检测和风险评估。人力资源管理:使用 Gumloop 进行简历筛选、候选人匹配、员工绩效分析和预测。供应链优化:进行需求预测、库存管理和物流路线优化。

暂无评论

none
暂无评论...