言犀智能体平台 言犀智能体平台是什么言犀智能体平台是京东推出的一站式AI智能体开发平台,用户无论有无编程基础,都能快速构建基于AI模型的智能体,处理问答到复杂业务逻辑。平台集成了多个大模型,提供算法库和工具,支持行业应用快速落地。目前已有超过3300个智能体在京东内部活跃,沉淀了100多个行业解决方案模板。言犀智能体平台的主要功能接入大模型:平台已接入数十个大模型,支持用户根据业务需求选择不同模型。低成本快速搭建:无论用户是否有编程基础,都可以快速搭建基于AI模型的智能体。行业解决方案模板:平台沉淀了100多个行业解决方案模板,支持行业应用快速落地。算法库及工具库:通过插件能力,平台提供上千种算法和工具能力,如数据分析、NL2SQL等。如何使用言犀智能体平台注册与登录:用户需要访问京东云言犀智能体平台的官方网站,注册账号并登录(yanxi.jd)。选择智能体模板:平台提供了多种行业解决方案模板,用户可以根据自己的业务需求选择合适的模板作为起点。配置智能体:用户可以对选定的智能体模板进行配置,包括但不限于设置智能体的名称、功能、交互逻辑等。接入大模型:根据业务需求,用户可以在平台中选择和接入不同的大模型,如言犀大模型、GPT等。知识库接入:使用Advance RAG技术,用户可以简单配置实现结构化和非结构化数据的接入,增强智能体的知识库。算法库和工具库应用:用户可以在智能体中运用平台提供的算法和工具能力,如数据分析、NL2SQL等。工作流编排:通过工作流对智能体的插件和大模型能力进行编排组合,指导智能体按照既定思路行动。智能数据分析:利用平台的数据分析能力,用户可以通过自然语言查询和分析业务数据。测试与优化:在智能体搭建完成后,用户需要进行测试,根据测试结果对智能体进行优化和调整。部署与应用:测试无误后,用户可以将智能体部署到实际业务场景中,开始使用智能体处理业务问题。
Vercel AI SDK Vercel AI SDK是前端网站开发和托管平台及Next.js开发团队「Vercel」推出的,用于快速构建AI聊天机器人网站应用程序的开发套件,可以帮助开发人员使用JavaScript和TypeScript构建对话式的AI用户界面。Vercel AI SDK的特性支持React/Next.js、Svelte/SvelteKit和Vue/Nuxt等前端框架,以及Node.js、Serverless和Edge Runtime内置各种AI模型的适配器,支持LangChain、OpenAI、Anthropic和Hugging Face等提供的大语言模型提供交互式在线提示playground(sdk.vercel.ai),其中包含20个开源和云LLM。可以实时展示不同对话模型的聊天界面,并且可以快速生成代码。提供多个AI聊天机器人的模板和示例,你可以克隆/复制Vercel提供的基于不同框架和模型开发的AI聊天机器人的初始模板如何使用Vercel AI SDK前提条件需要在电脑上安装Node.js 18+版本,如果要开发基于OpenAI的GPT聊天机器人,需要获得OpenAI API密钥使用Next.js(pnpm dlx create-next-app my-ai-app)或者Svelte(pnpm create svelte@latest my-ai-app)等框架创建一个全新的项目,并定位到创建好的目录(cd my-ai-app)安装依赖项,pnpm install ai openai-edge配置 OpenAI API 密钥,.env.local在项目根目录中创建一个文件并添加您的 OpenAI API 密钥创建API路由并连接UI,完成后使用pnpm run dev运行启动应用程序
Infinigence 无问芯穹 无问芯穹是什么Infinigence 无问芯穹是专门大模型应用开发者打造的企业级AI大模型服务平台,专注于AI 2.0时代的解决方案。构建大模型与多种芯片间的高效部署桥梁,推动AGI(通用人工智能)时代的基础设施建设。无问芯穹提供算力推理平台、AI基础设施解决方案以及端上智能一体化解决方案,支持超过20个主流模型和10余种计算卡,实现软硬件联合优化与统一部署。无问芯穹的主要功能智算云平台:提供从算力、模型到应用的一站式服务,包括全面的云管平台、强大的基础云产品、一站式AI开发平台、大模型开发平台、大模型应用开发平台以及行业大模型。国产化AI算力适配和性能优化:对十余种国产AI芯片全面适配,通过算法和编译优化,实现性能提升50%~200%,并实现多源异构国产AI芯片的统一调度和混合精度计算。Megrez-3B-Omni模型:全球首个端侧全模态理解开源模型,能处理图像、音频和文本三种模态数据,支持中文和英文语音输入,实现模态间的自由切换,并提供直观自然的交互体验。一站式AI平台(AIStudio):面向机器学习开发者,提供开发机、任务等功能的企业级开发平台,支持从数据托管、代码开发、模型训练、模型部署的全生命周期工作流。算力推理平台:提供算力资源的异构纳管、运维和监控能力,以及丰富的算力运营体系。大模型服务平台(模型即服务,Model as a Service):提供数据处理、微调、推理等快速便捷的模型调用API,并集成模型与应用结合的最佳实践,提供专家支持与经验的工具化沉淀。异构芯片混合训练平台:全球首个支持单任务千卡规模异构芯片混合训练的平台,具备万卡扩展性,支持包括AMD、华为昇腾、天数智芯、沐曦、摩尔线程、NVIDIA六种异构芯片在内的大模型混合训练。“端模型+端软件+端IP”端上智能一体化解决方案:提供包括软件、IP在内的端上智能一体化解决方案,实现多种大模型算法在多元芯片上的高效、统一部署。无问芯穹的官网地址官网地址:cloud.infini-ai.com无问芯穹的应用场景个人助理:基于语音指令管理日程和提醒,提高生活和工作效率。智能家居控制:通过语音或图像识别技术控制家中的智能设备,如智能灯泡和智能锁。车载语音助手:在驾驶时用语音控制导航、音乐播放和电话,提高驾驶安全。移动设备应用:在手机和平板电脑上提供语音识别和图像识别功能,增强用户体验。教育辅助:基于语音和图像识别技术辅助语言学习和阅读,特别是对视障人士。AI模组与终端融合:通过“端侧算力+通信+API”功能的AI模组产品,将大模型能力带入到各种终端设备。
Anakin.ai Anakin.ai是什么Anakin.ai 是一个一站式无代码 AI 应用构建平台,用户只需一分钟即可快速创建一个属于自己的 AI 应用,包括内容创作、文案、问答、图像生成、视频生成、语音生成、智能 Agent、自动化工作流、自定义 AI 应用等,帮助即使没有编程或技术背景的用户也能够利用AI技术来增强工作效率和创造力。Anakin.ai的主要功能内容生成:用户可以利用平台的AI模型生成文本、图像、视频和语音内容,包括使用GPT系列模型进行文本生成,以及使用Stable Diffusion、DALL·E等模型进行图像创作。预构建应用:Anakin.ai提供了超过1000个预构建的AI应用,覆盖了内容生成、问题回答、文档搜索等多个领域,用户可以直接使用这些应用或根据需要进行定制。自动化工作流:Anakin.ai允许用户创建自动化的工作流程,以简化和加速日常任务。工作流可以集成多种AI模型和外部API,以执行复杂的数据处理和分析任务。自定义AI应用:平台提供了一个无代码的AI应用构建器,用户可以通过简单的拖放界面来创建和定制自己的AI应用,以满足特定的业务需求。智能体(Auto Agents):用户可以构建智能体来自动执行复杂的任务,Agents可以在配置后自动处理和解决用户指定的任务。批量操作:Anakin.ai支持批量处理功能,用户可以对大量数据执行相同的操作,如内容生成、数据分类、信息提取等。聊天机器人:平台提供了聊天机器人的创建和训练工具,用户可以根据自己的数据训练聊天机器人,并将其部署到现有的工具和服务中Anakin.ai的产品价格免费版:每天免费提供30的使用额度,可访问所有的基本功能、批量运行有限、每次生成仅限1张图像基础版:每月12.9美元(年付折合9.9美元),每月提供9000额度、批量运行无限制、每次生成最多8张图像专业版:每月24.9美元(年付折合19.9美元),每月提供19000额度、批量运行无限制、每次生成最多8张图像高级版:每月45.9美元(年付折合39.9美元),每月提供39000额度、批量运行无限制、每次生成最多8张图像
昇思MindSpore:华为开源自研AI深度学习框架 昇思MindSpore是由华为自研的一种适用于端边云场景的新型开源深度学习训练/推理框架,MindSpore提供了友好的设计和高效的执行,旨在提升数据科学家和算法工程师的开发体验,并为Ascend AI处理器提供原生支持,以及软硬件协同优化。
LangChain:开发由语言模型驱动的应用程序的框架 大语言模型(LLM)正在成为一种变革性技术,使开发人员能够构建以前无法构建的应用程序。但是,单独使用这些LLM通常不足以创建一个真正强大的应用程序——当你可以将它们与其他计算或知识来源相结合时,便可能实现其真正的能力。LangChain是一个用于开发由语言模型驱动的应用程序的框架,允许开发人员将语言模型连接到其他数据源并与其环境相交互。LangChain旨在帮助开发者在以下六个主要领域,按照复杂性递增的顺序:📃 LLMs and Prompts: 这包括提示管理、提示优化、适用于所有 LLM 的通用界面以及用于处理 LLM 的通用实用程序。🔗 Chains: 链不仅仅是单个 LLM 调用,而是调用序列(无论是对 LLM 还是对不同的实用程序)。 LangChain 为链提供标准接口、与其他工具的大量集成以及用于常见应用程序的端到端链。📚 Data Augmented Generation: 数据增强生成涉及特定类型的链,这些链首先与外部数据源交互以获取数据以用于生成步骤。 这方面的例子包括对长文本的总结和对特定数据源的问答。🤖 Agents: 代理涉及 LLM 做出关于采取哪些行动的决定,采取该行动,看到一个观察,并重复直到完成。LangChain 为代理提供了一个标准接口,可供选择的代理选择,以及端到端代理的示例。🧠 Memory: 内存是链/代理调用之间持久状态的概念。 LangChain 提供了内存的标准接口、内存实现的集合以及使用内存的链/代理的示例。🧐 Evaluation: [BETA] 众所周知,生成模型很难用传统指标进行评估。 评估它们的一种新方法是使用语言模型本身进行评估,LangChain 提供了一些提示/链来协助这一点。