NEEAI

平台支持

我们支持多种开源大模型平台和工具,助力企业快速部署AI应用,实现智能化转型

智能体平台LLM服务引擎灵活部署联系我们

智能体平台

我们支持主流的智能体开发平台,帮助您快速构建和部署AI应用

BISHENG

BISHENG

基于开源模型和知识库构建复杂应用的开发平台

Coze

Coze

新一代一站式AI Bot开发平台

Dify

Dify

LLM应用开发平台,融合了AI工作流、RAG检索等能力

FastGPT

FastGPT

快速构建基于大型语言模型的AI应用

MaxKB

MaxKB

基于LLM的知识库问答系统,开箱即用

LLM服务引擎

高性能的推理引擎,为您的AI应用提供强大的底层支持

Ollama

Ollama

轻松在本地运行大型语言模型的工具

vLLM

vLLM

快速且易于使用的LLM推理服务库

Xinference

Xinference

性能强大且功能全面的分布式推理平台

L

Llama.cpp

使用C++运行LLaMA模型,支持消费级硬件

S

ScaleLLM

高性能和高成本效益的LLM推理引擎

全面兼容

支持多种开源大模型平台和工具,无缝集成现有系统

  • 支持主流开源大模型平台如 BISHENG、Dify、FastGPT 等
  • 兼容多种推理引擎包括 vLLM、Ollama、Xinference 等
  • 可与企业现有系统如 OA、CRM、ERP 等无缝集成
  • 提供标准化 API 接口,便于快速对接各类业务系统

高性能推理

优化推理引擎,提升模型响应速度和并发处理能力

  • 基于 vLLM、Xinference 等高性能推理引擎优化
  • 支持模型量化和蒸馏技术,降低资源消耗
  • 提供动态批处理和连续批处理功能
  • 优化 CUDA 和 CPU 运算,提升推理效率

灵活部署

支持云端、边缘和本地化部署,满足不同场景需求

  • 支持公有云、私有云、混合云等多种云环境部署
  • 提供边缘计算部署方案,降低延迟提升响应速度
  • 支持本地化部署,满足数据安全和合规要求
  • 容器化部署支持 Docker 和 Kubernetes

需要其他平台支持?