随着人工智能技术的飞速发展,越来越多的企业开始关注并投入AI应用的建设。作为国内领先的网络安全公司,深信服紧跟潮流,积极投入AI领域,推出了全新的云原生AI解决方案:DeepSeek。DeepSeek以其卓越的性能和丰富的功能,正在引领深度AI应用的革新。
近日,深信服一朵云面向AI进行了全新升级,为用户打造更匹配大模型场景的智算承载、应用构建的AI平台。深信服全新升级的云原生AI解决方案,以DeepSeek为核心,全面优化推理性能,让跑在一朵云上的大模型应用可以实现推理性能的大幅提升。
首先,深信服现已打造「HCI+AICP新一代超融合」解决方案,只需在原集群基础上增加一台GPU节点,就能基于本地集群快速部署并承载DeepSeek在内的企业级大模型。这无疑为DeepSeek的广泛应用提供了强大的基础设施支持。
在基础设施方面,深信服一朵云线下基础设施从传统业务承载平台向智算承载平台升级,广泛适配包括DeepSeek在内的最新大模型。深信服AICP算力平台和多家国产厂商开展了广泛的软硬件兼容测试,可适配多款国产卡,为用户实现算力异构管理。这不仅体现了深信服对国产硬件的支持,也展现了其对异构算力管理的专业能力。
其次,深信服一朵云线上托管云上线全新AI服务目录,提供DeepSeek等企业级大模型服务。用户可通过订阅来快速获取AI能力,这无疑为用户提供了更便捷的AI服务获取方式。深信服托管云已支持基于专属资源+AICP的方式,为用户提供专属的企业级大模型服务,可满足用户对于线上部署专属服务模型的需求。
再者,深信服全新发布AI应用创新平台,助力用户快速构建大模型应用。该平台内置RAG最佳实践流程,支持智能分片与直连企业自有知识库。用户仅需通过简单操作,即可构建高质量的RAG应用。这无疑为用户提供了更简单、更高效的AI应用构建方式。
值得一提的是,DeepSeek作为深信服云原生AI解决方案的核心,其性能表现尤为突出。在硬件资源一定的情况下,DeepSeek能够实现更高的并发和总吞吐,这对于大模型应用的运行至关重要。以4卡4090运行DeepSeek-32B模型为例,模拟64并发场景进行问答测试,结果显示DeepSeek在多实例、并发推理场景中可实现5-10倍的性能提升。这种性能优势无疑将为用户带来更优质的AI应用使用体验。
此外,DeepSeek的应用场景也十分丰富。在日常问答场景中,DeepSeek的并发性能是Ollama的8~10倍,总吞吐更是高达10倍以上。而在知识库应用场景中,DeepSeek的性能表现同样优秀,其总吞吐是Ollama的4~8倍。这些数据充分证明了DeepSeek在各类应用场景中的优越性能。
总的来说,深信服一朵云的全面升级,以其面向AI的全新战略,正引领着AI应用的革新。深信服云原生AI解决方案:DeepSeek的出现,无疑为深度AI应用的发展注入了新的活力。未来,我们期待深信服在AI领域的更多创新和突破。