三大模块曝光:分钟级搭建专属平台,解锁算力灵活操控新体验,重新定义智能开发效率天花板

article/2025/7/4 11:33:30

一. 蓝耘元生代 MaaS介绍及简单使用

背景介绍

创新产品定位:

  • 蓝耘元生代 MaaS 平台于 2024 年 11 月 28 日推出,非传统智算平台,以资源聚合能力整合上下游资源,为用户提供优质全面服务。

核心模块功能:

  • 集成智算算力调度、AI 协作开发、应用市场三大模块。前者含裸金属与容器调度模式;AI 协作开发分前台、中台、后台,满足不同角色需求;应用市场汇聚多元应用,适配各类场景。

生态构建目标:

  • 平台通过以上优势,致力于打造开放共赢生态,推动人工智能技术在各领域深度应用与发展

注册使用

  • 首先点击链接:
    蓝耘平台

​​在这里插入图片描述

  • 然后完成登录

在这里插入图片描述

  • 进入后来到模型市场:

在这里插入图片描述

  • 视觉文本模型可供选择:

​​在这里插入图片描述

  • 对文本模型进行使用:
    在这里插入图片描述

在这里插入图片描述

  • 对应视觉模型体验:

在这里插入图片描述

  • 如API调用也可查看关于API示例:

在这里插入图片描述

二.蓝耘平台 API 调用基础​

注册与 API Key 获取​

  • 访问蓝耘元生代 MaaS 平台官网,点击 “注册” 按钮,填写手机号码、验证码、用户名、密码及邮箱等信息完成注册。

  • 登录后,进入控制台找到 “MaaS 平台” 选项,点击 “创建 API KEY” 获取专属 API Key。

这个 API Key 是调用平台 API 的唯一凭证,务必妥善保管,切勿泄露或公开分享,否则可能导致 Token 资源被恶意使用。​

调用方式详解​

  • Python 以其简洁的语法和丰富的库,成为调用蓝耘平台 API 的常用语言。首先,使用 pip 安装 openai 库,因为蓝耘平台提供 OpenAI 兼容接口:​
pip install openai​

安装完成后,使用 DeepSeek - R1 模型进行对话的 Python 代码:​

from openai import OpenAI
# 构造client,填入你的API Key和蓝耘平台的base_url
client = OpenAI(api_key="sk - xxxxxxxxxxx", base_url="https://maas - api.lanyun.net/v1")
# 发起请求
chat_completion = client.chat.completions.create(model="/maas/deepseek - ai/DeepSeek - R1",messages=({"role": "user", "content": "如何提高Python代码的运行效率"})
)
print(chat_completion.choices[0].message.content)
  • 在这段代码中,首先通过OpenAI类创建客户端实例,传入 API Key 和平台的基础 URL

  • 然后使用client.chat.completions.create方法发起对话请求,指定模型为/maas/deepseek - ai/DeepSeek - R1,并传入用户的问题消息。

  • 最后打印模型返回的回答内容。每一次对话请求都会消耗一定数量的 Token,具体消耗数量与模型、输入输出的长度等因素相关 ,由于平台赠送超千万 Token,开发者有充足资源进行各类对话测试

    如果希望实现流式响应,逐块获取模型的回答,可使用下面的模式:​

from openai import OpenAI​
client = OpenAI(api_key="sk - xxxxxxxxxxx", base_url="https://maas - api.lanyun.net/v1")​
stream = True​
chat_completion = client.chat.completions.create(​model="/maas/deepseek - ai/DeepSeek - R1",​messages=({"role": "user", "content": "介绍一下中国的传统节日"}),​stream=stream​
)if stream:for chunk in chat_completion:if hasattr(chunk.choices[0].delta, 'content'):if chunk.choices[0].delta.content:print(chunk.choices[0].delta.content, end="")
  • 流式响应能让用户更快看到模型的部分回答,提升交互体验,同时在处理长文本回答时,可避免一次性返回大量数据导致的性能问题。

  • 同样消耗 Token,开发者可根据需求灵活选择调用方式。​

cURL 命令调用​

cURL 是一个强大的命令行工具,也可用于调用蓝耘平台 API。使用 cURL 调用 DeepSeek - R1 模型进行对话的命令:​

curl https://maas - api.lanyun.net/v1/chat/completions \​-H "Content - Type: application/json" \​-H "Authorization: Bearer sk - xxxxxxxxxxx" \​-d '{"model": "/maas/deepseek - ai/DeepSeek - R1","messages": [{"role": "user","content": "推荐几本经典的计算机书籍"}]}'​
  • 在这个命令中,https://maas - api.lanyun.net/v1/chat/completions是 API 的端点地址。
  • -H "Content - Type: application/json"设置请求头,表明请求体数据为 JSON 格式。
  • -H "Authorization: Bearer sk - xxxxxxxxxxx"用于身份验证。
  • sk - xxxxxxxxxxx需替换为实际的 API Key
  • -d后面跟着的 JSON 格式数据,指定了要使用的模型和用户输入的消息。

通过 cURL 命令,无需依赖特定编程语言环境,就能快速测试 API 接口,每次调用同样会消耗 Token,方便开发者在不同场景下灵活使用。​

三.核心应用场景深度实践​

高效知识库建立​

资料采集与清洗​

  • 知识库建立的第一步是资料采集,可从公司内部文档、行业报告、学术论文、网络资讯等多渠道获取资料。采集后,使用 Python 的re库(正则表达式库)、pandas库等进行清洗。
  • 例如,使用re库去除 HTML 标签:​
import re​
​
html_text = "<p>这是一段包含<html>标签的文本</p>"​
clean_text = re.sub('<[^<]+?>', '', html_text)print(clean_text)
  • 上面通过re.sub函数,利用正则表达式匹配并删除所有 HTML 标签,得到干净的文本内容。通过类似的清洗操作,去除重复、无效、噪声数据,确保进入知识库的资料质量。​

知识抽取与结构化​

对于非结构化文本,借助自然语言处理技术进行知识抽取。以spaCy库为例,进行命名实体识别:​

import spacy​
​
nlp = spacy.load("en_core_web_sm")​
text = "苹果公司成立于1976年,总部位于美国库比蒂诺"​
doc = nlp(text)for ent in doc.ents:print(ent.text, ent.start_char, ent.end_char, ent.label_)
  • 上面的代码加载英文语言模型,对文本进行处理后,识别出其中的实体(如 “苹果公司”“1976 年”“美国库比蒂诺”)及其类别(如 “ORG” 组织、“DATE” 日期、“GPE” 地理位置)。将抽取的知识整理成结构化数据,如字典形式:​
knowledge_data = {"entity": "苹果公司","attribute": "成立时间","value": "1976年"}

利用 API 导入知识库​

将结构化后的知识通过 API 导入蓝耘平台知识库。
代码如下:

import requests​
import json​
​
api_key = "sk - xxxxxxxxxxx"​
url = "https://maas - api.lanyun.net/v1/import - knowledge"​
headers = {"Content - Type": "application/json","Authorization": "Bearer " + api_key​
}​
knowledge_list = [{"content": "Python是一种高级编程语言,具有动态类型系统","type": "text","category": "编程语言"},{"content": "蓝耘平台提供强大的AI模型服务","type": "text","category": "平台介绍"}]​
data = {"knowledge": knowledge_list​
}​
response = requests.post(url, headers=headers, data=json.dumps(data))if response.status_code == 200:print("知识导入成功")else:print("知识导入失败,状态码:", response.status_code)
  • 先设置 API Key、请求 URL 和请求头。

  • 然后将知识数据组织成符合接口要求的 JSON 格式,通过requests.post方法发送 POST 请求。

若返回状态码为 200,则表示知识导入成功,每一次成功的导入操作会根据数据量消耗一定 Token,开发者可利用免费赠送的超千万 Token,轻松完成大规模知识库的搭建 。

智能客服应答系统搭建​

系统架构与流程​

智能客服系统基于 “前端交互 - 中间逻辑处理 - 后端知识库及模型服务” 三层架构。

  • 用户在前端输入问题后,中间逻辑处理层先对问题进行预处理(分词、词性标注等),然后尝试从知识库中检索答案。
  • 若未找到匹配答案,则调用蓝耘平台 API,将问题发送给大语言模型,获取回答后经优化返回给前端展示。​

代码实现

下面是简化的 Python 代码,展示智能客服系统调用 API 获取回答的核心逻辑:​

from openai import OpenAI
import requests
import json# 知识库查询函数(模拟)
def search_knowledgebase(question):# 这里可编写实际的知识库查询逻辑return Noneapi_key = "sk - xxxxxxxxxxx"
client = OpenAI(api_key=api_key, base_url="https://maas - api.lanyun.net/v1")
question = "平台的免费Token如何使用?"
answer = search_knowledgebase(question)
if answer is None:chat_completion = client.chat.completions.create(model="/maas/deepseek - ai/DeepSeek - R1",messages=({"role": "user", "content": question}))answer = chat_completion.choices[0].message.content
print(answer)
  • ​先定义了一个模拟的知识库查询函数search_knowledgebase

  • 若知识库中未找到答案,则调用蓝耘平台 API 获取模型生成的回答。

  • 每次调用 API 获取回答都会消耗 Token,凭借平台赠送的大量 Token,智能客服系统能稳定处理众多用户咨询 。​

四.API 工作流调用优化技巧​

Token 使用策略​

蓝耘平台赠送的超千万 Token 为开发者提供了充足资源。

  • 在开发测试阶段,可大量调用 API 进行功能测试和模型效果评估。
  • 如对智能客服系统进行多轮问答测试,不断优化模型参数和回答逻辑。在正式上线后,通过缓存高频问题的答案、压缩输入输出数据长度等方式减少 Token 消耗。

例如,使用 Python 的functools.lru_cache装饰器实现函数结果缓存:​

import functools​
​
@functools.lru_cache(maxsize=128)​
def get_answer_from_api(question):​from openai import OpenAI​client = OpenAI(api_key="sk - xxxxxxxxxxx", base_url="https://maas - api.lanyun.net/v1")​chat_completion = client.chat.completions.create(​model="/maas/deepseek - ai/DeepSeek - R1",​messages=({"role": "user", "content": question}))return chat_completion.choices[0].message.content​
  • ​这样,对于相同问题的 API 调用,直接从缓存中获取结果,无需再次消耗 Token,有效节省资源。​

参数调优与错误处理​

在调用 API 时,根据任务需求合理选择模型和设置参数

  • 如处理短文本分类任务,可选用轻量级模型。

  • 对于长文本生成任务,选择更强大的模型。

  • 同时,仔细处理 API 调用过程中的错误。当出现错误时,根据返回的错误码和信息进行排查。

  • 例如,若返回 “429 Too Many Requests” 错误码,说明调用频率过高,可通过设置调用间隔或使用队列控制调用频率:​

import time
import queue
import threadingq = queue.Queue()def api_call_worker():while True:question = q.get()try:from openai import OpenAIclient = OpenAI(api_key="sk - xxxxxxxxxxx", base_url="https://maas - api.lanyun.net/v1")chat_completion = client.chat.completions.create(model="/maas/deepseek - ai/DeepSeek - R1",messages=({"role": "user", "content": question}))print(chat_completion.choices[0].message.content)except Exception as e:print("API调用错误:", e)finally:q.task_done()time.sleep(1)  # 控制调用间隔# 启动线程处理API调用
for _ in range(5):t = threading.Thread(target=api_call_worker)t.daemon = Truet.start()# 向队列中添加问题
q.put("如何优化API调用性能")
q.put("蓝耘平台有哪些特色模型")q.join()
  • 利用队列和多线程技术,结合调用间隔设置,有效避免因调用频率过高导致的错误,合理使用 Token 资源 。​

蓝耘元生代 MaaS 平台凭借强大的 API 工作流调用能力、丰富的应用场景支持以及超千万免费 Token 的福利,为开发者打开了 AI 应用开发的便捷之门,开发者能够高效构建各类智能应用,加速业务智能化转型。

五.体验感受

  • 蓝耘元生代 MaaS 平台以 API 工作流调用为桥梁,为开发者搭建起通向智能应用的高速路。
  • 超千万免费 Token 的慷慨馈赠,更是消除了开发者探索创新的后顾之忧,让每一个创意都有机会落地生根。
  • 从基础的 API 调用到知识库建立、智能客服搭建,每一行代码的编写、每一个场景的实践,都见证着技术与创意的碰撞。

这不仅是一场技术的实践之旅,更是开发者们突破边界、探索无限可能的征程。相信在蓝耘平台的助力下,会有更多精彩的 AI 应用诞生,持续推动行业变革,为我们的生活与工作带来更多惊喜与便利。

欢迎试用:蓝耘


http://www.hkcw.cn/article/RZLeBPksRT.shtml

相关文章

乾坤qiankun的使用

vue2 为主应用 react 为子应用 在项目中安装乾坤 yarn add qiankun # 或者 npm i qiankun -Svue主应用 在main.js中新增 &#xff08;需要注意的是路由模型为history模式&#xff09; registerMicroApps([{name: reactApp,entry: //localhost:3011,container: #container,/…

FreeRTOS实时操作系统学习笔记

一 RTOS入门 1.1 裸机与RTOS介绍&#xff08;了解&#xff09; 裸机编程是指在嵌入式系统中&#xff0c;直接在硬件上运行代码&#xff0c;没有操作系统的支持。这种方式下&#xff0c;开发者需要完全掌握硬件资源&#xff0c;包括时钟、中断、外设等。任务调度和资源管理都由…

MCP还是A2A?AI未来技术选型深度对比分析报告

引言 MCP&#xff08;Multi-Core Processor&#xff09;与A2A&#xff08;Asynchronous to Asynchronous&#xff09;分别代表了计算架构发展中的两种重要范式。前者延续传统冯诺依曼体系的并行优化路径&#xff0c;后者则试图突破同步时钟的物理限制。理解二者的本质差异&…

逐步检索增强推理的跨知识库路由学习

摘要 多模态检索增强生成&#xff08;MRAG&#xff09;在多模态大语言模型&#xff08;MLLM&#xff09;中通过在生成过程中结合外部知识来减轻幻觉的发生&#xff0c;已经显示出了良好的前景。现有的MRAG方法通常采用静态检索流水线&#xff0c;该流水线从多个知识库&#xff…

OpenRouter使用指南

OpenRouter 是一个专注于大模型&#xff08;LLM&#xff09;API 聚合和路由的服务平台&#xff0c;旨在帮助开发者便捷地访问多种主流大语言模型&#xff08;如 GPT-4、Claude、Llama 等&#xff09;&#xff0c;并提供统一的接口、成本优化和智能路由功能。以下是它的核心功能…

【Linux】权限chmod命令+Linux终端常用快捷键

目录 linux中权限表示形式 解析标识符 权限的数字序号 添加权限命令chmod 使用数字表示法设置权限 使用符号表示法设置权限 linux终端常用快捷键 &#x1f525;个人主页 &#x1f525; &#x1f608;所属专栏&#x1f608; 在 Linux 系统里&#xff0c;权限管理是保障系…

2018ToG | 可逆的灰度图像

写在前面&#xff1a;这篇论文是比较早期的论文了&#xff0c;但由于本人是第一次见到该方向的相关研究&#xff0c;所以觉得比较新奇。本文用以梳理这篇论文的阅读思路&#xff0c;文末附上了一些个人思考。 0. Abstract 一旦彩色图像被转换为灰度图像&#xff0c;普遍认为即…

Python打卡训练营Day43

DAY 43 复习日 作业&#xff1a; kaggle找到一个图像数据集&#xff0c;用cnn网络进行训练并且用grad-cam做可视化 数据集地址&#xff1a;Lung Nodule Malignancy 肺结核良恶性判断 进阶&#xff1a;并拆分成多个文件 import os import pandas as pd import numpy as np from…

mem0ai/mem0 v0.1.102版本全面升级,解锁多项前沿功能与文档优化!

大家好&#xff01;今天我们为大家带来mem0ai/mem0项目的重大版本更新——v0.1.102&#xff01;本次更新不仅带来了全新的功能扩展&#xff0c;更对项目的文档体系进行了深度优化&#xff0c;提升了整体用户体验和集成便捷性。无论你是mem0ai/mem0的忠实用户&#xff0c;还是刚…

导入典籍数据

1.从网上获取中医相关典籍数据&#xff0c;数目共600txt&#xff0c;总篇数14万 2.数据处理 获取到的数据结构大致如下 一个txt表示一本书&#xff0c;开头存有书籍相关的名字&#xff0c;作者&#xff0c;朝代&#xff0c;年份&#xff0c;之后每一个<目录>下都跟有一…

状态机实现文件单词统计

系统如何查找可执行文件 默认&#xff1a;在PATH路径下寻找文件文件下 执行当前目录下文件&#xff1a; ./&#xff1a;指定文件目录是当前目录 ./count:执行当前目录文件 编译.c文件为运行文件 gcc -o count 0voice.c #将0voice.c编译为名字count 为什么主函数要那么写&a…

[面试精选] 0021. 合并两个有序链表

文章目录 1. 题目链接2. 题目描述3. 题目示例4. 解题思路5. 题解代码6. 复杂度分析 1. 题目链接 21. 合并两个有序链表 - 力扣&#xff08;LeetCode&#xff09; 2. 题目描述 将两个升序链表合并为一个新的 升序 链表并返回。新链表是通过拼接给定的两个链表的所有节点组成的…

【C++】内存管理

C/C内存分布 1.栈又叫堆栈–非静态局部变量/函数参数/返回值等等&#xff0c;栈是向下增长的。 2.内存映射段是高效的I/O映射方式&#xff0c;用于装载一个共享的动态内存库。用户可使用系统接口创建共享共享内存&#xff0c;做进程间通信。 3.堆用于程序运行时动态内存分配&am…

基于javaweb的SpringBoot爱游旅行平台设计和实现(源码+文档+部署讲解)

技术范围&#xff1a;SpringBoot、Vue、SSM、HLMT、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、小程序、安卓app、大数据、物联网、机器学习等设计与开发。 主要内容&#xff1a;免费功能设计、开题报告、任务书、中期检查PPT、系统功能实现、代码编写、论文编写和辅导、论文…

ubuntu系统扩容

使用gparted工具扩容 安装方法&#xff1a; sudo apt-get update sudo apt-get install gparted 运行gparted&#xff0c;进行分区扩容 sudo gparted 打开软件后&#xff0c;先点击弹出窗口中的ok&#xff0c;若无弹出窗口&#xff0c;则无需点击。 点击右侧的下拉按钮 点…

计算机组成原理-计算机硬件的主要技术指标

机器字长 CPU一次能处理数据的位数&#xff0c;与CPU中的寄存器位数有关 运算速度 主频 核数&#xff0c;每个核支持的线程数 吉普森法&#xff1a;Tm ,根据指令集中每条指令的执行频率对指令集中所有指令的执行时间做加权平均。其中fi根据是否在程序运行时测量&#xff…

【TMS570LC4357】之相关驱动开发学习记录1

系列文章目录 【TMS570LC4357】之工程创建 【TMS570LC4357】之工程配置修改 【TMS570LC4357】之HALCOGEN使用 【TMS570LC4357】之相关问题及解决 ——————————————————— 前言 记录笔者在第一次使用TMS570过程中对外设驱动的一些学习碎片。 1. RTI 1.1 添…

多智能体在具身智能上的研究

在关于大模型的认知升级-CSDN博客中&#xff0c;我们提到大模型的终局是具身智能。那么&#xff0c;本文我们就来看看多智能体在具身智能上有了哪些应用。 Manus发布一天后迅速出现OpenManus、OWL等复刻项目。为什么可以这么快的复刻项目&#xff1f;其实&#xff0c;多智能体…

【HW系列】—安全设备介绍(开源蜜罐的安装以及使用指南)

文章目录 蜜罐1. 什么是蜜罐&#xff1f;2. 开源蜜罐搭建与使用3. HFish 开源蜜罐详解安装步骤使用指南关闭方法 总结 蜜罐 1. 什么是蜜罐&#xff1f; 蜜罐&#xff08;Honeypot&#xff09;是一种主动防御技术&#xff0c;通过模拟存在漏洞的系统或服务&#xff08;如数据库…

打卡day43

DAY 43 复习日 作业&#xff1a; kaggle找到一个图像数据集&#xff0c;用cnn网络进行训练并且用grad-cam做可视化 进阶&#xff1a;并拆分成多个文件 数据集来源水母图像数据集 --- Jellyfish Image Dataset&#xff0c;对水母图片进行分类&#xff0c;共6个类别。 模型训…