暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

限时免费,一键部署!基石智算正式上线 DeepSeek-R1 系列模型

青云QingCloud 2025-02-06
150

青云科技旗下 AI 算力云服务——基石智算CoresHub 正式上线 DeepSeek-R1 系列模型,限时免费!

您既可以通过大模型服务直接调用 DeepSeek 系列模型,按 token 计费;也可以通过 AI 算力云服务提供的 GPU 在云端部署推理服务,按需使用算力。

如按 token 计费,基石智算提供前 5 天免费使用,不限 token 数量

如按需使用算力,可随用随开。4090 低至 1.79 元/小时。同时新用户注册认证立即赠送 50 元算力券,可免费体验。每充值 100 元赠送 20 元算力券,最高可获赠 2000 元算力券。算力优惠活动将于 3 月 1 日截止。


本次上线了 DeepSeek-R1 的四款蒸馏模型,DeepSeek-V3 及 R1 完整模型将陆续登陆基石智算。以下分别介绍两种使用 DeepSeek 模型的方式:
 

 方式一:直接调用 API

第一步:登录基石智算控制台(console.coreshub.cn),在顶部导航栏中,选择“产品与服务” - “大模型服务平台”。
第二步:点击“创建 API 密钥”,输入 API 密钥别名,点击确定即可。
新建的密钥将显示在相应的列表内,将鼠标悬停在指定密钥上,点击 API 密钥右侧的复制按钮,即可获取完整的 API 密钥。
第三步:调用 DeepSeek 模型接口。
目前平台支持 DeepSeek-R1-Distill-Qwen-1.5B,DeepSeek-R1-Distill-Qwen-7B,DeepSeek-R1-Distill-Llama-8B,DeepSeek-R1-Distill-Qwen-14B 四个模型接口。
接口兼容 OpenAI 标准,可以使用 cURL 或其他 HTTP 工具调用,也可以使用 Python 的 OpenAI 依赖调用。
注意:需要根据实际情况替换参数中的 model 和 Authorization。
 ① 使用 cURL 调用 
    curl -i -X POST \
    -H "Content-Type:application/json" \
    -H "Authorization:Bearer sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxx" \
    -d \
    '{"model": "DeepSeek-R1-Distill-Qwen-1.5B", "stream": true, "messages": [ {"role": "user", "content": "15*15= 多少"}]}' \
     'https://openapi.coreshub.cn/v1/chat/completions'
    ② 使用 OpenAI 依赖
    前置条件(安装依赖):pip install openai
    代码:
      from openai import OpenAI
      client = OpenAI(api_key='sk-xxxxxxxxxxxx', base_url='https://openapi.coreshub.cn/v1')
      completion = client.chat.completions.create(
      model="DeepSeek-R1-Distill-Qwen-1.5B",
      messages=[
      {'role': 'user', 'content': '15*15=?'}],
      stream=False
      )
      print(completion.model_dump_json())
      回显示例:
        {
        "id": "chatcmpl-b0e13590-8889-44b1-951e-b2c385714129",
        "choices": [
        {
        "finish_reason": "stop",
        "index": 0,
        "logprobs": null,
        "message": {
        "content": "<think>\n\n</think>\n\n15 multiplied by 15 is:\n\n\\[\n15 \\times 15 = 225\n\\]\n\nSo, the answer is:\n\n\\[\n\\boxed{225}\n\\]",
        "refusal": null,
        "role": "assistant",
        "audio": null,
        "function_call": null,
        "tool_calls": [
        ]
        },
        "stop_reason": null
        }
        ],
        "created": 1738639291,
        "model": "DeepSeek-R1-Distill-Qwen-1.5B",
        "object": "chat.completion",
        "service_tier": null,
        "system_fingerprint": null,
        "usage": {
        "completion_tokens": 48,
        "prompt_tokens": 9,
        "total_tokens": 57,
        "completion_tokens_details": null,
        "prompt_tokens_details": null
        },
        "prompt_logprobs": null
        }

         

         方式二:云端一键部署 

        第一步:进入“AI算力云服务”-“模型广场”,选择 DeepSeek-R1 模型。点击“模型部署”按钮。
        第二步:点击模型部署后,选取对应的算力资源。
        第三步:点击“创建”按钮,进入推理服务详情页面,在服务信息页签内,获取外网访问地址和 API 密钥。
        第四步:模型调用。
         手动调用:
        1.  模型部署完成后,用户可打开本地电脑终端。
        2.  执行如下命令,直接发送 HTTP POST 请求。(模型名称、URL 地址和 Authorization 根据实际情况替换)
          curl -i -X POST \
          -H "Content-Type:application/json" \
          -H "Authorization:Bearer sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxx" \
          -d \
          '{"model": "DeepSeek-R1-Distill-Qwen-1.5B", "stream": false, "messages": [ {"role": "user", "content": "15*15= 多少"}]}' \
           'http://ai.coreshub.cn/xb3a/inference/usr-xxxxxxxx/inf-xxxxxxxx/v1/chat/completions'
          回显示例:
            {
            "id": "chatcmpl-86ba9826-9393-4767-9a90-919ec5e50e5e",
            "object": "chat.completion",
            "created": 1738648283,
            "model": "DeepSeek-R1-Distill-Qwen-1.5B",
            "choices": [
            {
            "index": 0,
            "message": {
            "role": "assistant",
            "content": "<think>\n\n</think>\n\n15 × 15 = 225。",
            "tool_calls": [
            ]
            },
            "logprobs": null,
            "finish_reason": "stop",
            "stop_reason": null
            }
            ],
            "usage": {
            "prompt_tokens": 12,
            "total_tokens": 29,
            "completion_tokens": 17,
            "prompt_tokens_details": null
            },
            "prompt_logprobs": null
            }
            • sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxx 是模型部署完成后,在服务信息中复制得到的 API 密钥,需根据实际情况进行修改。

            •  -d 用于指定 POST 请求的正文内容,用户可自行修改。

            •  https://ai.coreshub.cn/xb3a/inference/usr-xxxxxxxx/inf-xxxxxxxx/v1/chat/completions  其中,https://ai.coreshub.cn/xb3a/inference/usr-xxxxxxxx/inf-xxxxxxxx/  为推理服务的外网访问地址服务信息中复制得到,需根据实际情况进行修改。


             临时调用:
            推理服务的外网访问链接生成后,可直接通过修改外网链接的方式,使用浏览器使用大语言模型。
            1. 完成模型部署,获取外网访问链接。
            2. 将外网访问链接中的 inference 字段修改为 inference-web。例如,外网连接为:
            https://ai.coreshub.cn/xb3a/inference/usr-xxxxxxxx/inf-xxxxxxxx/
            修改为:
            https://ai.coreshub.cn/xb3a/inference-web/usr-xxxxxxxx/inf-xxxxxxxx/
            3.在浏览器中输入修改后的外网链接,即可直接使用。




            基石智算致力于打造技术领先的 AI Infra 平台,将 AI 算力云与模型开发部署服务完美融合。除 DeepSeek 系列模型之外,平台已陆续推出文本类、文生图、文生视频、语音转换等模型,支持模型的一键启动、一键部署以及在线微调,助力用户打造专属 AI 应用。

            DeepSeek-V3、R1 系列模型陆续上线中
            限时免费,欢迎体验

            - FIN -

            更多推荐



            点击“阅读原文”了解更多




            文章转载自青云QingCloud,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

            评论