下线内容

平台将于 20241011 日对部分模型进行下线处理。具体涉及的模型列表如下:

  • 文本生成模型
    • Qwen2-Math-72B
  • 图像生成模型
    • stabilityai/sd-turbo
    • stabilityai/sdxl-turbo
    • ByteDance/SDXL-Lightning
    • TencentARC/PhotoMaker
    • InstantX/InstantID

若您正在使用上述任一模型,建议您尽快迁移到 Qwen2.5-Math-72B、black-forest-labs/FLUX.1-dev 等同类型的模型,以免服务受到影响。为了给您提供更好的使用体验,SiliconCloud 团队承诺将提供全面支持,确保您平稳过渡至新服务。


下线时间

功能下线日期:20241011


联系方式

我们期待这些新功能的加入能够为您带来更加丰富和高效的使用体验。如您在使用过程中有任何疑问或需要帮助,请 联系我们 进行反馈。

下线内容

平台将于2024年9月26日对部分模型进行下线处理。具体涉及的模型列表如下:

  • Qwen1.5 系列(平台现已全面上线 Qwen2.5 系列模型):
    • Qwen/Qwen1.5-110B-Chat
    • Qwen/Qwen1.5-32B-Chat
    • Qwen/Qwen1.5-14B-Chat
    • Qwen/Qwen1.5-7B-Chat
    • Pro/Qwen/Qwen1.5-7B-Chat
  • Deepseek 67B:
    • deepseek-ai/deepseek-llm-67b-chat
  • Mistral系列:
    • mistralai/Mixtral-8x7B-Instruct-v0.1
    • mistralai/Mistral-7B-Instruct-v0.2

若您正在使用上述任一模型,建议您尽快迁移到 Qwen2.5、DeepSeek V2.5 等模型,以免服务受到影响。为了给您提供更好的使用体验,SiliconCloud 团队承诺将提供全面支持,确保您平稳过渡至新服务。


下线时间

功能下线日期:2024年9月26日


联系方式

我们期待这些新功能的加入能够为您带来更加丰富和高效的使用体验。如您在使用过程中有任何疑问或需要帮助,请 联系我们 进行反馈。

平台并已于 9 月 14 日正式上线了 FLUX.1[dev] 模型的 API 调用及在线服务。点击模型广场即可在线体验。此外,为了提供更稳定和优质的服务,自 2024 年 9 月 23 日起,平台将对图像生成模型进行以下调整:


上线内容

分级限速措施:

为了优化资源分配和提升用户体验,平台将对图像生成模型实施分级限速措施。

模型调用计费:

  • FLUX.1[dev] 模型将于 9 月 23 日起开始计费,价格为 ¥0.006 / M px / Step,您可在模型广场点击该模型,计算单张图片具体价格。



  • FLUX.1[schnell] 模型将继续免费提供。针对有更高用量需求的用户,平台特别推出了 FLUX.1[schnell] Pro 版,该版按需付费,具有更高的速率上限,以满足您的业务需求。

上线时间

功能上线日期:2024年9月23日


联系方式

我们期待这些新功能的加入能够为您带来更加丰富和高效的使用体验。如您在使用过程中有任何疑问或需要帮助,请 联系我们 进行反馈。

  1. 平台新增deepseek-ai/DeepSeek-V2.5模型,使用deepseek-ai/DeepSeek-V2.5
  2. DeepSeek-Coder-V2-Instruct 滚动更新为 deepseek-ai/DeepSeek-Coder-V2-Instruct-0724,[使用最新deepseek-ai/DeepSeek-Coder-V2-Instruct]
  3. 接口文档:https://docs.siliconflow.cn/reference/chat-completions-3

关于DeepSeek V2.5:

DeepSeek V2 Chat 和 DeepSeek Coder V2 两个模型已经合并升级,升级后的新模型为 DeepSeek V2.5。

新模型在通用能力、代码能力上,都显著超过了旧版本的两个模型。

新模型更好的对齐了人类的偏好,在写作任务、指令跟随等多方面进行了优化:

👍

ArenaHard winrate从 68.3% 提升至 76.3%

AlpacaEval 2.0 LC winrate从 46.61% 提升至 50.52%
MT-Bench 分数从 8.84 提升至 9.02
AlignBench 分数从 7.88 提升至 8.04

与此同时新模型在原Coder模型的基础上进一步提升了代码生成能力,对常见编程应用场景进行了优化,并在标准测试集上取得了以下成绩:

👍

HumanEval: 89%

LiveCodeBench (1-9月): 41%

详见:https://platform.deepseek.com/api-docs/zh-cn/updates/

平台新增Reflection-Llama-3.1-70B模型,使用Reflection-Llama-3.1-70B


关于Reflection-Llama-3.1-70B模型:

在2024年9月6日,HyperWrite的联合创始人兼首席执行官Matt Shumer宣布了Reflection-Llama-3.1-70B模型的发布,这是一款具有革命性的开源AI模型。该模型基于Meta的Llama 3.1-70B-Instruct模型,并引入了一种创新的自我修正技术——反思调优。这一消息在人工智能社区引起了广泛关注,使Reflection-Llama-3.1-70B成为大型语言模型(LLMs)领域的潜在变革者。

Reflection-Llama-3.1-70B是一款先进的AI模型,它旨在解决AI开发中一个长期存在的问题:幻觉。幻觉是指AI生成的错误或无意义的输出。反思调优技术使模型能够自我反思其生成的文本,评估其准确性,并在最终输出之前进行必要的修正。

自我修正能力: Reflection-Llama-3.1-70B的显著特点在于其自我修正能力。这一能力通过模型对生成文本的自我反思、准确性评估以及在最终输出前的必要修正得以实现。

高基准性能: Reflection-Llama-3.1-70B在多个基准测试中表现出色,包括MMLU和HumanEval,并通过LMSys的LLM去污染器确保测试结果的纯净性。这些测试显示,Reflection-Llama-3.1-70B在性能上持续超越Meta的Llama系列模型,并与市场上顶尖的商业模型相媲美。

对AI行业的影响: Reflection-Llama-3.1-70B的推出标志着AI模型开发和使用方式的重要转折点。其自我修正功能预示着更可靠、更高效的AI应用将在各个领域得到发展。该模型能够生成准确且与上下文紧密相关的响应,使其成为执行高精度任务的宝贵工具。

为了提供更稳定和优质的服务,平台企业认证功能于2024年8月28日正式上线。以下是更新的详细内容和上线安排。


上线内容

企业认证

系统支持两种认证方式,确保企业用户身份的准确性和安全性。

  • 法人人脸识别认证:利用先进的生物识别技术,快速完成法人身份验证。
  • 企业对公打款认证:通过银行对公账户的小额打款方式,便捷完成企业认证。

个人变更为企业用户

允许个人用户无缝升级为企业用户,享受企业级服务和权益。


修改认证信息

允许个人用户和企业用户修改认证信息,30天内只可修改一次。


上线时间

功能上线日期:2024年8月28日


使用指南

  1. 访问企业认证页面:登录您的账户,访问“用户中心-实名认证-企业认证”选项。
  2. 选择认证方式:根据页面提示,选择适合您的认证方式(法人人脸识别或企业对公打款)并提交所需信息。
  3. 完成认证流程:按照指引完成认证流程,您将解锁企业用户权益。
  • 个人用户变更:个人用户可通过“变更为企业用户”享受企业权益。

联系方式

我们期待这些新功能的加入能够为您带来更加丰富和高效的使用体验。如您在使用过程中有任何疑问或需要帮助,请 联系我们 进行反馈。