deepseek

DeepSeek-V2 登上全球开源大模型榜首

美国时间 2024年7月16日,LMSYS 组织的大模型竞技场(Chatbot Arena)更新结果发布,DeepSeek-V2-0628 超越 Llama3-70B、Qwen2-…

开源日报 | 开源模型击败GPT-4 Turbo;Python考虑更改版本编号;开源大模型食用指南;你喜欢计算机/编程吗?

欢迎阅读 OSCHINA 编辑部出品的开源日报,每天更新一期。 # 2024.6.19 今日要闻 彭博社:华为与腾讯接近达成协议,不向微信“抽成” 彭博社今日报道称:华为与腾讯即将…

DeepSeek Coder V2 发布,首个击败 GPT-4 Turbo 的开源模型

DeepSeek-Coder-V2 已正式上线和开源,沿用 DeepSeek-V2 的模型结构,总参数 236B,激活 21B,在代码、数学的多个榜单上位居全球第二,介于最强闭源模…

DeepSeek 发布全球最强开源 MoE 模型

幻方量化旗下组织深度求索发布了第二代开源 MoE 模型:DeepSeek-V2。 据介绍,在目前大模型主流榜单中,DeepSeek-V2均表现出色: 中文综合能力(AlignBen…

幻方发布全球最强MOE大模型! DeepSeekV2

1. 介绍今天,我们介绍了DeepSeek-V2,这是一个强大的专家混合(MoE)语言模型,其特点是训练经济且推理高效。它总共包含236B个参数,每个token激活21B个。与De…