OpenAI 对 GPT-4o Mini 模型进行免费微调在 Meta 推出开源 Llama 3.1 模型之后不久,OpenAI 宣布对其 GPT-4o Mini 模型提供免费微调,允许用户免费使用额外数据训练模型,以便在特定用例中获得更高的性能。 GPT-4o mini 微调适用于 OpenAI 的 Tier 4 和 5 使用层级的开发人员,这是 OpenAI 计划中价格最高的层级。OpenAI 计划逐步将免费微调扩展到所有层级。免费微调将从现在开始持 运维资讯 2024-07-25 醒在深海的猫
OpenAI 发布“小”模型 GPT-4o MiniOpenAI 今天正式发布小型模型 GPT-4o mini。 据OpenAI 表示,GPT-4o mini GPT-4o mini 在 MMLU 上的得分为 82%,目前在 LMSYS 排行榜(在新窗口中打开)上的聊天偏好方面优于 GPT-4。 它的价格为每百万输入代币 15 美分,每百万输出代币 60 美分,比以前的前沿模型便宜一个数量级,比 GPT-3.5 Turbo 便宜 60% 以上。 G 运维资讯 2024-07-20 法医
#新闻拍一拍# 1750 亿参数的 AI 模型 GPT-3 引爆硅谷1750 亿参数的 AI 模型 GPT-3 引爆硅谷 OpenAI 的研究人员在上个月发表了一篇论文,描述了 GPT-3 的开发,正式发布了这个由 1750 亿个参数组成的 AI 语言模型。在 GPT-3 中,对于所有任务,模型无需进行任何梯度更新或微调,而仅通过与模型的文本交互指定任务和少量示例即可获得很好的效果。微软给 OpenAI 提供的这台超级计算机是一台排名全球前 5 的超级计算机。GP linux中国 2024-07-17 Escape
#新闻拍一拍# 大学生用 GPT-3 生成伪文章成功骗过众人大学生用 GPT-3 生成伪文章成功骗过众人 加州大学伯克利分校的学生以 Adolos 为笔名开通博客,在其中发布由 GPT-3 模型生成的文章,第一篇就被顶至 Hacker News 头条,还被 medium 等各大平台转载,该博客迅速获得了 60 位关注者及大约 2.6 万访问量。但注意到文章是由人工智能生成,且提出质疑的人屈指可数。这篇题为《觉得生产力低下?也许你应该停止过度思考》的文章,仅 linux中国 2024-07-17 共饮一杯
硬核观察 | 微软使用 GPT-3 让你可以用自然语言编码微软使用 GPT-3 让你可以用自然语言编码 微软现在正在其无代码/低代码的 Power Apps 服务中使用 OpenAI 的大规模 GPT-3 自然语言模型,将口语文本翻译成其最近发布的 Power Fx 语言的代码。当然,你不可能在只使用自然语言的情况下开发出一个大应用,目前只是将一些低代码开发进一步转变成无代码开发。 低代码/无代码开发只能用在某些不那么严肃的领域,我认为它甚至不能起到比脚 linux中国 2024-07-17 共饮一杯
如何在 Windows 和 Linux 上确定系统使用的是 MBR 还是 GPT 分区在你安装 Linux 或任何其他系统的时候,了解你的磁盘的正确分区方案是非常关键的。 目前有两种流行的分区方案,老一点的 MBR 和新一些的 GPT。现在大多数的电脑使用 GPT。 在制作临场镜像或可启动 USB 设备时,一些工具(比如 Rufus)会问你在用的磁盘分区情况。如果你在 MBR 分区的磁盘上选择 GPT 方案的话,制作出来的可启动 USB 设备可能会不起作用。 在这个教程里,我会展示 linux中国 2024-07-17 张二河
硬核观察 #630 Facebook 开源挑战 GPT-3 的语言模型Facebook 开源挑战 GPT-3 的语言模型 OpenAI 的文本生成神经网络 GPT-3 是目前最先进的语言模型之一,使用了 1750 亿个参数,但它至今没有开源,只通过其申请及审核程序提供给学术界和商业实体使用。现在 Meta 开源了能挑战 GPT-3 的语言模型开放式预训练变换模型 OPT-175B,使用了能比拟 GPT-3 的 1750 亿个参数。作者们在论文中说,“考虑到计算成本, linux中国 2024-07-16 穿过生命散发芬芳
硬核观察 #684 GPT-3 写一篇关于它自己的学术论文,已经提交评审GPT-3 写一篇关于它自己的学术论文,已经提交评审 研究人员给人工智能算法 GPT-3 输入了一个简单的指令:用 500 字写一篇关于 GPT-3 的学术论文,并在文中加入参考文献和引文。他们给程序了一些提示,催促它创建导言、方法、结果和讨论等部分,就像写一篇科学论文那样,但尽可能少干预。结果,GPT-3 在短短两个小时内就产生了一篇论文。目前该论文已经提交给学术期刊审核,并发表在国际预印本服务 linux中国 2024-07-16 泡泡
硬核观察 #879 GPT-4 将有 100 万亿参数,与人类大脑神经元数量相当!GPT-4 将有 100 万亿参数,与人类大脑神经元数量相当! OpenAI 发布于 2020 年的 GPT-3 有 1750 亿个参数。根据传闻,即将在 2023 年初发布的 GPT-4 的参数约为 100 万亿。如果将参数比作人类的神经元,这一数量的参数大致相当于人类大脑中存在的神经元连接的数量,而人类实际上并没有使用我们大脑的全部容量。按照 GPT-3 对其前代产品的进步,GPT-4 将在能 linux中国 2024-07-16 法医
硬核观察 #900 微软准备将 GPT-4 接入到必应搜索引擎微软准备将 GPT-4 接入到必应搜索引擎 据称,微软正在努力将 OpenAI 的 ChatGPT 的更快版本(被称为 GPT-4)在未来几周内纳入它的必应搜索引擎。整合后,必应将使用 GPT-4 来回答搜索查询。GPT-4 和 ChatGPT 的主要区别在于速度,不像 ChatGPT 有时需要长达几分钟的时间来形成回应。通过使用 GPT-4,必应将能够为用户提供人性化的答案,而不是仅仅显示一个链 linux中国 2024-07-16 大树
硬核观察 #941 OpenAI 宣布 GPT-4,事实性评估得分提高 40%OpenAI 宣布 GPT-4,事实性评估得分提高 40% 正如上周微软德国 CTO 披露 的那样,OpenAI 今天发布了 GPT-4。它与 GPT-3 的一个主要区别是它是一个大型多模态模型,而不是大型语言模型,它的输入输出不再局限于文本,可以是图像和视频。GPT-4 的参数数量未知,可能会比 GPT-3 的 1750 亿个参数要多,但其数据训练集仍然停留在 2021 年 9 月。OpenAI linux中国 2024-07-16 三掌柜
硬核观察 #937 微软称多模态的 GPT-4 将在下周发布微软称多模态的 GPT-4 将在下周发布 在 3 月 9 日举行的一场 AI 活动中,微软德国公司的 CTO Andreas Braun 随意地提到,“我们将在下周推出 GPT-4,它将是一个多模态模型,能够提供完全不同的可能性,比如支持视频。”微软是 OpenAI 的合作伙伴,前两天刚刚 介绍 了其多模态模型 Kosmos-1。在 ChatGPT 正式发布之前,GPT-4 已经经过几个月的测试和 linux中国 2024-07-16 贤蛋大眼萌
硬核观察 #974 Auto-GPT 将人工智能“套娃”Auto-GPT 将人工智能“套娃” 最近,一个名为 AutoGPT 的新人工智能工具发布了,它比 ChatGPT 更有潜力。它可以执行人类级别的任务,并利用 GPT-4 的能力来开发一个可以独立运作而不受用户干扰的 AI 代理。它是一个实验性的、开源的 Python 应用程序,它使用 ChatGPT/GPT-4 来自主地行动。AutoGPT 使用“套娃”的概念来递归地调用自己,这是一种让 AI linux中国 2024-07-16 Escape
硬核观察 #989 使用游戏机来控制机枪炮塔使用游戏机来控制机枪炮塔 乌克兰的士兵们正在使用 Steam Deck 来远程操作一个大口径机枪炮塔。这种由手持视频游戏机控制的武器被称为 “军刀”,是乌克兰独有的,它是通过众筹资金建造的。该系统允许士兵从很远的地方与敌人作战,并且可以处理各种口径的武器,从发射反坦克弹的轻机枪到 AK-47。 消息来源:VICE 老王点评:游戏机军事化,Valve 可能没想到枪战游戏会变成真人 CS 吧。 Ope linux中国 2024-07-16 Escape
硬核观察 #997 OpenAI 用 GPT-4 来解释 GPT-2 的行为OpenAI 用 GPT-4 来解释 GPT-2 的行为 大语言模型(LLM)像大脑一样,它们是由 “神经元” 组成的,它们观察文本中的一些特定模式,以影响整个模型接下来 “说” 什么。但由于 LLM 中的参数数量多到已经无法由人类解释的程度,因此,LLM 给人一种 “黑盒” 的感觉,并出现了偏见、幻觉、涌现等一系列不好解释的现象。OpenAI 正在开发一种工具,以自动识别 LLM 的哪些部分负责 linux中国 2024-07-16 大白菜程序猿
Llama 2 vs GPT-4:有何区别?了解 Llama 2 和 GPT-4 之间的主要区别,它们是自然语言处理的领先巨头。揭示它们的优势、劣势以及它们如何塑造语言技术的未来。 在撰写内容时,有两个关键因素至关重要,“ 困惑度 perplexity ”和“ 爆发性 burstiness ”。困惑度衡量文本的复杂程度。而爆发性则比较句子的变化程度。人类倾向于以较大的爆发性写作,例如长句或复杂句与短句并存。人工智能生成的句子往往更加均一。 linux中国 2024-07-16 Escape
硬核观察 #1089 ChatGPT 的数学成绩更差了ChatGPT 的数学成绩更差了 研究人员给聊天机器人布置了一项基本任务:识别某个数字是否是质数。这种数学问题对人来说很复杂,但对电脑来说却很简单。研究人员向 ChatGPT 输送了 1000 个不同的数字。三月份,GPT-4 能正确识别 84% 的数字是否为质数。(坦率地说,对于一台计算机来说,这样的表现非常一般。)到了六月份,它的成功率下降到了 51%。在 8 项不同的任务中,GPT-4 有 linux中国 2024-07-16 大白菜程序猿
手把手案例!怎样拿开源的 GPT-2 训练小模型,挑战 GPT-3.5当前业内普遍认可的一个观点是,大模型(LLM)参数规模越大,其性能越强,表现得越像人类。 然而,一个只有 5 亿参数的小模型(SLM),在做文档摘要任务时,其表现却超过了 GPT-3.5。这听起来很不可思议。官方曾公布 GPT-3.5 的参数量为 1750 亿,是该小模型的 300 倍。 这是怎么做到的? 基于“大数据、大算力、强算法”的大模型的大规模预训练已经成为了一项极其烧钱的竞赛,有能力加入 运维资讯 2024-06-20 大猫
Zadig AI Pilot 实时助理更懂你,咱也用上了 GPT-4o ! 在 Zadig,我们致力于通过创新技术为用户提供卓越的产品体验。今天,我们自豪地宣布 Zadig AI Pilot 的重大升级,引入最新的 GPT-4o 模型和实时数据更新功能,旨在极大提升用户的工作效率和体验。 技术核心升级:引入 GPT-4o · 极速响应 :相比之前的版本,GPT-4o 模型显著提升了响应速度,确保用户问题迅速得到解答。 · 自然对话 :优化的对话生成技术,让交流更加 运维资讯 2024-06-17 LOVEHL^ˇ^
GPT4 与 GPT4o:有哪些地方不同我们正在见证人工智能和机器学习世界的快速发展,而 OpenAI 处于这些人工智能创新的最前沿。 OpenAI的最新进展之一是 GPT-4o 的发布,这是广受好评的 GPT-4 的优化版本。让我们深入研究 GPT-4o 中的关键更新,将其与其前身版本进行比较。 GPT-4简介 GPT-4 是生成式预训练 Transformer 模型系列的第四版本,标志着自然语言处理领域的重大飞跃。GPT-4 以其增 运维资讯 2024-05-24 醒在深海的猫