Meta发布了专为编码任务量身定制的Code Llama大语言模型 (LLM)。它可以根据文本提示生成和讨论代码,从而可能简化开发人员的工作流程并帮助编码学习者。它旨在提高生产力并作为一种教育工具,帮助程序员创建强大且文档齐全的软件。
Code Llama 在社区许可下发布,是 Llama 2 的扩展,并使用特定于代码的数据集进行了微调,以增强其编码能力。它可以为代码相关提示生成代码和自然语言解释,并支持流行编程语言的代码完成和调试。
Code Llama 正在发布两个版本,一个是专门为生成 Python 代码而定制的,另一个是针对将自然语言命令转换为代码而优化的。此外,还提供三种尺寸的模型,最小的模型能够在单个 GPU 上运行。Meta 指出,Code Llama 已接受过公开代码的培训。
为什么这有关系?
开源软件对人工智能政策很重要,因为它使更多人能够使用先进的人工智能技术,促进创新和信任。
Code Llama 和类似语言模型的目标是通过自动化重复性任务来提高开发人员的工作效率,使程序员能够专注于工作中更具创造性的方面。
ode Llama 是 Meta开源方法的延续,基于 LLaMA 模型构建。反过来,这意味着任何人都可以深入了解其引擎盖以评估其功能并解决漏洞。
它真的是开源模型吗?
Code Llama不按照传统的开源软件许可证提供,而传统的开源软件许可证通常允许不受限制的商业用途。根据 Meta 提供的许可条款,用户受到某些限制,包括在用户群每月超过 7 亿的应用程序或服务中使用这些模型的限制。
与上述一致,开源倡议组织 (OSI)最近对 Meta 使用“开源”一词表示保留。他们认为 LLaMa 模型(尤其是 LLaMa 2)的许可条款与 OSI 的开源定义不一致。这种不一致源于对商业用途的限制以及许可条款中对某些应用程序领域的限制。
它面临哪些挑战?
这些人工智能模型提出了一些挑战。首先,它将如何影响劳动力,对未来的工作有何影响?其次,它们潜在的网络安全挑战成为最重要的问题,特别是在这些模型是否可以增强恶意行为者的能力方面。最后,如一些研究所示,这些模型有时可能不准确。
1. 劳动力影响
第一个挑战相当明显:随着自动化变得越来越普遍,它给劳动力带来了压力。专家分析已经表明,大多数工作岗位都需要适应人工智能技术。一项研究甚至显示,近一半的美国人担心人工智能带来的工作自动化。对于 IT 行业的人员来说,这会导致人们担心那些主要从事重复性编码工作的人员会被取代。
2. 网络安全
由人工智能驱动的网络攻击正在增加,其后果可能是毁灭性的。随着人工智能技术的进步,人们越来越担心网络犯罪分子可能能够发起更复杂、更难以检测的攻击。该工具还可以帮助自动化网络攻击,包括生成网络钓鱼电子邮件、查找代码中的漏洞以及发起自动化恶意软件攻击等活动。
3. 代码不准确
最近的一项首次深入分析评估了 ChatGPT 对 Stack Overflow 上发布的 500 多个编码问题的回答。令人惊讶(或不令人惊讶)的是,该研究显示 ChatGPT 在超过50% 的情况下提供了不准确的答案。因此,这项研究的主要结论之一强调了在寻求软件工程查询的可信答案时依赖权威来源(例如信誉良好的网站或经验丰富的专业人士)的重要性。