英特尔工程师刚刚发布了OpenVINO 2024.1,这是这个优秀的开源人工智能工具包的最新功能发布,它继续扩展其功能,特别是围绕Generative AI“GenAI”和大型语言模型(LLM)。
在生成人工智能方面,OpenVINO 2024.1添加了针对Intel Xeon CPU优化的Mixtral和URLNet型号,Stable Diffusion 1.5/ChatGLM3-6B/Qwen-7B型号已通过其Arc Graphics进行了优化,以实现更快的Intel Core Ultra(Meteor Lake)性能,现在还增加了对Falcon-7B指令LLM的支持。
OpenVINO 2024.1还减少了支持“英特尔高级矩阵扩展”(AMX)的英特尔处理器的大型语言模型编译时间,在英特尔Arc Graphics GPU上使用oneDNN/INT4/INT8实现了更好的LLM压缩和性能,并显著减少了英特尔Core Ultra处理器上较小GenAI模型的内存。
OpenVINO 2024.1还将Intel Core Ultra“Meteor Lake”处理器的神经处理单元(NPU)插件引入GitHub存储库,而不必依赖外部PyPi包。OpenVINO的JavaScript API现在也可以通过NPM存储库更容易地访问。对于ARM处理器上的OpenVINO,现在默认情况下,ARM的卷积神经网络支持FP16推理。
Overall OpenVINO 2024.1 is looking like a great release. I look forward to trying out OpenVINO 2024.1 as well as running some fresh OpenVINO benchmarks especially if the Core Ultra NPU plug-in is now in good shape. The OpenVINO 2024.1 toolkit can be downloaded from GitHub.