使用预训练权重在本地运行法学硕士有哪些选择?

2024年 2月 22日 51.8k 0

使用预训练权重在本地运行法学硕士有哪些选择?

问题内容

我有一个集群,虽然有一种可用的权重存储库,但未连接到互联网。我需要对其运行 LLM 推理。

到目前为止,我发现的唯一选择是使用 transformerslangchain 模块的组合,但我不想调整模型的超参数。我遇到了 ollama 软件,但我无法在集群上安装任何东西,除了 python 库之外。所以,我自然想知道,运行 LLM 推理有哪些选择?还有一些问题。

  • 我可以只安装 ollama-python 软件包而不安装他们的 Linux 软件吗?或者我需要两者来运行我的推理吗?
  • 如果我设法在此集群上安装 ollama,如何为模型提供预训练权重?如果有帮助,它们存储在(有时多个).bin 文件中
  • 正确答案

    您实际上不必安装 ollama。相反,您可以直接本地运行 llm,例如 mistral 模型

    llm = gpt4all(
    model="/home/jeff/.cache/huggingface/hub/gpt4all/mistral-7b-openorca.q4_0.gguf",
    device='gpu', n_threads=8,
    callbacks=callbacks, verbose=true)

    登录后复制

    或者对于 falcon

    from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
    import torch

    model_id = "tiiuae/falcon-7b-instruct"
    tokenizer = AutoTokenizer.from_pretrained(model_id)
    pipeline = pipeline(
    "text-generation",
    model=model_id,
    tokenizer=tokenizer,
    torch_dtype=torch.bfloat16,
    # trust_remote_code=True,
    device_map="auto",
    max_new_tokens=100,
    # max_length=200,
    )

    from langchain_community.llms.huggingface_pipeline import HuggingFacePipeline
    llm = HuggingFacePipeline(pipeline=pipeline)

    登录后复制

    我的笔记本电脑上安装了 16g 内存 nvidia 4090,可以支持上述 2 个型号本地运行。

    以上就是使用预训练权重在本地运行法学硕士有哪些选择?的详细内容,更多请关注每日运维网(www.mryunwei.com)其它相关文章!

    相关文章

    JavaScript2024新功能:Object.groupBy、正则表达式v标志
    PHP trim 函数对多字节字符的使用和限制
    新函数 json_validate() 、randomizer 类扩展…20 个PHP 8.3 新特性全面解析
    使用HTMX为WordPress增效:如何在不使用复杂框架的情况下增强平台功能
    为React 19做准备:WordPress 6.6用户指南
    如何删除WordPress中的所有评论

    发布评论