Skip to content

Latest commit

 

History

History
82 lines (47 loc) · 3.03 KB

MLX_Inference.md

File metadata and controls

82 lines (47 loc) · 3.03 KB

使用 Apple MLX 框架进行 Phi-3 推理

什么是 MLX 框架

MLX 是一个专为苹果芯片设计的机器学习研究框架,由 Apple 的机器学习研究团队开发。

MLX 是为机器学习研究人员量身打造的。这个框架不仅易于使用,同时在训练和部署模型时也非常高效。框架本身的设计概念也非常简洁,旨在让研究人员能够轻松扩展和优化 MLX,从而快速探索新的研究方向。

通过 MLX,LLM 模型可以在 Apple Silicon 设备上加速运行,用户能够非常方便地在本地运行模型。

使用 MLX 推理 Phi-3-mini

1. 设置 MLX 环境

  1. Python 3.11.x
  2. 安装 MLX 库
pip install mlx-lm

2. 在终端中运行 Phi-3-mini

python -m mlx_lm.generate --model microsoft/Phi-3-mini-4k-instruct --max-token 2048 --prompt  "<|user|>\nCan you introduce yourself<|end|>\n<|assistant|>"

运行结果(我的环境是 Apple M1 Max, 64GB)如下:

Terminal

3. 在终端中使用 MLX 对 Phi-3-mini 进行量化

python -m mlx_lm.convert --hf-path microsoft/Phi-3-mini-4k-instruct

注意: 模型可以通过 mlx_lm.convert 进行量化,默认量化为 INT4。本示例将 Phi-3-mini 量化为 INT4。

通过 mlx_lm.convert 可以将模型量化,默认量化方式为 INT4。本示例将 Phi-3-mini 量化为 INT4。量化后的模型会存储在默认目录 ./mlx_model

我们可以在终端中测试 MLX 量化后的模型:

python -m mlx_lm.generate --model ./mlx_model/ --max-token 2048 --prompt  "<|user|>\nCan you introduce yourself<|end|>\n<|assistant|>"

测试结果如下:

INT4

4. 在 Jupyter Notebook 中运行 Phi-3-mini

Notebook

注意: 请参考此示例 点击链接

资源

  1. 了解 Apple MLX 框架 https://ml-explore.github.io

  2. Apple MLX GitHub 仓库 https://github.com/ml-explore

免责声明
本文档使用AI翻译服务 Co-op Translator 进行翻译。虽然我们努力确保翻译的准确性,但请注意,自动翻译可能包含错误或不准确之处。原始语言的文档应被视为权威来源。对于关键信息,建议使用专业的人工翻译服务。我们不对因使用此翻译而引起的任何误解或误读承担责任。