MLX 是一个专为苹果芯片设计的机器学习研究框架,由 Apple 的机器学习研究团队开发。
MLX 是为机器学习研究人员量身打造的。这个框架不仅易于使用,同时在训练和部署模型时也非常高效。框架本身的设计概念也非常简洁,旨在让研究人员能够轻松扩展和优化 MLX,从而快速探索新的研究方向。
通过 MLX,LLM 模型可以在 Apple Silicon 设备上加速运行,用户能够非常方便地在本地运行模型。
- Python 3.11.x
- 安装 MLX 库
pip install mlx-lm
python -m mlx_lm.generate --model microsoft/Phi-3-mini-4k-instruct --max-token 2048 --prompt "<|user|>\nCan you introduce yourself<|end|>\n<|assistant|>"
运行结果(我的环境是 Apple M1 Max, 64GB)如下:
python -m mlx_lm.convert --hf-path microsoft/Phi-3-mini-4k-instruct
注意: 模型可以通过 mlx_lm.convert
进行量化,默认量化为 INT4。本示例将 Phi-3-mini 量化为 INT4。
通过 mlx_lm.convert
可以将模型量化,默认量化方式为 INT4。本示例将 Phi-3-mini 量化为 INT4。量化后的模型会存储在默认目录 ./mlx_model
。
我们可以在终端中测试 MLX 量化后的模型:
python -m mlx_lm.generate --model ./mlx_model/ --max-token 2048 --prompt "<|user|>\nCan you introduce yourself<|end|>\n<|assistant|>"
测试结果如下:
注意: 请参考此示例 点击链接
-
了解 Apple MLX 框架 https://ml-explore.github.io
-
Apple MLX GitHub 仓库 https://github.com/ml-explore
免责声明:
本文档使用AI翻译服务 Co-op Translator 进行翻译。虽然我们努力确保翻译的准确性,但请注意,自动翻译可能包含错误或不准确之处。原始语言的文档应被视为权威来源。对于关键信息,建议使用专业的人工翻译服务。我们不对因使用此翻译而引起的任何误解或误读承担责任。