
MacでDeepSeek LLMをローカルに実行する方法
AIニュース、あるいはテクノロジーニュースに注目している方なら、ChatGPTに匹敵する機能を持ちながら、トレーニングコストを大幅に削減できる強力な中国語大規模言語モデル「DeepSeek」について、すでに耳にしたことがあるかもしれません。DeepSeekは、高度な推論、汎用的な自然言語処理、ChatBot機能、タスクコンピテンシー、リサーチ機能を備えながら、コーディング、コード生成、ロジックにも優れた設計で、AI全般、そしてワークフロー全体をサポートする強力なツールとなっています。DeepSeekはWeb経由でどこからでも実行でき、DeepSeek Cloudを使用してiPhoneやiPadのアプリからダウンロードして実行することもできますが、Macユーザーには、DeepSeek LLMをMacでローカルに実行するという別の選択肢があります。
DeepSeekをローカルで実行することは、開発者、研究者、あるいはAIやLLMユーティリティに興味がある人など、多くのMacユーザーにとって便利です。DeepSeekをローカルで使用・実行することの最大のメリットの一つは、オフラインであることです。クラウドサービス(中国にリンクされているかどうかはさておき)に依存せずにDeepSeek LLMのメリットを享受でき、プライバシーが向上し、特定のユースケースに合わせてモデルをカスタマイズおよび微調整する自由度が高まります。
DeepSeekをローカルで実行するには、Apple Silicon搭載のMacが必要です。今回は、Mac用の無料ツール「LM Studio」を使って、MacでDeepSeekを素早くセットアップして使用できるようにします。一見複雑そうに聞こえますが、AIやLLM技術は初心者にとっては難しすぎるかもしれません。しかし、セットアップ手順は実はとても簡単です。これから手順を解説していきます。
MacでDeepSeekをローカルに実行する方法
繰り返しになりますが、DeepSeekをローカルで実行するには、Mシリーズ以上のチップを搭載したApple Silicon Macが必要です。このソフトウェア要件は厳格ですが、Apple Intelligence、ChatGPT、Llama、その他普及が進むLLMツールなど、他のローカルモデルを実行する場合にも標準で必要となります。また、少なくとも10GBのディスク空き容量も必要です。Apple Silicon Macをお持ちでない場合でも、iPhoneやiPadの各種アプリ、あるいはWeb経由でMacからAIツールを利用できます。ここではApple Silicon Macをお持ちの場合を想定しています。その場合、DeekSeekをローカルで実行する手順は以下のとおりです。
- lmstudio.aiからlmstudioを無料で入手
- LMStudioのディスクイメージをマウントし、ディスクイメージから「LM Studio」アプリをアプリケーションフォルダにコピーしてインストールし、アプリケーションフォルダから直接LM Studioを起動します。
- 初回起動時にオンボーディングのスプラッシュ画面が表示されるので、「最初のLLMを取得する」という緑色のボタンをクリックします。
- 最初のローカル LLM をダウンロードする画面で、緑色の「ダウンロード」ボタンをクリックします(Mac を起動するたびに DeekSeek のデーモンを実行したくない場合は、「ログイン時にローカル LLM サービスを有効にする」のチェックボックスをオフにしてください)。
- DeekSeek LLMをダウンロードします。数GBあるので、しばらく時間がかかるかもしれません。DeekSeekがローカルにダウンロードされたら、Macで直接操作できるようになります。
これで、Mac 上でローカルに DeekSeek を自由に使用し、操作できるようになります。
体験が完全にローカルであることを確認したい場合は、Wi-Fi をオフにするか、インターネットから切断してください。そうすると、LM Studio および DeekSeek を必要に応じて操作できることがわかります。
おそらく気づくのは、LLMをローカルで実行すると、クラウドベースのLLMを使用するよりも遅くなるということです。これは、クラウドLLMにはモデル実行専用の強力なリソースが大量に備わっているのに対し、LLMをローカルで実行すると、プロセッサ、メモリ、Mac上で実行されている他のアプリケーションなど、Macのローカルリソースによって制限されるためです。速度とパフォーマンスのみを重視する場合は、クラウドプロバイダーを使用することをお勧めしますが、最新の高性能なMacもかなり高速です。
Mac上のLM Studioを使えば、DeekSeek以外にもLlama、Mistral、PhiなどのLLMをローカルで実行できますが、ここではDeepSeekに焦点を当てています。過去には、Llama LLMをMac上でローカルで実行する方法(無修正モデルも!)など、ローカルモデルに関する他の選択肢についても議論してきましたが、DeepSeek(そして興味があれば他のLLMも)をローカルで実行するこのアプローチは非常に簡単で、パフォーマンスも良好です。インスピレーションを与えてくれたCultOfMacに感謝します。
個人的にはChatGPTのMacクライアントが大好きで、よく使っています。しかし、Perplexityをはじめ、他にも興味深いクライアントやAIツールがたくさんあります。Webベースやアプリベースの選択肢も数多くあり、ChatGPTをBingで使うもの、Google Gemini、XのGrok、FacebookのLlamaなど、他にもたくさんあります。
MacでDeepSeekをローカルに実行することについてどう思いますか?LLMやAIツール全般についてどう思いますか?お気に入りのローカルLLMやLLMクライアントはありますか?DeekSeek、LLM、そしてAI全般に関するご意見やご経験をコメント欄で共有してください!