シンギュラリティ実験ノート

購入した1000ドルPCで何がどこまでできるのか実験した記録です。

Janを導入するとローカルPCでLLMが快適に使える

LLM(大規模言語モデル)をWindowsのデスクトップから簡単に使えるようにしてくれるソフトがJanである。GPUを使う場合はNVIDIAGPUが前提となっているが、ない場合にはCPUで動かすことができる。

Janを導入することでローカルPCでも快適にLLMが使えるようになるので紹介したい。

導入のきっかけ

Janを知ったのは、Copilotに次の質問をした時に教えてくれたのがきっかけだった。

llama2をチャットで動かす方法を教えて

Llama2をローカル環境で動かす方法を紹介しますね!Llama2はMetaが開発した言語モデルで、興味深い対話を生成することができます。以下は、Llama2をローカルで動かす手順です:

1Janのインストール:
JanはいろんなLLM(Large Language Model)を簡単に動かせるツールです。まず、GitHubからJanをダウンロードします。次に、JanでLlama 2 Chat 70B Q4をダウンロードします。

2Llama 2 Chat 70B Q4のダウンロード:
ダウンロードが完了したら、Janを起動して「Use」ボタンをクリックすれば、Llama2のチャットが開始できます。

3使ってみる:
早速質問をしてみましょう。自分のPCだと大体1トークン/秒くらいの速度で返答してくれるはずです。メモリ使用率に注意してください。

■Janのページ
https://jan.ai/about/

導入方法

ステップ1

Copirotが教えてくれた通り、まず下記のページからWindows版のインストールプログラムをダウンロードする。

jan.ai

プログラムを実行し、Janをインストールする。無事インストールできたらデスクトップにできたショートカット、またはWindowsメニューからJanを起動する。

ステップ2

左メニューにあるHubアイコンを押すとモデルのダウンロード画面になるので、使いたいLLMを選びDownloadボタンを押す。

Hub画面

無事にダウンロードが完了するとUseボタンになるのでこれを押す。

モデルがダウンロードできた状態

もし、ダウンロードが全く始まらない現象が起きたら、アプリを起動し直したり、スレッドを閉じるなどの操作をしてみてほしい。私は何度か経験したが、操作している内に解決できた。まだ原因は不明である。

ステップ3

無事にダウンロードできていれば直ぐにチャットを始めることができる。

以下は「Trinity-v1.2 7B Q4」とチャットした例である。

イギリスで起きた郵便局冤罪事件について

古いデータを元に学習しているためだろう。期待した答えではなかった。最新の情報について聞く時は、GeminiやCopilotの方がよさそうだ。この子については日本語も少しあやしい気がする。

Pythonスクリプトの作成

回答が英語で書かれているが、正しいスクリプトを返してくれた。先日導入したanacondのpython環境でテストした結果が以下である。

Jupyter Notebookでテストした結果

別のモデルでも試してみたが、このレベルのスクリプトなら正しく回答してくれるようだ。

鳥山明の作品

日本のサブカルチャーについてはほとんど学習していないようだ。鳥山明はこんな作品は描いてないだろう。亡くなられた鳥山さんに失礼だぞ!

まとめ

これまではLLMを動かすためには、Hugging Faceからモデルをダウンロードしたり、Pythonのサンプルプログラムを参考に動作環境を自分で用意するなど、導入のハードルは高めであった。Janを使うことでこれらのハードルがかなり下がると思う。

難しい質問をしても返答にかかる時間は10秒程度だろうか。私のPCではCPUでの処理だがストレスはほとんど感じないレベルである。

Janには標準で複数のモデルがダウンロードできるようになっている。また任意のモデルを追加することもできる。ELYZAの日本語学習済みモデルも追加できたので別の記事で紹介したい。