(image: The Resistor Network)
2005年に発売されたApple PowerBook G4を使ってローカルでAIを動作させる試みに成功したという報告を、ブロガーのAndrew Rossignolさんがしています。
今回使用されたPowerBook G4のスペックは、PowerPC G4(1.5GHz)に1GBのPC2700 DDR SDRAMというもので、とてもノスタルジックなスペックになります。
さすがにこのスペックでは動作しないだろうと思いきや、オープンソースプロジェクトの大規模言語モデルllama2.cを使うことで、20年前の古いハードウェアでもAIを動作させることができるということが実証されました。
llama2.cは、Metaの大規模言語モデル (LLM) Llama 2をトレーニングしたもので、非常に小さなLLMになります。さらにそれを使い、PowerPC Mac でコードを実行するためにいくつかの調整が行われています。
32bitマシンであるためAIの動作には制限が多いということですが、今回インストールしたllama2.cでは、iPodで聴く曲を整理するために使われるということです。
使い道までエモいですね。
MetaのLlamaは、AppleシリコンMacで問題なく動作させることが可能です。Llama 3.2ならM1チップ上でも実行が可能で、一定の成果を得ることができます。ただし、処理には少し時間がかかるうえ、日本語環境での利用においては実用的なクオリティに達していない印象があり、多くのユーザーは最終的にオンラインで処理を行うGPTやCopilotなどのサービスへ戻る傾向があります。
今後、Appleシリコンの性能がさらに向上すれば、より低価格なモデルでも最新の大規模言語モデル(LLM)を快適に利用できる環境が整うことが期待されます。これにより、オフラインで高品質なAIモデルを活用していく時代が訪れるかもしれませんね。
Apple Intelligenceにはあまり期待していないという人が多いように見受けられますが、副次的効果でMacの性能が出し惜しみなく向上していくのは、ユーザーにとっては非常に大きなメリットになります。
- Source The Resistor Network