MetaのLlama2をローカル環境で動かしてみる(検証1)
Meta社からGPT-3並みのLLM(大規模言語モデル)がオープンソースとして公開されましたので、早速使ってみます。私の環境で一番問題となるのはVRAM容量です。LLMは大量のVRAMを消費することが多いので、GTX3080の10GBなので、動くかが問題です。今回、7B、13B、70Bと3種類のサイズのモデル(1Bは10億パラメータ)と、それぞれに普通の自然言語モデルと対話形式にチューニングされたモデルがあります。しかも今回、商用利用も可能とのことで、否が応でも盛り上がります。