LLM

初心者でもできる!HuggingFaceモデルをGGUF形式に変換しOllamaで使う手順

最近、AIのことは一応触ってはいますが、ちっともわからない状況です 先日までOllamaを使用していたのでローカルLLMについてはなんとなく分かってきた様でもありという状況ですが、OllamaはGGUF形式のモデルが使えるとはいえ、すべてのモデルがGUFF形式で公…

Ollamaで広がるローカルLLMの世界 - GGUF形式モデルのインポート方法

これまでOllamaを使用して比較的容易にローカルLLMモデルを使用することをやってきました。ここまで来ると未対応のLLMモデルを使用したくなってきます(よね)。 そこで、OllamaのREADMEファイルを読んでいったところ github.com Import GGUFという項目があり…

RaspberryPi5で挑む!DockerとOllamaを活用したローカルLLM環境の構築と実験

以前の投稿では、少し古いゲーミングPCにUbuntuをインストールし、Dockerコンテナを使ってOllamaを起動し、ローカルLLM環境を構築しました。 PC上でローカルLLMを動作させていましたが、最近ではモデルサイズが小さく、よりコンパクトなLLMが登場しています…

ローカル環境でAIを活用する新時代:OllamaとPythonの強力タッグ

以前のエントリでは、Ollamaを使ってローカル環境でLLMを構築する手順を説明しました。それだけでも十分に活用できるのですが、さらに一歩進めて、Ollamaをより深く活用する方法について考えてみました。Ollamaをセットアップすると、REST APIを介してシステ…

ローカルLLMをWebUIで手軽に操作!噂のllama3、phi3、Graniteも使える!

最近では、生成系AIも徐々に多様化してきて、ローカルLLMの使用も流行ってきていますね。個人利用であれば、OpenAIのChatGPTなどのSaaS型の生成AIでも問題ないのですが、企業活動になるとそう言ってもいられない事象があるのはもっともかもしれません。 今回…

/* -----codeの行番号----- */