AI
最近、AIのことは一応触ってはいますが、ちっともわからない状況です 先日までOllamaを使用していたのでローカルLLMについてはなんとなく分かってきた様でもありという状況ですが、OllamaはGGUF形式のモデルが使えるとはいえ、すべてのモデルがGUFF形式で公…
これまでOllamaを使用して比較的容易にローカルLLMモデルを使用することをやってきました。ここまで来ると未対応のLLMモデルを使用したくなってきます(よね)。 そこで、OllamaのREADMEファイルを読んでいったところ github.com Import GGUFという項目があり…
先日、オンラインで生成AIと向き合うための準備編 〜watsonx.ai Dojo #1〜に参加しましたので、その内容をレポートとともに次回に向けての環境設定を行ってみます。 今回は知人から紹介を受けて、watsonx.aiに興味があったので参加です。自分のAIの知識は我…
以前の投稿では、少し古いゲーミングPCにUbuntuをインストールし、Dockerコンテナを使ってOllamaを起動し、ローカルLLM環境を構築しました。 PC上でローカルLLMを動作させていましたが、最近ではモデルサイズが小さく、よりコンパクトなLLMが登場しています…
以前のエントリでは、Ollamaを使ってローカル環境でLLMを構築する手順を説明しました。それだけでも十分に活用できるのですが、さらに一歩進めて、Ollamaをより深く活用する方法について考えてみました。Ollamaをセットアップすると、REST APIを介してシステ…
最近では、生成系AIも徐々に多様化してきて、ローカルLLMの使用も流行ってきていますね。個人利用であれば、OpenAIのChatGPTなどのSaaS型の生成AIでも問題ないのですが、企業活動になるとそう言ってもいられない事象があるのはもっともかもしれません。 今回…
NVIDIA製GPUを家では使用できるようにしたのですが、外出中でもなんとか使えないかと思いっていたところGTX1070Mobileを搭載した少し古めのゲーミングPCが準備できたので、OSにUbuntu24.04LTSをインストールし、NVIDIAドライバとCUDAをセッティングするとい…
以前のブログで【便利】コマンドラインツールで超解像処理!静止画も動画も高画質にという内容で書いていました。 uepon.hatenadiary.com PowerShellやcmdの補完機能があるとはいえ、コマンドラインでの実行では打ち込みが多いので結構大変です。こんなとき…
昨年の秋ごろから気になっていたIBM watsonx.aiですが、ようやく時間ができたので、これまでの情報をもとにさわってみようかなと思います。 まずは事前に準備されたサンドボックスを使用して、どんな感じなのかを体験してみようと思います。 Qiitaにも記事は…
以前、Upscaylというアプリを使用して低解像度の画像を超解像化を試してみました。結果がわかりやすくすごい技術だったのですが、それだけで終わったらちょっともったいないなあと思い、今回はプログラミング的な感覚(比較的自動化しやすい)ものについて調…
前回に引き続きゲーミングPCのレビューをしてみたいと思います。今回は生成画像AIのベンチマークとなります。 参考 uepon.hatenadiary.com uepon.hatenadiary.com uepon.hatenadiary.com 画像生成AIの環境の設定 いろいろと迷いながら環境設定を行っていまし…
前回のDockerコンテナからNVIDIAのGPU認識を行ったので、続いてはいよいよ本丸のDockerコンテナでのStable Diffusion Web UI(以下Stable Diffusion)を実行して、ローカルPCのブラウザから生成を行ってみます。結構メジャーになっていることもあるので、こ…
2023.12.21 追記 コンテナが起動しない場合 最近、生成系AIに関しても興味がでてきたのでちょこっとStable Diffusionなんかも簡単に動かしたいなあと思うようになりました。と入っても、ノートPCではストレージにも余裕がそこまでなく、やばいときには環境を…