マンメンミ

transformerやってみる

いいかげんLLMとか機械学習とか、聞きかじっただけではまずかろうと思い、「社外秘情報をChatGPTなんかに突っ込むわけにはいかないのでLocalで動かせるLLMが作れないかなー」みたいなノリでちょっと勉強がてら調べてたら、余裕であったしあっさりできた。

https://ollama.com/

  • Pythonいれる(要admin)
  • pip install ollma
  • 上記サイトからバイナリをインストールして実行(常駐)

インストールして常駐している必要があるのがネックか。

streamlitでWebっぽい画面で質問するとllama3が返してくれるアプリならあっという間にできた。すごい時代や、、、
※実際にはこの前にhuggingface使う方法を試してるので、数時間はかかっている。

(会社で使っている比較的性能の良い)ノートPCだとCPU50-60%、メモリ4GBくらい使う。まあまあ使えそうな印象。

 

わしの代わりに作文とかしてくれないかなー、ということで、転移学習などについて勉強していきたいところ(できるとは言っていない)

 

 

 

 

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です