transformerやってみる

いいかげんLLMとか機械学習とか、聞きかじっただけではまずかろうと思い、「社外秘情報をChatGPTなんかに突っ込むわけにはいかないのでLocalで動かせるLLMが作れないかなー」みたいなノリでちょっと勉強がてら調べてたら、余裕であったしあっさりできた。

https://ollama.com/

  • Pythonいれる(要admin)
  • pip install ollma
  • 上記サイトからバイナリをインストールして実行(常駐)

インストールして常駐している必要があるのがネックか。

streamlitでWebっぽい画面で質問するとllama3が返してくれるアプリならあっという間にできた。すごい時代や、、、
※実際にはこの前にhuggingface使う方法を試してるので、数時間はかかっている。

(会社で使っている比較的性能の良い)ノートPCだとCPU50-60%、メモリ4GBくらい使う。まあまあ使えそうな印象。

 

わしの代わりに作文とかしてくれないかなー、ということで、転移学習などについて勉強していきたいところ(できるとは言っていない)

 

 

 

 

Comments (0)

› No comments yet.

コメントを残す

Allowed Tags - You may use these HTML tags and attributes in your comment.

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Pingbacks (0)

› No pingbacks yet.