LoRAとは:20~200枚ぐらいの絵があれば絵柄をまねできるらしい。
なんでたった20枚で絵を学習できるの : 実は学習してるんじゃなくて味付けしてるだけ。ニンニク入れればみんなラーメン二郎。
基盤モデルは6GBの容量で、数万枚の学習データが入っている。それに自分の絵柄を学習したLoRAデータ(数10MB)で方向づけをするとお手軽に自分の絵柄を近づけられる。実際は学んでない。基盤モデルにない絵は描けない。
豚骨ラーメンやこってり醤油ラーメン(基盤モデル)に、もやしとニンニクたっぷり(LoRA)入れれば二郎欲を少しは満たせる。寿司(基盤モデル)にニンニクともやし(LoRA)いれたら怒られるようなもん
画像を用意する。それとその画像がなんなのかをタグで説明するテキストデータを同じだけ用意する。
・Googleアカウント(Githubもあるとよし)
・画像20枚
・画像に紐づいた名前の、画像を説明するテキストデータ20個(girl.jpg なら girl.txt)
01.jpg
01.txt
------------------------------------------
a_girl , smile, looking_at_viewer, watercolor,
------------------------------------------
データをグーグルドライブにぶち込む。設定で場所や置き方が変わる。余計なデータが含まれてると動かないので気を付ける。2時間とられる
こんな絵をいれた(人物メイン)
このセットアップで行った。
セットし終えたら▶マーク。
計算終わるのに20分かかる。
できた!
俺の絵にあったモデル選択をしてなかったって。GPT先にいってよ。
ANIMEスタイルならあってるでしょう。GPTも太鼓判でそれつかうといいよ!ってすすめてくれる
俺の絵は何かに影響を与えられるなんて思い上がりだった。みんなあんなに絵を盗まれるとか、描く仕事を奪われるとか、死ねとかカスとかいがみあって対立しあって殺伐としてるのに。機械にすら見向きもされない絵柄。寂しい
学習モデルを外部のに変える
と出てくる絵もそれっぽくなってきてる?
・20枚じゃ学習量がたりない。200枚でやってみる。
・LoRAの学習方法を別の方式で試す。(じぶんのPC で)
20枚ならGPTのが真似るのが上手い。学習も描くのもできて、GPT自体がどうやるのか教えるのもうまいって。産んでくれておっぱい飲ませてくれて育ててくれるお母さんだね。LoRAは参入障壁がインディージョーンズ。蛇(英語)と大玉ころがし(プログラム)乗り越えてこの結果