Skip to content

Instantly share code, notes, and snippets.

$ clang++ -o layer_norm -Wall --cuda-gpu-arch=sm_89 -L /usr/local/cuda-12.3/targets/x86_64-linux/lib/ -lcudart -O2 layer_norm.cu

image

@hnmr293
hnmr293 / t2i.py
Last active February 18, 2024 02:32
StableCascade text2img script
from dataclasses import dataclass
from contextlib import contextmanager
import yaml
import torch
import torchvision
from tqdm import tqdm
from inference.utils import calculate_latent_sizes
from train import WurstCoreC, WurstCoreB
from train.base import DataCore
@hnmr293
hnmr293 / ファイルの関連付けについてメモ.md
Last active August 16, 2023 11:13
Windows 11 のレジストリによる関連付けの設定
@hnmr293
hnmr293 / LoRA_decomp.md
Last active March 3, 2023 13:48
LoRA の中身が知りたくて――

LoRA の中身が知りたくて――

やりたいこと

モデルの重み行列を $W$, LoRA の重み行列を $ΔW$ とする. このとき入力ベクトルに適用される変換は $W+ΔW$ となる.

すなわち LoRA は $W$$ΔW$ の関係で特徴づけられる. うまくこの関係を抽出できれば, たとえば類似の役割を持った LoRA では特定の層で $W$ よりも $ΔW$ が顕著に大きい……といったように, LoRA の効果を定量的に解釈することが可能になると期待できる。

そこで, いろいろな LoRA での層ごとの $ΔW$ の特徴および $W$$ΔW$ の関係を調べたい.