Skip to content

Instantly share code, notes, and snippets.

@Koziev
Koziev / trajectory_explorer.py
Last active January 3, 2024 16:29
Идемпотентность перефразировок через языковые модели, и циклы трансформации
import random
import os
import torch
import transformers
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
import deepspeed
import matplotlib.pyplot as plt
@Koziev
Koziev / explore_memoization_for_fredt5.py
Created May 22, 2023 08:14
Измерение склонности к воспроизведению обучающих данных для модели генерации стихов на базе FRED T5 XL
"""
Определение склонности моделей rugpt к запоминанию обучающего датасета
"""
import collections
import os
import json
import itertools
import sys
import argparse
import random
@Koziev
Koziev / explore_memoization_for_rugpt.py
Created May 22, 2023 08:13
Измерение склонность модели генерации стихов на базе rugpt к воспроизведению обучающих данных
"""
Определение склонности моделей rugpt к запоминанию обучающего датасета
"""
import collections
import os
import json
import itertools
import sys
import argparse
import random
@Koziev
Koziev / run_chitchat_fredt5.py
Last active April 30, 2023 15:53
Интерактивная консольная генерация реплик из модели читчата FRED T5 XL
import os
import argparse
import torch
import transformers
from transformers import T5Config
if __name__ == '__main__':
proj_dir = os.path.expanduser('~/polygon/chatbot')
@Koziev
Koziev / finetune_chitchat_fredt5_with_trainer.py
Created April 26, 2023 05:47
Файнтюн FRED T5 XL via transformers.Trainer
"""
Тренировка модели болталки Axioma на FRED T5 для проекта https://github.com/Koziev/chatbot
Эксперимент с файнтюном: токены истории диалога не включаем в backprop, присваивая соответствующим целям (labels) значение -100
Прочие хинты по тренировке: https://kelijah.livejournal.com/315826.html
"""
import os
import json
import sys
import io
@Koziev
Koziev / service_text2image.py
Created April 6, 2023 08:03
Пайплайн генерации изображений для текстов, сгенерированных гэпэтэхой в хайку-боте
import io
import argparse
import logging
import random
from flask import Flask, request
from flask import jsonify
import transformers
from kandinsky2 import get_kandinsky2
"""
Эксперимент с файнтюном: токены исходного текста не включаем в backprop, присваивая соответствующим целям (labels) значение -100
"""
import os
import json
import io
import random
import itertools
"""
Файнтюн rugpt на датасете перефразировок с использованием GPT2DoubleHeadsModel (https://huggingface.co/docs/transformers/model_doc/gpt2#transformers.GPT2DoubleHeadsModel)
Для проектов чатбота и генеративных стихов.
Используется датасет перефразировок из проекта чатбота с добавленными сэмплами проекта генеративных стихов.
В качестве дистракторов используем негативные примеры перефразировок из этого же датасета плюс рандомные выборки.
04.01.2023 Заранее подготовленный датасет загружаем из paraphrases.json (см. публичную версию https://huggingface.co/datasets/inkoziev/paraphrases)
"""
@Koziev
Koziev / validate_npqa.py
Created October 28, 2022 11:49
Код оценки точности решения арифметических задач разными моделями читчата
"""
Автоматическая оценка точности генерации цифрового ответа для p(0)qa сэмплов.
13.10.2022 Добавил валидацию модели на T5
"""
import os
import io
import re
import time
@Koziev
Koziev / tsne_vizualisation_of_gpt_token_embeddings.py
Created July 29, 2022 15:06
Эксперимент с визуализацией эмбеддингов токенов в rugpt
"""
Эксперимент с визуализацией эмбеддингов токенов в rugpt.
"""
import os
import io
import collections
import torch
import transformers