Skip to content

Instantly share code, notes, and snippets.

@ouor
Last active March 27, 2024 15:42
Show Gist options
  • Save ouor/91fa2e633220b5b8f7203aacd7857dd2 to your computer and use it in GitHub Desktop.
Save ouor/91fa2e633220b5b8f7203aacd7857dd2 to your computer and use it in GitHub Desktop.
{
"很遗憾您这没有能用的显卡来支持您训练": "죄송하지만, 훈련에 필요한 호환 가능한 GPU가 제공되지 않습니다.",
"是": "네",
"step1:正在处理数据": "1단계: 데이터 처리중",
"step2a:无需提取音高": "2단계a: 음높이 추출 생략",
"step2b:正在提取特征": "2b단계: 특징 추출 중입니다.",
"step3a:正在训练模型": "단계3a: 모델 훈련이 시작됨",
"训练结束, 您可查看控制台训练日志或实验文件夹下的train.log": "학습이 완료되었습니다. 콘솔에서 학습 로그를 확인하거나 실험 폴더에서 'train.log' 파일을 확인할 수 있습니다.",
"全流程结束!": "모든 과정이 완료되었습니다!",
"本软件以MIT协议开源, 作者不对软件具备任何控制力, 使用软件者、传播软件导出的声音者自负全责. <br>如不认可该条款, 则不能使用或引用软件包内任何代码和文件. 详见根目录<b>使用需遵守的协议-LICENSE.txt</b>.": "이 소프트웨어는 MIT 라이선스로 오픈 소스로 공개되었습니다. 저자는 이 소프트웨어를 제어할 수 없습니다. 소프트웨어를 사용하고 소프트웨어로 내보낸 소리를 배포하는 사용자는 전적으로 책임을 집니다. <br>이 조항에 동의하지 않는 경우 소프트웨어 패키지 내의 모든 코드와 파일을 사용하거나 참조할 수 없습니다. 자세한 내용은 루트 디렉토리의 <b>사용 계약-LICENSE.txt</b>를 참조하세요.",
"模型推理": "모델 추론",
"推理音色": "음성 추론:",
"刷新音色列表和索引路径": "음색 목록과 인덱스 경로를 새로고침합니다.",
"卸载音色省显存": "음색 언로드하여 GPU 메모리 절약하기:",
"请选择说话人id": "화자/가수 ID를 선택해주세요.",
"男转女推荐+12key, 女转男推荐-12key, 如果音域爆炸导致音色失真也可以自己调整到合适音域. ": "남성을 여성으로 전환할 때는 +12 음정을 권장하고, 여성을 남성으로 전환할 때는 -12 음정을 권장합니다. 만약 음역이 너무 넓어져 음색이 왜곡될 때는 직접 적절한 음역으로 조정할 수도 있습니다.",
"变调(整数, 半音数量, 升八度12降八度-12)": "음조 변경 (정수, 반음 수, 옥타브 상승: 12, 옥타브 내림: -12)",
"输入待处理音频文件路径(默认是正确格式示例)": "처리할 오디오 파일의 경로를 입력하세요 (기본값은 올바른 형식 예제입니다):",
"选择音高提取算法,输入歌声可用pm提速,harvest低音好但巨慢无比,crepe效果好但吃GPU": "음높이 추출 알고리즘을 선택하세요. 'pm'은 추출이 빠르지만 음질이 낮습니다. 'harvest'는 베이스가 더 좋지만 추출 속도가 굉장히 느립니다. 'crepe'는 음질이 더 좋지만 GPU에 많은 부하가 걸립니다. 입력한 노래 음성에 사용할 수 있습니다.",
">=3则使用对harvest音高识别的结果使用中值滤波,数值为滤波半径,使用可以削弱哑音": "만약 3 이상이면, 수확된 음높이 결과에 중앙값 필터링을 적용합니다. 값은 필터 반경을 나타내며 숨소리를 줄일 수 있습니다.",
"特征检索库文件路径,为空则使用下拉的选择结果": "특징 검색 라이브러리 파일 경로입니다. 공란으로 둘 경우 드롭다운에서 선택한 결과를 사용합니다.",
"自动检测index路径,下拉式选择(dropdown)": "인덱스 경로를 자동으로 감지하고 드롭다운에서 선택하세요:",
"特征文件路径": "특징 파일 경로:",
"检索特征占比": "검색 특성 비율:",
"后处理重采样至最终采样率,0为不进行重采样": "후 처리에서 출력 오디오를 최종 샘플 속도로 재샘플링합니다. 재샘플링하지 않으려면 0으로 설정하세요.",
"输入源音量包络替换输出音量包络融合比例,越靠近1越使用输出包络": "입력 음량 엔벨로프를 출력 음량 엔벨로프로 대체하거나 혼합하는 데 사용하세요. 비율이 1에 가까울수록 출력 엔벨로프가 더 많이 사용됩니다.",
"保护清辅音和呼吸声,防止电音撕裂等artifact,拉满0.5不开启,调低加大保护力度但可能降低索引效果": "전자 음악에서 찢겨지는 등의 아티팩트를 방지하기 위해 무성음자음과 숨소리를 보호하세요. 비활성화하려면 0.5로 설정하세요. 보호 강도를 높이기 위해 값을 낮추면 색인 정확도가 감소할 수 있습니다.",
"F0曲线文件, 可选, 一行一个音高, 代替默认F0及升降调": "F0 곡선 파일 (선택사항). 한 줄에 하나의 음높이. 기본 F0과 음높이 변화를 대체합니다.",
"转换": "음성을 변환합니다. 다른 화자의 음성으로 노래를 변환할 수 있습니다. 이를 위해 입력할 음악을 선택하고 변환할 대상 화자를 지정하세요.",
"输出信息": "출력 정보",
"输出音频(右下角三个点,点了可以下载)": "음성 파일을 내보내기 위해서는 오른쪽 하단의 세 점을 클릭해주세요. (클릭하면 다운로드가 가능합니다.)",
"批量转换, 输入待转换音频文件夹, 或上传多个音频文件, 在指定文件夹(默认opt)下输出转换的音频. ": "일괄 변환 기능입니다. 변환할 오디오 파일이 있는 폴더를 입력하거나 여러 오디오 파일을 업로드하세요. 변환된 오디오는 지정된 폴더(opt)에 출력됩니다.",
"指定输出文件夹": "출력 폴더 지정:",
"输入待处理音频文件夹路径(去文件管理器地址栏拷就行了)": "처리할 오디오 폴더의 경로를 입력하세요 (파일 매니저의 주소 표시줄에서 복사하세요):",
"也可批量输入音频文件, 二选一, 优先读文件夹": "오디오 파일을 일괄적으로 입력할 수도 있습니다. 두 가지 옵션 중 하나를 선택하십시오. 폴더에서 읽기가 우선합니다.",
"导出文件格式": "내보내는 파일 형식",
"伴奏人声分离&去混响&去回声": "반주와 보컬 분리, 반향제거, 에코 제거",
"输入待处理音频文件夹路径": "처리할 오디오 폴더의 경로를 입력하세요:",
"模型": "노래하는 음성을 다른 화자의 음성으로 변환하는 모델입니다.",
"指定输出主人声文件夹": "보컬을 위한 출력 폴더를 지정하세요.",
"指定输出非主人声文件夹": "배경음악의 출력 폴더를 지정하세요:",
"训练": "학습하기",
"step1: 填写实验配置. 实验数据放在logs下, 每个实验一个文件夹, 需手工输入实验名路径, 内含实验配置, 日志, 训练得到的模型文件. ": "단계1: 실험 구성을 작성합니다. 실험 데이터는 'logs' 폴더에 저장되며, 각 실험마다 별도의 폴더가 있습니다. 실험 이름 경로를 수동으로 입력하여 실험 구성, 로그 및 훈련된 모델 파일이 포함된 폴더에 액세스합니다.",
"输入实验名": "실험 이름을 입력하세요:",
"目标采样率": "",
"模型是否带音高指导(唱歌一定要, 语音可以不要)": "모델이 음높이 지도를 제공하는지 여부 (노래에 필수, 말하기에는 선택 가능):",
"版本(目前仅40k支持了v2)": "버전 (현재 40k 샘플 레이트에서는 v2만 지원됩니다):",
"提取音高和处理数据使用的CPU进程数": "음높이 추출 및 데이터 처리에 사용되는 CPU 프로세스 수:",
"step2a: 自动遍历训练文件夹下所有可解码成音频的文件并进行切片归一化, 在实验目录下生成2个wav文件夹; 暂时只支持单人训练. ": "Step2a: 훈련 폴더에서 오디오로 디코딩 가능한 모든 파일을 자동으로 탐색하고 슬라이스 정규화를 수행합니다. 실험 디렉토리에 2개의 wav 폴더를 생성합니다. 현재는 단일 가수/화자 훈련만 지원됩니다.",
"输入训练文件夹路径": "학습 폴더 경로를 입력하세요.",
"请指定说话人id": "화자/가수의 ID를 지정해주세요.",
"处理数据": "데이터 처리하기",
"step2b: 使用CPU提取音高(如果模型带音高), 使用GPU提取特征(选择卡号)": "2단계b: 모델이 음조를 가지고 있다면 CPU를 사용하여 음조를 추출하고, 특징을 추출하기 위해 GPU를 사용하세요(카드 번호를 선택하세요).",
"以-分隔输入使用的卡号, 例如 0-1-2 使用卡0和卡1和卡2": "'-'로 구분된 GPU 색인을 입력하세요. 예를 들면, 0-1-2를 입력하면 GPU 0, 1, 2를 사용합니다.'",
"显卡信息": "그래픽 카드 정보",
"选择音高提取算法:输入歌声可用pm提速,高质量语音但CPU差可用dio提速,harvest质量更好但慢": "음높이 추출 알고리즘 선택하기: 'pm'은 추출 속도가 빠르지만 음질이 낮아요. 'dio'는 음질이 개선되지만 추출 속도가 느려요. 'harvest'는 음질이 더 좋지만 추출 속도가 느려요.",
"特征提取": "특성 추출",
"step3: 填写训练设置, 开始训练模型和索引": "단계 3: 훈련 설정을 작성하고 모델과 인덱스를 훈련 시작합니다.",
"保存频率save_every_epoch": "모델 저장 주기(save_every_epoch):",
"总训练轮数total_epoch": "전체 학습 에포크 수 (total_epoch):",
"每张显卡的batch_size": "각 GPU의 배치 크기:",
"是否仅保存最新的ckpt文件以节省硬盘空间": "하드 디스크 공간을 절약하기 위해 최신 '.ckpt' 파일만 저장하시겠습니까?",
"否": "아니요",
"是否缓存所有训练集至显存. 10min以下小数据可缓存以加速训练, 大数据缓存会炸显存也加不了多少速": "GPU 메모리에 모든 학습 데이터 세트를 캐시할까요? 10분 미만의 작은 데이터 세트는 캐시하여 학습 속도를 높일 수 있지만, 대용량 데이터 세트를 캐시하면 GPU 메모리를 많이 소비하고 속도 향상이 크지 않을 수도 있습니다.",
"是否在每次保存时间点将最终小模型保存至weights文件夹": "각 저장 지점마다 최종적인 작은 모델을 'weights' 폴더에 저장하시겠습니까?",
"加载预训练底模G路径": "미리 학습된 기본 모델 G 경로를 로드합니다.",
"加载预训练底模D路径": "사전 학습된 기존 모델 D 경로를 불러오세요.",
"训练模型": "모델 학습하기",
"训练特征索引": "",
"一键训练": "원 클릭 학습",
"ckpt处理": "ckpt 처리 중입니다.",
"模型融合, 可用于测试音色融合": "\"모델 융합은 음색 융합을 테스트하는 데 사용될 수 있습니다.\"",
"A模型路径": "A 모델의 경로:",
"B模型路径": "B 모델의 경로:",
"A模型权重": "모델 A의 가중치(w):",
"模型是否带音高指导": "모델이 음높이 지도를 제공하는지 여부:",
"要置入的模型信息": "넣을 모델 정보:",
"保存的模型名不带后缀": "확장자 없는 저장된 모델 이름:",
"模型版本型号": "모델 구조 버전:",
"融合": "음성 합성 모델의 UI를 표현하는 텍스트입니다. 이 모델은 노래하는 음성을 다른 화자의 음성으로 합성하는 기능을 제공합니다.",
"修改模型信息(仅支持weights文件夹下提取的小模型文件)": "모델 정보 수정 (weights 폴더에서 추출된 작은 모델 파일에 대해서만 지원됩니다)",
"模型路径": "모델 경로:",
"要改的模型信息": "수정해야 할 모델 정보입니다.",
"保存的文件名, 默认空为和源文件同名": "저장할 파일 이름 (기본값: 원본 파일 이름과 동일):",
"修改": "음성 변환 모델의 UI를 나타내는 텍스트입니다. 이 모델은 노래하는 음성을 다른 화자의 음성으로 변환합니다.",
"查看模型信息(仅支持weights文件夹下提取的小模型文件)": "모델 정보 보기 (‘weights’ 폴더에서 추출된 작은 모델 파일에 대해서만 지원됩니다)",
"查看": "보기",
"模型提取(输入logs文件夹下大文件模型路径),适用于训一半不想训了模型没有自动提取保存小文件模型,或者想测试中间模型的情况": "모델 추출 (‘logs’ 폴더 아래의 큰 파일 모델 경로를 입력하십시오). 이것은 중간에 훈련을 멈추고 작은 모델 파일을 수동으로 추출하고 저장하거나 중간 모델을 테스트하려는 경우 유용합니다.",
"保存名": "저장 이름:",
"模型是否带音高指导,1是0否": "모델이 음높이 가이드를 지원하는지 여부 (1: 지원, 0: 미지원):",
"提取": "음성 변환 모델의 UI에 사용되는 텍스트로, 다른 화자의 노래하는 음성을 추출하는 기능을 제공합니다.",
"Onnx导出": "Onnx 내보내기",
"RVC模型路径": "RVC 모델 경로:",
"Onnx输出路径": "Onnx 출력 경로:",
"MoeVS模型": "MoeVS 모델",
"导出Onnx模型": "Onnx 모델 내보내기",
"常见问题解答": "종종 묻는 질문들 (FAQ: Frequently Asked Questions)",
"招募音高曲线前端编辑器": "음높이 곡선의 프론트 엔드 편집기를 모집합니다.",
"加开发群联系我xxxxx": "개발 그룹에 가입해서 xxxxx로 저에게 연락해주세요.",
"点击查看交流、问题反馈群号": "클릭하여 커뮤니케이션 및 문제피드백 그룹 번호를 확인하세요.",
"xxxxx": "\"노래 음성 변환\" 모델의 UI를 표시하는 텍스트입니다. 다른 화자의 음성으로 노래를 부르도록 변환하는 기능을 제공합니다.",
"加载模型": "모델을 불러오세요.",
"Hubert模型": "Hubert 모델",
"选择.pth文件": ".pth 파일 선택하기",
"选择.index文件": ".index 파일을 선택하세요.",
"选择.npy文件": ".npy 파일을 선택하세요.",
"输入设备": "입력 장치",
"输出设备": "출력 장치",
"音频设备(请使用同种类驱动)": "오디오 장치 (동일한 종류의 드라이버를 사용해주세요)",
"响应阈值": "응답 임계값",
"音调设置": "음조 설정",
"Index Rate": "인덱스율",
"常规设置": "일반 설정",
"采样长度": "샘플 길이",
"淡入淡出长度": "페이드 길이",
"额外推理时长": "추론 추가 시간",
"输入降噪": "입력 잡음 감소",
"输出降噪": "음향노이즈 출력 감소",
"性能设置": "성능 설정",
"开始音频转换": "오디오 변환 시작하기",
"停止音频转换": "음성 변환을 중지합니다.",
"推理时间(ms):": "추론 시간(ms):",
"人声伴奏分离批量处理, 使用UVR5模型。": "UVR5 모델을 사용하여 보컬 반주 분리를 위한 일괄 처리를 진행합니다.",
"合格的文件夹路径格式举例: E:\\codes\\py39\\vits_vc_gpu\\白鹭霜华测试样例(去文件管理器地址栏拷就行了)。": "유효한 폴더 경로 형식의 예시: D:\\경로\\입력\\폴더 (파일 관리자 주소 표시줄에서 복사하면 됩니다). \n\n노래하는 음성을 다른 화자의 음성으로 변환하는 모델의 UI에 사용되는 텍스트입니다.",
"模型分为三类:": "이 모델은 세 가지 범주로 나뉩니다:",
"1、保留人声:不带和声的音频选这个,对主人声保留比HP5更好。内置HP2和HP3两个模型,HP3可能轻微漏伴奏但对主人声保留比HP2稍微好一丁点;": "1. 보컬 보존: 같이 부르는 음악 없이 음성만 있는 오디오를 위해 선택하세요. HP5보다 더 좋은 보컬 보존이 가능합니다. HP2와 HP3 두 가지 모델이 내장되어 있으며, HP3은 반주가 약간 누출될 수 있지만, HP2보다 보컬을 조금 더 잘 보존합니다.",
"2、仅保留主人声:带和声的音频选这个,对主人声可能有削弱。内置HP5一个模型;": "2. 주인가수의 목소리만 보존: 화성과 함께 있는 오디오는 이 옵션을 선택하세요. 주인가수의 목소리가 약화될 수 있습니다. HP5 모델 하나가 내장되어 있습니다.",
"3、去混响、去延迟模型(by FoxJoy):": "3. 디-리버브와 디-딜레이 모델 (FoxJoy 제작):",
"(1)MDX-Net:对于双通道混响是最好的选择,不能去除单通道混响;": "(1) MDX-Net: 스테레오 리버브 제거에 최적화되어 있지만 모노 리버브는 제거할 수 없습니다.",
"(234)DeEcho:去除延迟效果。Aggressive比Normal去除得更彻底,DeReverb额外去除混响,可去除单声道混响,但是对高频重的板式混响去不干净。": "(234) DeEcho: 지연 효과를 제거합니다. 공격적 모드는 일반 모드보다 더 철저하게 제거합니다. DeReverb는 추가적으로 회선을 제거하며, 단일 스테레오 회선도 제거할 수 있지만, 고주파가 강조된 플레이트 회선에서는 제대로 제거하지 못합니다.",
"去混响/去延迟,附:": "리버브/딜레이 제거를 위해, 하기 참고사항:",
"1、DeEcho-DeReverb模型的耗时是另外2个DeEcho模型的接近2倍;": "1. DeEcho-DeReverb 모델의 처리 시간은 다른 두 개의 DeEcho 모델보다 거의 2배 더 오래 걸립니다.",
"2、MDX-Net-Dereverb模型挺慢的;": "2. MDX-Net-Dereverb 모델은 상당히 느립니다.",
"3、个人推荐的最干净的配置是先MDX-Net再DeEcho-Aggressive。": "3. 추천하는 가장 깔끔한 설정은 먼저 MDX-Net을 적용한 후 DeEcho-Aggressive를 적용하는 것입니다."
}
@Sin021607
Copy link

Hi

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment