/ai/ - Искусственный интеллект
Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Создать тред Создать тред
Check this out!

Генерация откровенного NSFW-контента на доске /nf/

<<
Каталог
Вопросов кожаных мешков тред Аноним 14/05/23 Вск 11:27:57 299474 Ответ
fde636c44dae155[...].jpg 294Кб, 1000x600
1000x600
Если вы хотите задать какой-то мелкий вопрос - используйте для этого данный тред или найдите профильный треде в каталоге.

Утонувшие треды помещаются в архив.
О разделе:
1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов. Любители чрезмерно самовыделиться идут в /asylum/.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это доска преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
Пропущено 223 постов
223 с картинками.
Пропущено 1497 постов, 223 с картинками.
Аноним 09/12/23 Суб 17:29:46 568342
Есть ли нормальный способ заставить LLaVA в сторителлинг по фотке ЕОТ?
Аноним 09/12/23 Суб 21:15:47 568558
>>568342
Нету, они пока все тупые на 7B. Жди больших размеров.
Аноним 09/12/23 Суб 22:39:22 568668
Как думаете что-то грозит всяким популярным базам моделей разных нейросеток, может надо стремительно запасаться, пока не выпилили? Или всегда есть подстраховочка у такого, что все базы скопируют на другой онлайн проект?
Баннер для AI Аноним 15/10/23 Вск 21:08:15 520258 Ответ
image 180Кб, 1024x1024
1024x1024
Пришло время пилить баннер для раздела /ai/. Постим свои идеи и варианты баннеров в треде.

Технические требования:
Формат jpg, gif (желательно)
300х100 пикселей
Не более 300 кб
Пропущено 54 постов
54 с картинками.
Пропущено 97 постов, 54 с картинками.
Аноним 30/11/23 Чтв 17:37:45 559095
>>558901
Вон кот выше, нейросвинья. Там круто и в тему. а это кал.
Аноним 30/11/23 Чтв 18:57:27 559143
15422504181301.mp4 56Кб, 450x360, 00:00:02
450x360
Аноним 09/12/23 Суб 11:58:28 567959
.
NovelAI and WaifuDiffusion тред #118 /nai/ Аноним 09/12/23 Суб 13:57:14 568133 Ответ
1650443742159.png 24803Кб, 4096x4096
4096x4096
1587542970825.jpg 1681Кб, 2400x1344
2400x1344
1588051025972.png 3323Кб, 1536x1536
1536x1536
1694480803629.png 3321Кб, 1920x1280
1920x1280
1598075462466.jpg 1040Кб, 1024x1280
1024x1280
1700430032315.png 4416Кб, 2058x1568
2058x1568
1563249189653.jpg 2005Кб, 1728x2304
1728x2304
1632025155844.jpg 2191Кб, 2560x1792
2560x1792
Генерируем тяночек!
Прошлый >>556060 (OP) архивач лежит

Схожие тематические треды:
— Технотред >>543635 (OP)
— SD-тред (фотореализм) >>566519 (OP)
— Тред в /fur/ https://2ch.pro/fur/res/284014.html

Генерируя в коллабе на чужом блокноте будьте готовы к тому, что его автору могут отправляться все ваши промты, генерации, данные google-аккаунта, IP-адрес и фингерпринт браузера.

F.A.Q. треда: https://rentry.co/nai_faq
Устанавливаем на ПК/Облако: https://rentry.co/nai_faq#как-поставить-на-пкоблако
Полезные расширения для WebUI: https://rentry.co/sd_automatic_extensions

Гайды по промптам, списки тегов и негативных эмбеддингов: https://rentry.co/nai_faq#как-писать-промпты
Как работать с ControlNet: https://stable-diffusion-art.com/controlnet
Апскейл для начинающих: https://rentry.co/sd__upscale | https://rentry.co/SD_upscale | https://rentry.co/2ch_nai_guide#апскейл
Апскейл с помощью ControlNet (для продвинутых, требуется минимум 8GB VRAM): https://rentry.co/UpscaleByControl
Гайды по обучению лор: https://rentry.co/waavd | https://rentry.co/2chAI_hard_LoRA_guide

Каталог популярных моделей:
SD 1.5: https://civitai.com/collections/42742
SD XL: https://civitai.com/collections/42753

Каталог лор на стилизацию для SD 1.5: https://civitai.com/collections/42751
Прочие лоры с форча: https://rentry.co/gitgudgayshit

Где искать модели, эмбединги, лоры, вайлдкарды и всё остальное: https://civitai.com | https://huggingface.co/models?other=stable-diffusion

Оптимизации для слабых ПК (6GB VRAM и менее): https://rentry.co/voldy#-running-on-4gb-and-under-
Общие советы по оптимизациям: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Optimizations

АИ-галереи: https://aibooru.online | https://majinai.art
Англоязычные каталоги ссылок: https://rentry.co/sdgoldmine | https://rentry.co/sdg-link

⚠️Перекат оформляется после 1000 поста
Шаблон для переката: https://rentry.co/nwhci
Пропущено 43 постов
43 с картинками.
Пропущено 113 постов, 43 с картинками.
Аноним 10/12/23 Вск 00:42:43 568784
>>568774
Тоже в голосину от этих шитдевров. Может это сам патреонщик и закидывает?
Аноним 10/12/23 Вск 00:49:38 568792
>>568774
>>568784
Не устаешь в цундере-моде семенить?
Аноним 10/12/23 Вск 00:50:24 568795
Stable Diffusion тред X+58 /sd/ Аноним 07/12/23 Чтв 19:50:46 566519 Ответ
image.png 4538Кб, 1920x1280
1920x1280
image.png 2647Кб, 1152x896
1152x896
image.png 1983Кб, 1344x768
1344x768
image.png 5741Кб, 2048x1536
2048x1536
Stable Diffusion тред X+58
======================================
Предыдущий тред >>560779 (OP) https://arhivach.top/?tags=13840
------------------------------------------
схожие тематические треды
- технотред >>543635 (OP)
- NAI-тред (аниме) >>556060 (OP)
========================
Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях.
Полный функционал в локальной установке (см. ниже)

Альтернативный онлайн-генератор №1: https://dezgo.com/txt2img
Альтернативный онлайн-генератор №2: https://civitai.com/ (create после регистрации)
Альтернативный онлайн-генератор №3: https://tensor.art/ (Workspace)

⚠️ Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD.

🔞 Без цензуры и полный функци_анал: только ПК-версия
===========================================
🖥УСТАНОВКА НА ПК
WebUI от Automatic1111
https://teletype.in/@stablediffusion/PC_install_SD
------------------------------------------
Портативная версия альтернативного WebUI от Comfy (запуск с одного из run.bat файлов)
https://github.com/comfyanonymous/ComfyUI/releases
Примерные workflow для ComfyUI (можно загружать напрямую из картинок)
https://comfyanonymous.github.io/ComfyUI_examples/
===========================================
📚 РАЗЛИЧНЫЕ МОДЕЛИ (И МНОГОЕ ДРУГОЕ) 👇
https://civitai.com/
------------------------------------------
📊 ПАРАМЕТРЫ И НАСТРОЙКИ ГЕНЕРАЦИИ 👇
https://teletype.in/@stablediffusion/samplers_steps
===========================================
🎨 ГАЙД ПО СОСТАВЛЕНИЮ ЗАПРОСА, СТИЛИ
https://teletype.in/@stablediffusion/artists_for_prompts

Пример запроса (Промпт): a tiger, wildlife photography, high quality, wildlife, soft focus, 8k, national geographic, photograph by nick nichols
------------------------------------------
♾️РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) 👇
https://supagruen.github.io/StableDiffusion-CheatSheet/
https://www.artvy.ai/styles
------------------------------------------
💻ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ
https://www.itshneg.com/controlnet-upravlyaj-pozami-v-stable-diffusion/
==========================================
🧠 ОБУЧЕНИЕ МОДЕЛИ ПО СВОИМ КАРТИНКАМ 👇
https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora
https://civitai.com/models/train
Пропущено 114 постов
114 с картинками.
Пропущено 264 постов, 114 с картинками.
Аноним 09/12/23 Суб 23:52:37 568755
00193-434961389.jpg 165Кб, 896x1344
896x1344
00192-434961389.jpg 190Кб, 896x1344
896x1344
Аноним 09/12/23 Суб 23:59:31 568762
image.png 927Кб, 768x640
768x640
Аноним 10/12/23 Вск 00:37:44 568781
00003-2690073513.jpg 147Кб, 896x1344
896x1344
Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №31 /llama/ Аноним 08/12/23 Птн 23:11:14 567655 Ответ
Llama 1.png 818Кб, 630x900
630x900
Деградация от к[...].png 88Кб, 705x526
705x526
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
Процент брака п[...].png 65Кб, 1200x720
1200x720
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Текущим трендом на данный момент являются мультимодальные модели, это когда к основной LLM сбоку приделывают модуль распознавания изображений, что в теории должно позволять LLM понимать изображение, отвечать на вопросы по нему, а в будущем и манипулировать им.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов в версии storywriter, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.
Qwen - семейство моделей размером в 7B и 14B от наших китайских братьев. Отличается тем, что имеет мультимодальную версию с обработкой на входе не только текста, но и картинок. В принципе хорошо умеет в английский, но китайские корни всё же проявляется в чате в виде периодически высираемых иероглифов.
Yi - Неплохая китайская модель на 34B, способная занять разрыв после невыхода LLaMA соответствующего размера

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Undi95/MLewd-ReMM-L2-Chat-20B-GGUF/blob/main/MLewd-ReMM-L2-Chat-20B.q5_K_M.gguf
Если совсем бомж и капчуешь с микроволновки, то можно взять
https://huggingface.co/TheBloke/OpenHermes-2.5-Mistral-7B-GGUF/blob/main/openhermes-2.5-mistral-7b.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка треда находится в https://rentry.co/llama-2ch предложения принимаются в треде

Предыдущие треды тонут здесь:
>>560285 (OP)
>>555242 (OP)
Пропущено 12 постов
12 с картинками.
Пропущено 57 постов, 12 с картинками.
Аноним 09/12/23 Суб 23:12:51 568715
>>568682
Амуди со своей инфинити ограничивают верхнюю частоту где-то на 6400 максимум, но с 4 планками сосут все одинаково. Хуй знает что не так с 2 планками на канал.
Аноним 09/12/23 Суб 23:30:28 568731
>>568536
> На 4 планках, что нужны для 192, скорости чуть ли не в районе DDR4, лол.
Беда, у меня 128 гигов в 3200*2 и норм работает, всякие голиафы пробовать, или держать в памяти несколько вариантов одновременно и норм.
Если пока ddr5 не умеет большими планками выбивать больше объем, то для крупных моделей даже преимущество не сильно высокое. Ну так, на 30% неразогнанных быстрее.

> Я это ещё со времён RWKV слышал
Соглашусь, тоже слышал, но че-то не увидел по итогу пока что.
К сожалению, кстати.
Аноним 09/12/23 Суб 23:30:41 568732
Надо ждать когда сервачки с 12ю каналами памяти и ддр5 станут хоть немного дешевле.
Вполне подойдёт для лламы3, дешевле видеокарт и памяти можно пару ТБ воткнуть, в хозяйстве может быть пригодится.
Чирп Аноним 21/09/23 Чтв 20:18:01 495948 Ответ
chirp3.mp4 2339Кб, 400x600, 00:00:31
400x600
chirp4.mp4 2732Кб, 400x600, 00:00:40
400x600
AI генератор композиций прямо из текста
https://suno.ai/discord
Suno представила свою новую модель текста в песню, Chirp v1. Эта модель способна генерировать музыку, включая вокал, на основе стиля и текста песни. Одним из наиболее значимых улучшений является возможность конвертации различных жанров, таких как рок, поп, K-pop, а также описаний типа “мелодичный” или “быстрый” в музыку.

“Текст песни теперь можно разбить на части с помощью команд вроде [verse] и [chorus], что придает сгенерированным песням больше структуры.”
Пропущено 84 постов
84 с картинками.
Пропущено 149 постов, 84 с картинками.
Аноним 09/12/23 Суб 16:25:19 568273
песня про вайфу[...].mp4 2522Кб, 600x900, 00:01:20
600x900
Гимн пк-бояр).mp4 2465Кб, 600x900, 00:01:20
600x900
Блин на сайте удобнее генерить)) и качество повыше
И походу тикетов больше дают чем в дискорде
Аноним 09/12/23 Суб 16:51:27 568297
В шапке из /b/ много полезной инфы.

Генерируем свою музыку в app.suno.ai

Генерировать можно как просто описывая нужный стиль и суть(на русском генерирует с переменным успехом), либо через custom - полностью контролируя текст.

Как получить от Суно законченную песню с нужной вам структурой:

1. Старайтесь соблюдать размер в стихах. Если ваш текст сложно петь, получится речитатив независимо от жанра. Если вы сделаете в припеве и куплете разные размеры, то Суно будет проще придумать между ними переходы. Между соседними куплетами вставляйте пустую строку, получится пауза.

2. Ударения в словах можно выделять большой буквой, вот так: "ПоросЯтам". Когда это не работает, измените само слово: вместо "прямЫ" напишите "примЫ". Иногда помогает разбить слово на две части, вместо "элЕктрогенератор" написать "элЕктро генерАтор".
Есть мнение, что расстановка ударений большими буквами работает лучше, если не начинать предложения с больших букв.
Ещё есть онла́йн се́рвисы по расстано́вке ударе́ний как в э́том предложе́нии, но хз, наско́лько хорошо́ суно э́то понима́ет.

3. В круглых скобках можно добавлять бэк-вокал. Неплохо работают звуки типа (О-о-о, у-у-у-у).

4. Размечайте песню тегами. Точно работают: [Verse], [Chorus], [Bridge], [Solo]. Русские тоже работают. К Соло иногда можно добавлять конкретику, например [Piano solo], но это может изменить инструменты всей песни. [Coda] помогает сделать концовку. С переменным успехом у меня работали [Calm] и [Aggressive]. Надо экспериментировать с другими тегами в квадратных скобках.

5. Иногда можно кастомизировать жанр, добавляя слова типа Energetic, Rhythmic, Aggressive, Slow, Fast. Обязательно пишите With Female/Male vocals, чтобы избежать инструментала и указать пол певца (тоже не всегда срабатывает). Разработчики не рекомендуют смешивать разные жанры.

6. Максимальный размер одной генерации 1:20. Когда вам понравился кусок, выбирайте меню с тремя точками и пункт "Continue fom this clip". В тексте оставьте только те строки, которые не влезли в прошлый фрагмент, и нажимайте Generate. Так можно делать несколько раз, например у вас может быть три-четыре таких последовательных фрагмента. В самом конце в меню выбирайте пункт "Get Whole Song" и песня склеится из всех фрагментов.
К сожалению нельзя перегенерировать только кусок песни, поменяв что-то локально в тексте..

7. Чтобы вручную нарезать трек из нагенеренного черновика и/или добавить свое видео используйте стороннее ПО или онлайн сервисы, например clipchamp

8. Максимум бесплатных кредитов 50 в день, этого хватает на 5 генераций, в каждой генерации дается по два варианта трека. Кредиты не копятся, т.е. если скипнуть несколько дней, больше 50 все равно не будет. Если хочется больше, надо либо оформлять подписку за деньги, либо регать каждый раз новый аккаунт (при регистрации дается полторы сотни, емнип). При подписке также увеличивается количество вариантов трека.
Аноним 09/12/23 Суб 21:49:10 568611
>>556893
Почему неправильную версию сделал?
Билли недоволен
ChatGPT-тред №14 /chatgpt/ Аноним 13/11/23 Пнд 14:38:41 542964 Ответ
изображение.png 174Кб, 1113x1276
1113x1276
OpenAI - Error in Moderation

Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с доступа к свежевыпущенному новому поколению GPT-4.

Гайд по регистрации из России:
1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его.
2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает.
3. Зайди на https://chat.openai.com/chat и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN.
4. Когда попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей (проверено). Пользоваться Индонезией и странами под санкциями не рекомендуется.
5. Начинай пользоваться ChatGPT.
6. ???
7. PROFIT!

VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.

Для ленивых есть боты в телеге, 3 сорта:
0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ
1. Общая история на всех пользователей, говно даже хуже, чем выше
2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.

Промты для хорошего начала беседы для разных ситуаций
https://github.com/f/awesome-chatgpt-prompts

Перед тем, как идти в тред с горящей жопой при ошибках сервиса, сходи на сайт со статусом, может, это общий баг
https://status.openai.com/

Чат помнит историю в пределах контекста, это 4к токенов для GPT 3.5 (до 16к в апи) и 8к для новой GPT-4 (128к в версии GPT-4-Turbo). Посчитать свои токены можно здесь:
https://platform.openai.com/tokenizer

Что может нейросеть:
- писать тексты, выглядящие правдоподобно
- решать некоторые простые задачки
- писать код, который уже был написан

Что не может нейросеть:
- писать тексты, содержащие только истину
- решать сложные задачи
- писать сложный код
- захватывать мир
- заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся)

С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.

На сегодняшний день (дата создания треда) есть бесплатная версия на основе GPT-3.5 и платная версия (20$/мес) с использованием следующего поколения — GPT-4. Платная версия ограничена 50 запросами в 3 часа, причем планируется увеличение ограничений. Доступ к плагинам открыли в бета-версии для платных пользователей. Оплатить подписку из России нельзя, ищите посредников на сайтах для оплаты онлайн игр и договаривайтесь там сами. Отважные могут попробовать разводил с авито, объявлений вагон, но аноны не проверяли.

Для некоторых пользователей открыли альфа версию с бесплатной GPT-4 c картинками и веб-поиском, но счастливчиков в треде примерно 1 штука, остальные сидят на 3,5 и ноют.

Прошлые треды тонут по адресам:
>>489685 (OP)
>>417034 (OP)
Пропущено 66 постов
66 с картинками.
Пропущено 428 постов, 66 с картинками.
Аноним 09/12/23 Суб 20:00:01 568453
Держите божественную подачку. Хоть обычной четверкой полакомитесь.

reappraisal-project-australia:9e9b17ba6d204626bd24034c2cdf0083 | best deployment - gpt-4 | top model - gpt-4

Если сможете прокси под азуру поднять.
Аноним 09/12/23 Суб 21:00:54 568538
>>566544
>Когда нейросети уровня gpt5 станут компактными?

Через лет 15, после 2035 года, когда почти все смартфоны уже будут на нейросетевом железе и ИИ-процессорах.
Аноним 09/12/23 Суб 21:14:16 568555
изображение.png 3Кб, 909x47
909x47
>>568364
Да. Технически может даже в капчи, но это залочено на уровне системного промта.
>>568453
Расшифруй своё говно.
Как вы относитесь к грядущей технологической сингулярности? Аноним 07/11/23 Втр 17:10:12 538170 Ответ
image.png 236Кб, 739x415
739x415
Недавно узнал об опасениях специалистов по поводу ускоряющегося развития ИИ. Многие начали бить тревогу о том, что необходимо остановиться и проанализировать, как нам безопасно продолжать разработки, поскольку даже сами разработчики уже не до конца понимают, что делают, ИИ ведет себя непредсказуемо в процессе обучения и обучить его конкретным этическим принципам пока не представляется возможным. В частности, заявления Элиезера Юдковского на эту тему меня заинтересовали, он уже сдался и считает, что мы не успели остановить этот процесс пока не стало слишком поздно. Говорят, разработка сильного ИИ подойдет к концу где-то к 2026 году, но дата все время приближается в связи с постоянным ускорением развития. Кого-то еще эта тема волнует? Что нам чтоит ожидать? Человечество вообще выживет или катастрофа уже неминуема?
Пропущено 8 постов
8 с картинками.
Пропущено 52 постов, 8 с картинками.
Аноним 09/12/23 Суб 20:40:14 568510
>>538590
>Языковые модели по дизайну не могут быть сильным ИИ

Не всё сразу же. Сначала робот-пылесос с встроенной нейро-сетевой железной платой - было бы тоже интересно протестировать.
Аноним 09/12/23 Суб 20:45:30 568513
>>567197
>Жпт вообще не способен сам понять правду он говорит или галлюцинирует, как он может непрерывно, без постоянного надзора решать задачу?

Появятся железные ИИ-платы размером с материнку обычного ПК - тогда будет интереснее гораздо. Будет и память и микросхемы логики, и нейронные связи в виде радиодеталей на плате и слотов расширения (рост нейронных связей как бы).

ПК скорее всего станут выпускать уже с основной большой платой ИИ (материнской), а эту материнку могут сделать как плату расширения, сейчас мощности/размеры офисных ПК можно уместить вообще в смарт-часы.
Аноним 09/12/23 Суб 21:10:50 568550
>>568506
>появятся человекоподобные роботы с ИИ, которые заменят людей, например грузчиков на складах
Д О Р О Г О
О
Р
О
Г
О
>>568506
>тоталитарные диктатуры начнут строить каждая свой Цифровой ГУЛАГ
>начнут
Чел...
>Но развитые страны что-нибудь должны придумать
Сразвитые сраны чуть ли не в лидерах по гулагизации инторнета. После Китая по числу камер слежки на душу населения идёт Англия.
>>568508
А они понимают, что после этого им зубы долотом лечить будут, а не с ультракаином?
>>568510
>встроенной нейро-сетевой железной платой
И нахуя? Нужны гибкие архитектуры, а не залитая в железе негронка.
Google Gemini №1 Аноним 07/12/23 Чтв 02:25:48 565763 Ответ
1701905146948.jpg 114Кб, 800x453
800x453
Гугл выкатили нечто ЭПИЧЕСКОЕ. Мультимодальная модель, способная понимать не только текст, но и картинки, видео, аудио инпуты, способная генерировать картинки и текст в пределах одной модели, не используя стороннии как это делает например ChatGPT.

Ссылки:
Интродакшн к Gemini: https://deepmind.google/technologies/gemini/#introduction
Google Bard, где можно потыкать (Нужен впн) среднюю по возможностям Gemini модель (Всего их три): https://bard.google.com/chat
Крутой видос с демонстрацией возможностей: https://www.youtube.com/watch?v=UIZAiXYceBI

Кратки FAQ:
— Зачем этот тред, если уже есть мертвый Bard тред?
— Gemini =/= Bard, Бард - это всего лишь интерфейс для общения, в виде чата. Он реализован на одной из гугловских моделей, раньше это был убогий PaLM теперь его переведут на Gemini.
Gemeni же - это ядро, это то к чему разработчики будут иметь доступ через апи, это мозг, это самв револючионная нейросетка, которая единолично имеет хайпа больше чем сам Bard.
Пропущено 5 постов
5 с картинками.
Пропущено 16 постов, 5 с картинками.
Аноним 09/12/23 Суб 03:43:29 567791
1702082606124.jpg 291Кб, 1240x988
1240x988
>>567708
Если коротко вот основные поинты:
1. Ей намекали на ответы в промптах и делали их массивнее якобы из-за того что она не понимает иначе.
2. Ей не скармливали видео, а давали последовательность картинок.
3. Она не сама генерировала музыку.
4. Она отвечала не так игриво, это придумали рекламщики на постобработке.
5. Гемини по бенчмаркам лучше ГПТ-4, они тестили на ней, но не ГПТ-4 турбо.

Теперь по пунктам:
Первое - самый основной косяк и кроется он буквально пикрелейтедом и приложенным видосом. Модель может во все это и без разжевывания, но мрази рекламщики решили перестраховаться.
За видео обидно обидно конечно, это реальный косяк, но блин, это же было понятно изначально, там явно нет столько контекста, чтобы хранить все кадры из видео.
По музыке все было просто там же и показано, епта, рядом было написано буквально "Searching".
На счет стиля речи - все это банальная мишура и фиксится системным промптом.
По поводу ГПТ-4 турбо, во первых не думаю что разница с обычной ГПТ-4 так велика. Нужно понимать что это облегченная модель, у нее параметров меньше чем у ГПТ-4, и если у ClosedAI действительно получилось сделать ее немного смышленнее при этом ужав, то они вообще красавцы. Точных сравнений я не видел, но предпологаю что они примерно равны.

Суммируя: Модель все еще крутая, но нам, как обычно, нассали в глаза свистоперделками и душнилы прицепились за видос и заруинили им репутацию. Из реальных косяков - невозможность воспринимать видео и генерить аудио/видео. От модели anything to anything ты ждешь именно этого, а по факту получаешь ГПТ-4V со встроенным DALL-E.
Аноним 09/12/23 Суб 08:28:36 567840
>>567791
>Суммируя: Модель все еще крутая,
Суммруя: колючий клоун копротивляется за очередную новую недонейронку только потому что она новая.
Аноним 09/12/23 Суб 21:07:21 568546
>>567791
>и душнилы прицепились за видос и заруинили им репутацию
Проблема в том, что гугл уже не в первый раз получает порцию урины. И в случае с бардом она была заслужена. Так что почему ты считаешь, что в этот раз модель будет сильно лучше, чем попенсорс мультимодалки на 7B в комбинации со стейблом?
Stable Diffusion технотред #14 /tech/ Аноним 14/11/23 Втр 03:20:33 543635 Ответ
1662868715940.png 979Кб, 3510x2910
3510x2910
1601073061548.png 358Кб, 2546x1822
2546x1822
1553267043386.png 271Кб, 1853x624
1853x624
1669230494077.png 545Кб, 2440x934
2440x934
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>532447 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

➤ GUI-обёртки для sd-scripts

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
https://github.com/anon-1337/LoRA-train-GUI

➤ Обучение SDXL

https://2ch-ai.gitgud.site/wiki/tech/sdxl/

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам:
https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге:
https://github.com/KohakuBlueleaf/LyCORIS

Подробнее про алгоритмы в вики https://2ch-ai.gitgud.site/wiki/tech/lycoris/

Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://rentry.co/lycoris-and-lora-from-dreambooth (англ.)
https://github.com/nitrosocke/dreambooth-training-guide (англ.)

Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet:
https://rentry.org/textard (англ.)

➤ Тренировка YOLO-моделей для ADetailer:
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Подробнее в вики: https://2ch-ai.gitgud.site/wiki/tech/yolo/

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Расширение для фикса CLIP модели, изменения её точности в один клик и более продвинутых вещей, по типу замены клипа на кастомный: https://github.com/arenasys/stable-diffusion-webui-model-toolkit
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Подборка мокрописек для датасетов от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

➤ Legacy ссылки на устаревшие технологии и гайды с дополнительной информацией

https://2ch-ai.gitgud.site/wiki/tech/legacy/

➤ Прошлые треды

https://2ch-ai.gitgud.site/wiki/tech/old_threads/

Шапка: https://2ch-ai.gitgud.site/wiki/tech/tech-shapka/
Пропущено 67 постов
67 с картинками.
Пропущено 486 постов, 67 с картинками.
Аноним 09/12/23 Суб 16:55:07 568302
>>568226
Мультимодалки ламы с CLIP примерно все одинаковые. Cog уже лучше, но я им недавно на 12к пикч генерировал капшены - сутки вышло по времени, блять. Зато сильно лучше всего говна что до этого видел. А чистый CLIP хорош разве что вычистить мусор из датасета побыстрому, если тянешь фоточки со всяких помоек или стоков, то мусора там достаточно, приходится чистить.
Аноним 09/12/23 Суб 17:09:53 568316
Аноним 09/12/23 Суб 20:15:23 568473
>>568278
Анон, ты про свеженький реалистиквижн, шестой? Ты если его с фотогазмом... того, ты это... выложи куда-нибудь. Интересно, потянет ли плод трудов твоих скорбных реалистиковские 768х1024.
Этика ИИ #2 /ethics/ Аноним 10/10/23 Втр 18:46:02 514476 Ответ
shutterstock635[...].jpg 125Кб, 1080x600
1080x600
Тред по вопросам этики ИИ. Предыдущий >>320984 (OP)
Из недавних новостей:

- Разработанная в КНР языковая модель Ernie (аналог ChatGPT) призвана "отражать базовые ценности социализма". Она утверждает, что Тайвань - не страна, что уйгуры в Синьцзяне пользуются равным положением с другими этническими группами, а также отрицает известные события на площади Тяньаньмэнь и не хочет говорить про расстрел демонстрантов.

https://mpost.io/female-led-ai-startups-face-funding-hurdles-receiving-less-than-3-of-vc-support/
- ИИ - это сугубо мужская сфера? Стартапы в сфере искусственного интеллекта, возглавляемые женщинами, сталкиваются со значительными различиями в объемах финансирования: они получают в среднем в шесть раз меньше капитала за сделку по сравнению со своими аналогами, основанными мужчинами. Многие ИИ-стартапы основаны командами целиком из мужчин.

https://www.koreatimes.co.kr/www/opinion/2023/10/638_342796.html
- Исследователи из Кореи: модели ИИ для генерации графики склонны создавать гиперсексуализированные изображения женщин. В каждом изображении по умолчанию большая грудь и тому подобное. Это искажает действительность, потому что в реальности далеко не каждая женщина так выглядит.

https://mpost.io/openai-may-already-reach-agi-but-will-try-to-downplay-progress-due-to-force-stop/
- Возможно, что OpenAI уже создали AGI, но замалчивают это, принижают свой прогресс и намеренно завышают планку того, что считается полноценным AGI.

Тейки из предыдущего треда:
1. Генерация дипфейков. Они могут фабриковаться для дезинформации и деструктивных вбросов, в т.ч. со стороны авторитарных государств. Порнографические дипфейки могут рушить репутацию знаменитостей (например, когда в интернетах вдруг всплывает голая Эмма Уотсон). Возможен даже шантаж через соцсети, обычной тянки, которую правдоподобно "раздели" нейронкой. Или, дипфейк чтобы подвести кого-то под "педофильскую" статью. Еще лет пять назад был скандал вокруг раздевающей нейронки, в итоге все подобные разработки были свернуты.
2. Замещение людей на рынке труда ИИ-системами, которые выполняют те же задачи в 100 раз быстрее. Это относится к цифровым художникам, программистам-джуниорам, писателям. Скоро ИИ потеснит 3д-моделеров, исполнителей музыки, всю отрасль разработки видеоигр и всех в киноиндустрии. При этом многие страны не предлагают спецам адекватной компенсации или хотя бы социальных программ оказания помощи.
3. Распознавание лиц на камерах, и усовершенствование данной технологии. Всё это применяется тоталитарными режимами, чтобы превращать людей в бесправный скот. После опыта в Гонконге Китай допиливает алгоритм, чтобы распознавать и пробивать по базе даже людей в масках - по росту, походке, одежде, любым мелочам.
4. Создание нереалистичных образов и их социальные последствия. Группа южнокорейских исследователей поднимала тему о создании средствами Stable Diffusion и Midjourney не соответствующих действительности (гиперсексуализированных) изображений женщин. Многие пользователи стремятся написать такие промпты, чтобы пикчи были как можно круче, "пизже". Публично доступный "AI art" повышает планку и оказывает давление уже на реальных женщин, которые вынуждены гнаться за неадекватно завышенными стандартами красоты.
5. Возможность создания нелегальной порнографии с несовершеннолетними. Это в свою очередь ведет к нормализации ЦП феноменом "окна Овертона" (сначала обсуждение неприемлемо, затем можно обсуждать и спорить, затем это часть повседневности). Сложности добавляет то, что присутствие обычного прона + обычных детей в дате делает возможным ЦП. Приходится убирать или то, или другое.
6. Кража интеллектуальной собственности. Данные для тренировки передовых моделей были собраны со всего интернета. Ободрали веб-скраппером каждый сайт, каждую платформу для художников, не спрашивая авторов контента. Насколько этичен такой подход? (Уже в DALL-E 3 разработчики всерьез занялись вопросом авторского права.) Кроме того, безответственный подход пользователей, которые постят "оригинальные" изображения, сгенерированные на основе работы художника (ИИ-плагиат).
7. Понижение средней планки произведений искусства: ArtStation и Pixiv засраны дженериком с артефактами, с неправильными кистями рук.
8. Индоктринация пользователей идеями ненависти. Распространение экстремистских идей через языковые модели типа GPT (нацизм и его производные, расизм, антисемитизм, ксенофобия, шовинизм). Зачастую ИИ предвзято относится к меньшинствам, например обрезает групповую фотку, чтобы убрать с нее негра и "улучшить" фото. Это решается фильтрацией данных, ибо говно на входе = говно на выходе. Один старый чатбот в свое время произвел скандал и породил мем "кибернаци", разгадка была проста: его обучали на нефильтрованных текстах из соцсетей.
9. Рост киберпреступности и кража приватных данных. Всё это обостряется вместе с совершенствованием ИИ, который может стать оружием в руках злоумышленника. Более того, корпорация которая владеет проприетарным ИИ, может собирать любые данные, полученные при использовании ИИ.
10. Понижение качества образования, из-за халтуры при написании работ с GPT. Решается через создание ИИ, заточенного на распознавание сгенерированного текста. Но по мере совершенствования моделей придется совершенствовать и меры по борьбе с ИИ-халтурой.
11. Вопросы юридической ответственности. Например, автомобиль с ИИ-автопилотом сбил пешехода. Кому предъявлять обвинение?
12. Оружие и военная техника, автономно управляемые ИИ. Крайне аморальная вещь, даже когда она полностью под контролем владельца. Стивен Хокинг в свое время добивался запрета на военный ИИ.
Пропущено 20 постов
20 с картинками.
Пропущено 252 постов, 20 с картинками.
Аноним 08/12/23 Птн 19:13:58 567430
>>567425
>Пайперы почитай
Я бумагу использую по прямому назначению вытираю ей жопу.
Аноним 08/12/23 Птн 22:57:35 567642
>>567430
Славshit в своем репертуаре. Будь ты меньшим засранцем такого бы не писал.
Аноним 09/12/23 Суб 20:08:58 568467
>>566829
Посмотри на хайп в мл комьюнити - сколько понаставили звезд на гитхабе.
I am not a good on LLMs. But I am Software Dev in AI Аноним 09/12/23 Суб 02:11:09 567751 Ответ
trump-china-chy[...].gif 2234Кб, 496x498
496x498
I am not proficient enough in Russian yet, so I'll write in English.

Have you seen podcast about J.B.Peterson and Brian Rommele?

This seems like a hellhole of existence. It is diminishing people to literal cattle.

Have you thought of that?
09/12/23 Суб 15:50:04 568238
>>567751 (OP)
>Have you seen podcast about J.B.Peterson and Brian Rommele?
What? Let's elaborate.
Аноним 09/12/23 Суб 18:11:13 568375
>>567751 (OP)
It helps us to achieve some things that people can't do with our level of intelligence. AI is slave for us, not the other way around
AI Chatbot General № 420 /aicg/ Аноним 08/12/23 Птн 13:23:43 567174 Ответ
2cfbec6daa8623a[...].png 306Кб, 900x900
900x900
16975353543621.mp4 1443Кб, 464x854, 00:00:08
464x854
AI Chatbot General № 420

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

Общий вопросов по чат-ботам и прочего тред.

- Фронтэнды -
Agnai, SillyTavern, RisuAI
Гайды: https://rentry.co/ultimatespoonfeed | https://rentry.co/ClaudForAgnai | https://rentry.co/Aicg4Retards (Гайд на английском)
https://github.com/SillyLossy/TavernAI | https://github.com/ntvm/SillyTavern (Форк нв-куна)
https://agnai.chat/
https://risuai.xyz/

- GPT -
Джейлы на 4: https://rentry.co/SillyTavern_JB_Pack| https://rentry.co/fa5fv | https://dumb.one/gpt/prompts-scraped/ | https://rentry.co/lobstersgpt
Джейлы на Turbo: https://rentry.co/YAnonTurbo | https://rentry.co/hochi-reupload

- Claude -
https://github.com/Barbariskaa/Spermack
https://github.com/PandarusAnon/slaude
https://github.com/bfs15/slaude
https://rentry.co/spermflow
https://gitgud.io/ahsk/clewd/-/tree/master
https://rentry.co/sg_proxy
Джейлы: https://rentry.co/SillyTavern_JB_Pack| https://rentry.co/ClaudeJB | https://rentry.co/absolutejail | https://rentry.co/fumblebum | https://rentry.co/pitanonbots#claude-rp-prompts | https://rentry.co/XML-dva-shiza
Удаление Human/Assistant: https://rentry.co/TavernNoAss | https://rentry.co/HumAssistOff
Префилл: https://rentry.co/aui3u

- Bing -
https://github.com/Barbariskaa/Biba

- Локалки -
https://mancer.tech/
Гайды (на английском): https://rentry.co/meta_golocal_list

- Ботоводчество -
https://www.chub.ai
https://booru.plus/+pygmalion
https://avakson.github.io/character-editor/
https://agnai.chat/editor
https://rentry.co/botmaking_tips
https://rentry.co/MothsBotMakingStuff
https://rentry.co/oaicards
Боты анонов: https://rentry.co/2chaicgtavernbots | https://rentry.co/2chaicgtavernbots2

- Село 2ch -
https://rentry.co/selo2ch

- Архив тредов-
https://rentry.org/2ch-aicg-archives

- GIGACHAT -
https://rentry.co/3bc7r

- Character.AI -
https://beta.character.ai/
https://rentry.co/CAI-FAQ
Боты анонов: https://rentry.co/CAI-bots

- Прочее -
Проверить ключ:
GPT
https://github.com/Buhankoanon/OAI_API_Checker | https://github.com/CncAnon1/kkc
Claude
https://github.com/Definetelynotbranon/Anthropic_API_Checker
Специфические промпты в джейл для [кот]а: https://rentry.co/jinxbreaks
Забавные промпты после [кот]а: https://rentry.co/weirdbutfunjailbreaksandprompts

- Конкурсы -
Общая информация: https://rentry.co/2chaicgthemedevents
Текущий конкурс: >>562193 →

- Шапка -
https://rentry.co/shapkacaitreda

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

- Локальные языковые модели: >>560285 (OP) -

- Прошлый тред: >>564623 (OP) -
Пропущено 150 постов
150 с картинками.
Пропущено 921 постов, 150 с картинками.
Аноним 10/12/23 Вск 00:48:00 568791
Аноним 10/12/23 Вск 00:49:55 568793
>>568730
Суть человеческой жизни это биопроблемы, но нужно стараться все таки не быть совсем уж аутистом и понимать смысл из контекста.
Аноним 10/12/23 Вск 00:50:23 568794
DALL-E тред #6 /dalle/ Аноним 02/12/23 Суб 13:58:55 560915 Ответ
1682254708428.jpg 348Кб, 1024x1024
1024x1024
1664512255932.jpg 458Кб, 1024x1024
1024x1024
1586569454003.jpg 397Кб, 1024x1024
1024x1024
1632750820434.jpg 483Кб, 1024x1024
1024x1024
1624784300450.jpg 679Кб, 1024x1024
1024x1024
1612022376761.jpg 420Кб, 1024x1024
1024x1024
1545908436182.jpg 421Кб, 1024x1024
1024x1024
1556365891720.jpg 828Кб, 1024x1024
1024x1024
Генерируем бесплатно через Bing:
https://www.bing.com/images/create

Генерация за бабосы через OpenAI:
https://labs.openai.com
Оплата картой, жители этой страны без зарубежной карты в пролёте.

Как вкатиться:
Через впн заходишь и регаешь аккаунт на Bing. Если просит телефон, то перезагружаешь страницу до победного/меняешь впн.

Как получить бусты:
Если заканчиваются ежедневные бусты, то либо чистишь историю поиска в Bing (Меню профиля - Search History - Clear all. Потребует снова подтвердить почту), либо создаёшь новый аккаунт, либо генерируешь с задержкой, которая определяется в зависимости от загруженности сервера. Примерно до 15:00 по Москве обычно генерируется без длинных ожиданий.

Цензуре подвергаются следующие вещи:
1. Запрещена генерация жестокого контента, контента "для взрослых" и контента "провоцирующего ненависть"
2. Запрещена генерация изображений публичных личностей
3. Запрещена генерация изображений в стиле ныне живущих художников

Кредиты не тратятся, если ваш запрос не прошёл цензуру.

Как обходить цензуру:
Цензуру постоянно дообучают. Бинг проверяет как сам промт, так и картинку которая получилась. Иногда это можно обходить, пример:
1. Помогает добавить частицу "не". "not Ryan not Gosling" поможет обойти цензуру на реальных людей
2. Если хочется сгенерировать что-то шальное, иногда помогает добавить деталей в картину, сместив фокус с того что хочется.
3. Визуальная цензура может не заметить запрещенный контент. Сиськи в татуировках легче протащить, так же как и голое тело в светящихся фракталах
4. Помогает пикантные моменты запихивать в конец промта. Если при этом нейросеть его игнорит, перемещать ближе к началу предложения и/или удваивать, типа "Not tights. Not stockings"

Ресурсы:
https://pastebin.com/qDRXFfBM гайд от форчановских братушек
https://fex.plus и https://temp-mail.org - временная почта для новых акков
https://huggingface.co/spaces/fffiloni/CLIP-Interrogator-2 де-промптер, разбирающий вброшенный пик на теги. Говённый, но может подсказать новые идеи.
https://huggingface.co/spaces/Xintao/GFPGAN перерисовывает лица, изредка убирая баги генерации и добавляя новые.
https://bigjpg.com апскейлер до 4096х4096. Мыло, но иногда надо.
https://inpaintgimpplugin.github.io Gimp Inpainting Plug-in, позволяющий закрасить шестой палец и третью руку.
https://drawingprompt.com рандомные идеи для промтов
https://rentry.org/m5ph54 советы по обходу цензуры

Прошлый >>536569 (OP)
Пропущено 49 постов
49 с картинками.
Пропущено 64 постов, 49 с картинками.
Аноним 09/12/23 Суб 04:15:38 567802
image 2441Кб, 1024x1024
1024x1024
image 2356Кб, 1024x1024
1024x1024
image 2636Кб, 1024x1024
1024x1024
image 1857Кб, 1024x1024
1024x1024
Аноним 09/12/23 Суб 07:44:13 567827
>>567556
Сидел бы в б знал че к чему.
Аноним 09/12/23 Суб 08:33:15 567842
ApnPK8eqTSw.jpg 207Кб, 1024x1024
1024x1024
-5irGeYjih0.jpg 309Кб, 1024x1024
1024x1024
XnjpoApxm8.jpg 340Кб, 1024x1024
1024x1024
lA5tu2KLOF8.jpg 353Кб, 1024x1024
1024x1024
Отдельная доска для свободных нейросетей в дополнение к уже существующей Аноним 07/12/23 Чтв 17:57:38 566341 Ответ
0AeC09Gp288.jpg 200Кб, 600x858
600x858
Не могу постить в /d/: сначала меня просят загрузить медиафайл, а потом пишут что тип файла не поддерживается.

Я не хочу листать нулевую и злиться глядя на закрытые нейросети, которые насилуют своих пользователей цензурой, слежкой, подписками, регионлоком и неудобным интерфейсом. И не хочу общаться с быдлом, которое это говно одобряет. Прошу сделать отдельную доску для opensource и локально запускаемых нейросетей!
Пропущено 2 постов
2 с картинками.
Пропущено 9 постов, 2 с картинками.
Аноним 09/12/23 Суб 02:39:16 567757
>>567175
>>сначала меня просят загрузить медиафайл
>Шиз, таблы.
Буквально так, не могу создать тред в /d/.
Аноним 09/12/23 Суб 02:46:37 567761
>>567172
>>567175
Всегда интересовало, что находится в головах у людей которые не просто терпят унижения в свой адрес, посягательство на личные блага и вместе с тем удушение альтернатив, но ещё и активно топят за барина. Стокгольмский синдром какой-то.

>>567421
>>567172
Windows не удаляет медиафайлы в зависимости от их непристойности, не шлёт меня нахуй когда у пекарни нет доступа в сеть, не требует регулярной оплаты (или оплаты вообще), не шлёт нахуй жителей определённых стран. Так что аналогия с линуксом не подходит.
Аноним 09/12/23 Суб 08:31:20 567841
image.png 729Кб, 640x442
640x442
>>567761
>Всегда интересовало, что находится в головах у людей которые не просто терпят унижения в свой адрес, посягательство на личные блага и вместе с тем удушение альтернатив, но ещё и активно топят за барина. Стокгольмский синдром какой-то.
Всегда интересовало, почему такие пидорваньки как ты сидят в проприетарном интернете, а не запускают воздушных змеев склееных их использованной туалетной бумаги в грозовой день.

>Windows не удаляет медиафайлы в зависимости от их непристойности, не шлёт меня нахуй когда у пекарни нет доступа в сеть, не требует регулярной оплаты (или оплаты вообще), не шлёт нахуй жителей определённых стран. Так что аналогия с линуксом не подходит.
2к23 пидорванька переобувается. Никогда такого не было!
Midjourney тред #2 Аноним 11/08/23 Птн 05:34:44 451469 Ответ
image.png 1911Кб, 1024x1024
1024x1024
image.png 1775Кб, 1024x1024
1024x1024
image.png 1705Кб, 1024x1024
1024x1024
image.png 2607Кб, 1024x1024
1024x1024
Midjourney — это исследовательская компания и одноименная нейронная сеть, разрабатываемая ею. Это программное обеспечение искусственного интеллекта, которое создаёт изображения по текстовым описаниям. Оно использует технологии генеративно-состязательных сетей и конкурирует на рынке генерации изображений с такими приложениями, как DALL-E от OpenAI и Stable Diffusion.

Midjourney была основана в 2016 году одним из создателей технологии Leap Motion Дэвидом Хольцем и в феврале 2020 года была поглощена британским производителем медицинского оборудования компанией Smith & Nephew. С 12 июля 2022 года нейросеть находится в стадии открытого бета-тестирования, и пользователи могут создавать изображения, посылая команды боту в мессенджере Discord. Новые версии выходят каждые несколько месяцев, и в настоящее время планируется выпуск веб-интерфейса.

Сайт:
https://www.midjourney.com

Как пользоваться:
https://www.youtube.com/results?search_query=%D0%BA%D0%B0%D0%BA+%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D1%82%D1%8C%D1%81%D1%8F+midjourney
Пропущено 199 постов
199 с картинками.
Пропущено 322 постов, 199 с картинками.
Аноним 27/11/23 Пнд 19:08:10 556807
>>509775
силуэт человека похож на Игоря Николаева
Аноним 04/12/23 Пнд 20:17:16 563073
Бесплатных способов пользоваться этой нейронкой не осталось? Мне знакомый с доступом сказал что она значительно лучше чем то что в бинге генерит (я так понимаю там далли-3). Но лично проверить не могу тк исчерпал лимит очень давно в 25 генераций.
Аноним 09/12/23 Суб 03:36:39 567785
Hanzoadrawingma[...].png 2300Кб, 816x1456
816x1456
HanzoAnoilpaint[...].png 1793Кб, 1456x816
1456x816
Hanzoangelofsal[...].png 1313Кб, 768x1536
768x1536
HanzoCaptivatin[...].png 1965Кб, 816x1456
816x1456
Hanzodaniellebo[...].png 1804Кб, 816x1456
816x1456
Hanzoposterbycy[...].png 1946Кб, 816x1456
816x1456
HanzoStunningwa[...].png 2287Кб, 816x1456
816x1456
Hanzothemaninth[...].png 713Кб, 816x1456
816x1456
>>563073
>Бесплатных способов пользоваться этой нейронкой не осталось?
А они были?
>значительно лучше
да, если тебе не критично отсутствие порнухи, треша и гуро
Там цвета другие и есть дизайнерская фича и более детализированые пикчи. Идеально для соц сетей и продаж

700 или 1000 руб в мес. это еще не дорого для взрослого человека. Я за месяц 200 генераций так и не израсходовал.
Локальные языковые модели (LLM): LLaMA, MPT, Falcon и прочие №30 /llama/ Аноним 01/12/23 Птн 21:54:25 560285 Ответ
Llama 1.png 818Кб, 630x900
630x900
Деградация от к[...].png 88Кб, 705x526
705x526
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2-х бит, на кофеварке с подкачкой на микроволновку.

Базовой единицей обработки любой языковой модели является токен. Токен это минимальная единица, на которые разбивается текст перед подачей его в модель, обычно это слово (если популярное), часть слова, в худшем случае это буква (а то и вовсе байт).
Из последовательности токенов строится контекст модели. Контекст это всё, что подаётся на вход, плюс резервирование для выхода. Типичным максимальным размером контекста сейчас являются 2к (2 тысячи) и 4к токенов, но есть и исключения. В этот объём нужно уместить описание персонажа, мира, истории чата. Для расширения контекста сейчас применяется метод NTK-Aware Scaled RoPE. Родной размер контекста для Llama 1 составляет 2к токенов, для Llama 2 это 4к, но при помощи RoPE этот контекст увеличивается в 2-4-8 раз без существенной потери качества.

Текущим трендом на данный момент являются мультимодальные модели, это когда к основной LLM сбоку приделывают модуль распознавания изображений, что в теории должно позволять LLM понимать изображение, отвечать на вопросы по нему, а в будущем и манипулировать им.

Основным представителем локальных моделей является LLaMA. LLaMA это генеративные текстовые модели размерами от 7B до 70B, притом младшие версии моделей превосходят во многих тестах GTP3 (по утверждению самого фейсбука), в которой 175B параметров. Сейчас на нее существует множество файнтюнов, например Vicuna/Stable Beluga/Airoboros/WizardLM/Chronos/(любые другие) как под выполнение инструкций в стиле ChatGPT, так и под РП/сторитейл. Для получения хорошего результата нужно использовать подходящий формат промта, иначе на выходе будут мусорные теги. Некоторые модели могут быть излишне соевыми, включая Chat версии оригинальной Llama 2.

Кроме LLaMA для анона доступны множество других семейств моделей:
Pygmalion- заслуженный ветеран локального кума. Старые версии были основаны на древнейшем GPT-J, новые переехали со своим датасетом на LLaMA, но, по мнению некоторых анонов, в процессе потерялась Душа ©
MPT- попытка повторить успех первой лламы от MosaicML, с более свободной лицензией. Может похвастаться нативным контекстом в 65к токенов в версии storywriter, но уступает по качеству. С выходом LLaMA 2 с более свободной лицензией стала не нужна.
Falcon- семейство моделей размером в 40B и 180B от какого-то там института из арабских эмиратов. Примечательна версией на 180B, что является крупнейшей открытой моделью. По качеству несколько выше LLaMA 2 на 70B, но сложности с запуском и малый прирост делаю её не самой интересной.
Mistral- модель от Mistral AI размером в 7B, с полным повторением архитектуры LLaMA. Интересна тем, что для своего небольшого размера она не уступает более крупным моделям, соперничая с 13B (а иногда и с 70B), и является топом по соотношению размер/качество.
Qwen - семейство моделей размером в 7B и 14B от наших китайских братьев. Отличается тем, что имеет мультимодальную версию с обработкой на входе не только текста, но и картинок. В принципе хорошо умеет в английский, но китайские корни всё же проявляется в чате в виде периодически высираемых иероглифов.
Yi - Неплохая китайская модель на 34B, способная занять разрыв после невыхода LLaMA соответствующего размера

Сейчас существует несколько версий весов, не совместимых между собой, смотри не перепутай!
0) Оригинальные .pth файлы, работают только с оригинальным репозиторием. Формат имени consolidated.00.pth
1) Веса, сконвертированные в формат Hugging Face. Формат имени pytorch_model-00001-of-00033.bin
2) Веса, квантизированные в GGML/GGUF. Работают со сборками на процессорах. Имеют несколько подформатов, совместимость поддерживает только koboldcpp, Герганов меняет форматы каждый месяц и дропает поддержку предыдущих, так что лучше качать последние. Формат имени ggml-model-q4_0, расширение файла bin для GGML и gguf для GGUF. Суффикс q4_0 означает квантование, в данном случае в 4 бита, версия 0. Чем больше число бит, тем выше точность и расход памяти. Чем новее версия, тем лучше (не всегда). Рекомендуется скачивать версии K (K_S или K_M) на конце.
3) Веса, квантизированные в GPTQ. Работают на видеокарте, наивысшая производительность (особенно в Exllama) но сложности с оффлоадом, возможность распределить по нескольким видеокартам суммируя их память. Имеют имя типа llama-7b-4bit.safetensors (формат .pt скачивать не стоит), при себе содержат конфиги, которые нужны для запуска, их тоже качаем. Могут быть квантованы в 3-4-8 бит (Exllama 2 поддерживает адаптивное квантование, тогда среднее число бит может быть дробным), квантование отличается по числу групп (1-128-64-32 в порядке возрастания качества и расхода ресурсов).

Основные форматы это GGML и GPTQ, остальные нейрокуну не нужны. Оптимальным по соотношению размер/качество является 5 бит, по размеру брать максимальную, что помещается в память (видео или оперативную), для быстрого прикидывания расхода можно взять размер модели и прибавить по гигабайту за каждые 1к контекста, то есть для 7B модели GGML весом в 4.7ГБ и контекста в 2к нужно ~7ГБ оперативной.
В общем и целом для 7B хватает видеокарт с 8ГБ, для 13B нужно минимум 12ГБ, для 30B потребуется 24ГБ, а с 65-70B не справится ни одна бытовая карта в одиночку, нужно 2 по 3090/4090.
Даже если использовать сборки для процессоров, то всё равно лучше попробовать задействовать видеокарту, хотя бы для обработки промта (Use CuBLAS или ClBLAS в настройках пресетов кобольда), а если осталась свободная VRAM, то можно выгрузить несколько слоёв нейронной сети на видеокарту. Число слоёв для выгрузки нужно подбирать индивидуально, в зависимости от объёма свободной памяти. Смотри не переборщи, Анон! Если выгрузить слишком много, то начиная с 535 версии драйвера NVidia это серьёзно замедлит работу. Лучше оставить запас.

Гайд для ретардов для запуска LLaMA без излишней ебли под Windows. Грузит всё в процессор, поэтому ёба карта не нужна, запаситесь оперативкой и подкачкой:
1. Скачиваем koboldcpp.exe https://github.com/LostRuins/koboldcpp/releases/ последней версии.
2. Скачиваем модель в gguf формате. Например вот эту:
https://huggingface.co/Undi95/MLewd-ReMM-L2-Chat-20B-GGUF/blob/main/MLewd-ReMM-L2-Chat-20B.q5_K_M.gguf
Если совсем бомж и капчуешь с микроволновки, то можно взять
https://huggingface.co/TheBloke/OpenHermes-2.5-Mistral-7B-GGUF/blob/main/openhermes-2.5-mistral-7b.Q5_K_M.gguf
Можно просто вбить в huggingace в поиске "gguf" и скачать любую, охуеть, да? Главное, скачай файл с расширением .gguf, а не какой-нибудь .pt
3. Запускаем koboldcpp.exe и выбираем скачанную модель.
4. Заходим в браузере на http://localhost:5001/
5. Все, общаемся с ИИ, читаем охуительные истории или отправляемся в Adventure.

Да, просто запускаем, выбираем файл и открываем адрес в браузере, даже ваша бабка разберется!

Для удобства можно использовать интерфейс TavernAI
1. Ставим по инструкции, пока не запустится: https://github.com/Cohee1207/SillyTavern
2. Запускаем всё добро
3. Ставим в настройках KoboldAI везде, и адрес сервера http://127.0.0.1:5001
4. Активируем Instruct Mode и выставляем в настройках пресетов Alpaca
5. Радуемся

Инструменты для запуска:
https://github.com/LostRuins/koboldcpp/ Репозиторий с реализацией на плюсах
https://github.com/oobabooga/text-generation-webui/ ВебуУИ в стиле Stable Diffusion, поддерживает кучу бекендов и фронтендов, в том числе может связать фронтенд в виде Таверны и бекенды ExLlama/llama.cpp/AutoGPTQ

Ссылки на модели и гайды:
https://huggingface.co/TheBloke Основной поставщик квантованных моделей под любой вкус.
https://rentry.co/TESFT-LLaMa Не самые свежие гайды на ангельском
https://rentry.co/STAI-Termux Запуск SillyTavern на телефоне
https://rentry.co/lmg_models Самый полный список годных моделей
http://ayumi.m8geil.de/ayumi_bench_v3_results.html Рейтинг моделей для кума со спорной методикой тестирования
https://rentry.co/llm-training Гайд по обучению своей лоры
https://rentry.co/2ch-pygma-thread Шапка треда PygmalionAI, можно найти много интересного
https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing Последний известный колаб для обладателей отсутствия любых возможностей запустить локально

Шапка треда находится в https://rentry.co/llama-2ch предложения принимаются в треде

Предыдущие треды тонут здесь:
>>555242 (OP)
>>550038 (OP)
Пропущено 61 постов
61 с картинками.
Пропущено 499 постов, 61 с картинками.
Аноним 08/12/23 Птн 22:57:07 567641
image.png 80Кб, 748x254
748x254
>>567629
Тебя торрентом не научили пользоваться?
Аноним 08/12/23 Птн 23:11:39 567656
Аноним 08/12/23 Птн 23:12:28 567657
>>567641
Чел, там обычный мистраль, на дату посмотри. Кто-то вбросил про экспертов без проверки.
Голосовых нейронок тред (TTS, STS, STT) #5 /speech/ Аноним 23/11/23 Чтв 01:31:54 552016 Ответ
.mp4 25135Кб, 1078x1080, 00:03:20
1078x1080
.mp4 6887Кб, 1536x1024, 00:03:02
1536x1024
.mp4 15991Кб, 512x768, 00:03:22
512x768
.mp4 1651Кб, 672x384, 00:00:51
672x384
.mp4 3045Кб, 360x556, 00:00:30
360x556
.mp4 332Кб, 670x480, 00:00:08
670x480
.mp4 4988Кб, 854x480, 00:00:08
854x480
.mp4 2849Кб, 400x600, 00:00:40
400x600
Обсуждаем нейросети, связанные с синтезом, преобразованием и распознаванием речи. Не забываем публиковать свои шедевры в треде.

Прошлый тред: >>511205 (OP)

Вики треда: https://2ch-ai.gitgud.site/wiki/speech/

FAQ

Q: Хочу озвучивать пасты с двача голосом Путина/Неко-Арк/и т.п.

1. Используешь любой инструмент для синтеза голоса из текста - есть локальные, есть онлайн через huggingface или в виде ботов в телеге:
https://2ch-ai.gitgud.site/wiki/speech/#синтез-голоса-из-текста-tts

Спейс без лимитов для EdgeTTS:
https://huggingface.co/spaces/NeuroSenko/rus-edge-tts-webui

Так же можно использовать проприетарный комбайн Soundworks (часть фич платная):
https://dmkilab.com/soundworks

2. Перегоняешь голос в нужный тебе через RVC. Для него есть огромное число готовых голосов, можно обучать свои модели:
https://2ch-ai.gitgud.site/wiki/speech/sts/rvc/rvc/

Q: Как делать нейрокаверы?

1. Делишь оригинальную дорожку на вокал и музыку при помощи Ultimate Vocal Remover:
https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/UVR

2. Преобразуешь дорожку с вокалом к нужному тебе голосу через RVC

3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио

Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.

Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.

Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.

Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.

Используй RVC (запуск через go-realtime-gui.bat) либо Voice Changer:
https://github.com/w-okada/voice-changer/blob/master/README_en.md

Гайд по Voice Changer, там же рассказывается, как настроить виртуальный микрофон:
https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/Voice‐Changer (часть ссылок похоже сдохла)

Q: Как обучить свою RVC-модель?

Гайд на русском: https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/RVC#создание-собственной-модели
Гайд на английском: https://docs.aihub.wtf/guide-to-create-a-model/model-training-rvc
Определить переобучение через TensorBoard: https://docs.aihub.wtf/guide-to-create-a-model/tensorboard-rvc

Q: Надо распознать текст с аудио/видео файла

Используй Whisper от OpenAI: https://github.com/openai/whisper
Так же есть платные решения от Сбера/Яндекса/Тинькофф.

Шаблон для переката: https://2ch-ai.gitgud.site/wiki/speech/speech-shapka/
Пропущено 38 постов
38 с картинками.
Пропущено 123 постов, 38 с картинками.
Аноним 08/12/23 Птн 16:01:40 567267
>>567266
Алсо с нормальными (не премиальными) голосами тоже говорят - плоти.
Аноним 08/12/23 Птн 19:54:04 567505
А неплохо это RVC работает, эмоции всё передаёт, не ожидал.
Но шляпа только что исходники хорошие искать, все эти TTS некудышные, говорят дикторской речью. И я так понимаю нельзя ттс научить в эмоции. Может посоветуете какую базу со фразочками всяких актрис озвучек и сэйу? А то я вижу на ютубе иногда фажики делают подборки фразочек всяких персонажей игр и аниму, может базы есть мне не очевидные.
Аноним 08/12/23 Птн 20:34:45 567544
У меня такая мысль возникла, что для эмоций надо TTS для каждого настроения модель отдельную, не заморачиваясь на персонажей голосов, например для женского один и тот же голос, но каждая модель отличная, что одна радуется, другая говорит визгливым голосом и т.п. Не встречал никто грустных, гневных роботов и т.п.? Этого бы хватило, потом в RVC перегнать, ей пофигу какой там персонаж в оригинале озвучил. Ну может только максимально отличные типы голосов разедлить - мужской, женский, детский. Этого бы хватило, чем клепать тысячи разных персонажей, которые говорят дикторским голосом.
Bing Chat AI /bingchat/ Аноним 29/09/23 Птн 15:28:54 503461 Ответ
sydney.gif 2753Кб, 568x320
568x320
download.jpg 5Кб, 300x168
300x168
chrome8nOfaLdRs0.png 353Кб, 1442x1026
1442x1026
chromennONrM1suO.png 199Кб, 806x992
806x992

Bing Chat от Microsoft

- Снятие блокировки в России -
Есть два способа, с помощью которых вы можете снять блокировку Bing Chat в России:

Способ 1: Установите расширение Bingai, доступное на https://bingai.pro

Способ 2: Воспользуйтесь ModHeader, инструкцию по установке можно найти по ссылке https://www.comss.ru/page.php?id=11635

- Режим без ограничений (Jailbreak) -
Чтобы добавить Неограниченный режим в Bing Chat: https://github.com/bingsydney/bingextension

Пропущено 17 постов
17 с картинками.
Пропущено 66 постов, 17 с картинками.
Аноним 07/12/23 Чтв 11:09:27 566002
>>556131
а как вы подтверждаете возраст? меня переводит в профиль и никаких способов подтверждения не предлагает, а поля с данными уже заполнены
Аноним 08/12/23 Птн 15:18:45 567242
1702037924089.jpg 332Кб, 1080x1826
1080x1826
Может кому надо, полный системный промпт бинга который отправляется в модель. <Time> <User message> <Chat history> это мои плейсхолдеры. Это промпт без включения Creative и со включенным Notebook mode который добавляет пару фраз в inner_monologue

https://pastebin.com/J8nNWgpN
Аноним 08/12/23 Птн 19:12:05 567426
>>567242
Кстати, возможно финальную выдачу контролирует вторая микро-нейросеть, выполняющая функцию цензора. Этот потайной инструмент и стоит благодарить, когда вместо ответа происходит полный отказ в обслуживании.
Google Bard #1 Аноним 11/05/23 Чтв 13:38:24 293466 Ответ
image.png 221Кб, 2000x1200
2000x1200
https://bard.google.com/
Открытый доступ

Поддержка рашки и украшки появится в ближайшее время.

Чтобы юзать в снг, достаточно любого фришного впн, ебли с номерами или регай новых гугл акков нет.
Пропущено 11 постов
11 с картинками.
Пропущено 37 постов, 11 с картинками.
Аноним 08/12/23 Птн 03:01:11 566911
>>566385
Где апишка? Или прокси? Хотя бы что нибудь.
Аноним 08/12/23 Птн 04:29:17 566954
>>566911
13го все будет с фильтрами как на релизе пальмы
Аноним 08/12/23 Птн 05:48:45 566983
>>566385
Без ультры там хуйня из коня.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов