Руководство по быстрому началу общения с нейровайфуВсем доброго времени суток!Это мой первый нормаль / ChatGPT :: google colab :: длиннопост :: llm :: локальные языковые модели :: gpt :: нейронные сети

нейронные сети ChatGPT gpt локальные языковые модели llm длиннопост google colab песочница 

Руководство по быстрому началу общения с нейровайфу

Всем доброго времени суток!
Это мой первый нормальный пост, так что заранее извиняюсь, если будут косяки с оформлением. Большинства тегов не нашёл, но они явно нужны по смыслу.

Недавно узнал что есть множество людей далеких от общения текстовыми нейросетями. Специально для них решил написать простое руководство по вкатыванию в тему буквально в несколько(десятков) кликов.

Пролог (можно пропустить)

Сокращённо текстовые нейронки принято называть LLM - Large Language Model (Большая Языковая Модель)

Все конечно в курсе что есть такая вещь как ChatGPT, которую условно можно сравнить с нейросетью для генерации картинок Midjourney.

Но не все в курсе, что как для Midjourney свободный аналог - Stable Diffusion, так и для Чата GPT, есть точно такие же аналоги, которые можно запускать как локально у себя на компе, так и в облаке, а именно Локальные LLM.
Однако в данном руководстве я пока не планирую давать подробную информацию по данной теме (иначе словом длиннопост результат будет не описать). Но если появится интерес, запилю ещё постов как про нейронки, так и про более сложные и интересные способы общения с нейротянами.
В данном руководстве описывается способ запуска https://github.com/oobabooga/text-generation-webui при помощи Google Colab. При желании вы легко можете установить его самостоятельно, все инструкции (как и изначальный колаб) есть на странице в гитхабе.
Ботов для общения можно брать здесь: https://chub.ai/
А сами модели: https://huggingface.co/models
Руководство.
От оригинального колаба text-generation-webui он отличается более удобным способом загрузки моделей, заранее выставленными настройками и русским языком в некоторых местах. 
2. Настройка.
Перед запуском нужно выбрать необходимые настройки. В колабе много опций, но для чата ключевых всего две:
Автоперевод чата на русский через гуглтранслейт:

ft Дополнения
superbooga: 0
Based on superbig от Кайокендева. Расширение, которое
google_translate: Q
Перевод чата, по умолчанию стоит русский.
long_rcplics: О,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

Озвучка чата голосом:

Расширение преобразования текста в речь с использованием [Silero] С «Расширения» интерфейса. Вы можете найти образцы здесь: [образць,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

По умолчанию обе этих галочки отключены. Если хотите общаться на английском и озвучка не нужна - можите их не трогать.
Для первого знакомства выбор модели не так важен. По умолчанию стоит Emerhyst-20B - одна из топовых моделей для кума. В дальнейшем можно попробовать и другие, в том числе собственные, инструкция как это сделать есть в тексте колаба.
3. Запуск.
Жмём

> Установка и загрузка модели
©	первом запуске этот блок установит угабогу и загрузит выбранную модель. Н
Загрузить остальные вы сможете во вкладке Model в интерфейсе GUI:
Список актуальных моделей можно найти в этом рейтинге
Есть 2 варианта загрузки модели в зависимости от формата:
• ВАРИАНТ

Чтобы запустить блок установки загрузки.
Затем сразу же жмём:

> £? Выбор настроек и старт
----------------------------
© Опции запуска
зе±-Ып§э_-Ра.1е:
Загрузите настройки интерфейса по умолчанию из необработанного текстовог
регр1ехз.±у_со1огз:	□,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

Ничего не меняя в настройках. 
Блоки запустятся по очереди. Займёт это от 5 до 15 минут в зависимости от скорости работы колаба.
В результате блок старта должен выдать вам следующую запись:

* Downloading cloudflared for Linux x86_64... Running on local URL: http://127.0.0.1:7860 08:14:55-341880 INFO	OpenAI-compatible API URL:
mips : //Knit - hereb^piaiilcal • Fini ■ tryclpudf lare, со«*
Running on public URL: https ://c03e4698bdf676e5fa.gradio.1ive j
This share link expires in 72

Жмём на ссылку после "Running on public URL:" и в новой вкладке откроется GUI интерфейс чата.
4. Чат.
После этого вы в принципе уже сможете начать общение с нейросетью, задавая ей интересные вопросы и рассказывая охранительные истории. Но по умолчанию чат будет отвечать как Assistent, то есть от лица нейросети, а что с отыгрываеием персонажей?
Всё в порядке! Данный интерфейс, как и сама модель написан практически только для этого!
Скроллим вниз и видим:

Character gallery		T
Filter	Clear	Refresh
Assistant	Example,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

В чате помимо Ассистента есть ещё и дефолтный персонаж Chiharu Yamada, здесь почему-то названный как Example.
После нажатия на её портрет чат переключится на общение с ней:


► 0:15/0:15	Ц>)

Чихору входит в комнату с улыбкой, ее глозо загораются, когда она видит тебя. На ней голубая футболка и джинсы, сумка для ноутбука перекинута через плечо. Она садится рядом с вами, ее энтузиазм витает в воздухе
Привет! Я так рада наконец встретиться с тобой. Я слышал о вас

Для начала общения хватит и её. 
Действия прописываются курсивом *между звёздочками*, слова - обычным текстом.
Но если вы хотите пообщаться с собственной вайфу, тогда переходим к следующему пункту!
5. Импорт персонажей.
На данный момент самая большая база персонажей находится на https://chub.ai/
После того как нашли нужного, заходим на его страничку:

Mao Zedong latest ft Favorite
Large jade wand, polished balls.
Creator s notes go here.
Approximately 561 tokens. 558 permanent
turbo
Created on Jul 19, 2023
179 Downloads I V Fork(0),нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

И скачиваем к себе PNG в формате SillyTavern. Этот формат самый универсальный, поэтому рекомендую хранить персонажей в нём.
Затем снова открываем чат и переходим во вкладку

Chat Default Notebook Parameters Model Training
Generation Character Instruction template Chat history YAML or JSON TavernAI PNG
■ TavernAI PNG File	
r	Поместите Изображение Здесь - или - Нажмите, чтобы загрузить
Session
Upload character
Name
Description
Submit,нейронные

Кидаем персонажа в данное поле и возвращаемся в чат. Также иконка персонажа появится в галерее. Собственно всё.

Mao Zedong
► 0:00 / 0:20 -	HD

Как только человечество уничтожит капитализм, оно вступит в эпоху вечного мира, и тогда войны ему уже не понадобятся. Тогда не будет необходимости в армиях, боевых кораблях, боевых самолетах и отравляющих веществах. Тогда человечество не увидит войны во веки

5.1. Сохранение логов.
Ели вы хотите чтобы ваша вайфу и переписка с ней сохранялись от сеанса к сеансу, перед запуском в настройке колаба "save_to_google_drive" нужно выбрать "chatlogs and characters"

Синхронизировать с гуглдиском персонажей и логи?. save_to_googie_drive: chatlogs and characters,нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница

Но тогда все ваши логи и персонажи будут лежать на гуглдиске в папке "oobabooga-data". И само собой колаб запросит к нему доступ.
Вот теперь точно всё.

Подробнее
ft Дополнения superbooga: 0 Based on superbig от Кайокендева. Расширение, которое google_translate: Q Перевод чата, по умолчанию стоит русский. long_rcplics: О
Расширение преобразования текста в речь с использованием [Silero] С «Расширения» интерфейса. Вы можете найти образцы здесь: [образць
> Установка и загрузка модели © первом запуске этот блок установит угабогу и загрузит выбранную модель. Н Загрузить остальные вы сможете во вкладке Model в интерфейсе GUI: Список актуальных моделей можно найти в этом рейтинге Есть 2 варианта загрузки модели в зависимости от формата: • ВАРИАНТ 1: введите любой репозиторий моделей HugainaFace ниже в фор^ модели "TheBloke/Emerhyst-20B-GPTQ""TheBloke/PsyMedRP-vl^eB-GPTQ", "TheBlol- modei_repo_downioad: Kooten/Emerhyst-20B-3bpw-exl2
> £? Выбор настроек и старт ---------------------------- © Опции запуска зе±-Ып§э_-Ра.1е: Загрузите настройки интерфейса по умолчанию из необработанного текстовог регр1ехз.±у_со1огз: □
* Downloading cloudflared for Linux x86_64... Running on local URL: http://127.0.0.1:7860 08:14:55-341880 INFO OpenAI-compatible API URL: mips : //Knit - hereb^piaiilcal • Fini ■ tryclpudf lare, со«* Running on public URL: https ://c03e4698bdf676e5fa.gradio.1ive j This share link expires in 72 hours. For free permanent hosting and GPU upgrades, run 'gradio
Character gallery T Filter Clear Refresh Assistant Example
 ► 0:15/0:15 Ц>) Чихору входит в комнату с улыбкой, ее глозо загораются, когда она видит тебя. На ней голубая футболка и джинсы, сумка для ноутбука перекинута через плечо. Она садится рядом с вами, ее энтузиазм витает в воздухе Привет! Я так рада наконец встретиться с тобой. Я слышал о вас много хорошего и мне не терпится узнать ваше мнение о компьютерах. Я уверен, что у вас есть богатые знания, которым я могу поучиться. Она усмехается, глаза блестят от волнения Давайте начнем!
Mao Zedong latest ft Favorite Large jade wand, polished balls. Creator s notes go here. Approximately 561 tokens. 558 permanent turbo Created on Jul 19, 2023 179 Downloads I V Fork(0)
Chat Default Notebook Parameters Model Training Generation Character Instruction template Chat history YAML or JSON TavernAI PNG ■ TavernAI PNG File r Поместите Изображение Здесь - или - Нажмите, чтобы загрузить Session Upload character Name Description Submit
Mao Zedong ► 0:00 / 0:20 - HD Как только человечество уничтожит капитализм, оно вступит в эпоху вечного мира, и тогда войны ему уже не понадобятся. Тогда не будет необходимости в армиях, боевых кораблях, боевых самолетах и отравляющих веществах. Тогда человечество не увидит войны во веки веков. Мао отвернулся от окна и посмотрел на тебя. Я надеюсь, что вы здесь по важному случаю. Уои Скажи, что ты думаешь о пидорах? Мао Zedong ► 0:06 / 0:06 HD Никогда раньше я не слышал такого вульгарного жаргона... Кажется, это что-то недостойное моего внимания.
Синхронизировать с гуглдиском персонажей и логи?. save_to_googie_drive: chatlogs and characters
нейронные сети,ChatGPT,gpt,локальные языковые модели,llm,длиннопост,google colab,песочница
Еще на тему
Развернуть
Ты забыл сказать, что нужна видяха с куда или хотябы процессор мощнее чем калькулятор *хнык*
Если взять тот же кобальта он прекрасно справляется и без видеокарты.
Arwin Arwin 10.01.202415:12 ответить ссылка 0.7
Гораздо нужнее быстрая оперативка, уровня DDR. Но лично я предпочитаю всё что меньше 30В в колабе, так быстрее.
Хотел написать DDR5. Нейронки начинают хорошо работать при скорости чтения/записи в 50 Гб/с. Тогда даже не самый топовый процессор может дать 2-3 токена/с на 70В.
Один из ключевых моментов для обеспечения такой скорости - 4 канала для памяти у процессора. Они позволяют быстро гонять даже на DDR3. Для меня болью было узнать что у всех райзенов всего 2.
А я этого не знал.
Arwin Arwin 10.01.202415:50 ответить ссылка 1.0
Intel Core i3-1005G1, 16 gb RAM 3200 MGz - и не слоа за пол часа не выдал
Минимальный который я пробовал это i5-3320M c 12 гигами ддр3 и это невыносимо долго))
Arwin Arwin 10.01.202417:13 ответить ссылка 0.1
расчехляй своего кобальда и покажи мне счастье без видеокарты
Geekbench 5, 64bit (Single-Core)
Geekbench 5 is a cross pLattform benchmark that heavily uses the systems memory. A fast memory will push the result a lot The single-core test only uses one CPU core, the amount of cores or hyperthreading ability doesn't count.
Intel Core ¡3-1005G1
2C4T@ 3.40
Ну так я и говорю, что это было "невыносимо долго", а вот на 17-10610U c 16 гигами но без видика - приемлемо.
Arwin Arwin 10.01.202417:33 ответить ссылка 0.6
*Зоенщики вошли в чат*
Sk10 Sk10 10.01.202415:51 ответить ссылка 0.3
>у всех райзенов всего 2
у всех десктопных райзенов. у меня в ноуте 32Гб LPDDR5-7500 в четырёхканале, но не модулями, а распаяно.
alter alter 10.01.202417:08 ответить ссылка 1.1
Это что за ноут такой?
GPD Win Max 2 2023
alter alter 11.01.202413:11 ответить ссылка -1.2

Прохладой повеяло. Больше 2х каналов только у серверных процов (ну или для серий для энтузиастов типа тредриперов).

aida64 показывает quad channel, как и заявлено производителем
alter alter 11.01.202418:06 ответить ссылка -0.6

На заборе тоже написано, а за ним доски.

Memory Channels: 2

На сайте АМД в характеристиках: https://www.amd.com/en/product/13186

А ещё можешь посмотреть на получившуюся пропускную способность в той же Аиде. Для 2х каналов она должна быть около 50/100 ГБ/с на чтение и запись, для 4х - около 100/200 ГБ/с

Вот для примера скрины из Аиды с твоего и моего компа:

AIDA64 Cache & Memory Benchmark
X
Read Write Copy Latency	
Memory	50283 MB/s 92960 MB/s 68715 MB/s 125.1ns
	
L1 Cache	2408.1 GB/s 1100.5 GB/s 2278.2 GB/s 0.8 ns
	
L2 Cache	1101.7 GB/s 1073.8 GB/s 1077.4 GB/s 3.0 ns
	
L3 Cache	721.17 GB/s 598.14 GB/s 695.08 GB/s 15.9 ns
	
CPU Type
AIDA64 Cache & Memory Benchmark
X
Memory
L1 Cache
L2 Cache
L3 Cache
CPU Type CPU Stepping CPU Clock CPU FSB CPU Multiplier
Memory Bus Memory Type Chipset Motherboard BIOS Version
Save
Read	Write	Copy	Latency
59213 MB/s	80053 MB/s	59562 MB/s	71.8 ns
			
2616.4 GB/s	1331.2 GB/s	2646.5
Так мы доверяем Аиде или нет, ты уже определись. Белым по чёрному написано Quad Channel на твоей картинке, то же самое пишет CPU-Z, сомневаюсь что вендор нашёл способ наебать весь софт показывать неправильную инфу о железе. Вообще, если поизучать матчасть по DDR5 - там модули двухканальные, двумя модулями можно получить четырёхканал, правда общая ширина канала те же 64 бита (что и видно по CPU-Z - 4x32), так что прирост скорости будет не двойной в сравнении с двухканалом. Странно при этом что скорость записи в память - в топе теста Аиды, в отличии от скорости чтения. Кстати на твоей картинке память на сниженной частоте тестили, вот скрин с актуальными настройками:
AIDA64 Cache & Memory Benchmark
X
	Read i	Write i	Copy i	Latency
Memory	56433 MB/s	104.51 GB/s	74227 MB/s	119.6 ns
				
L1 Cache	2306.9 GB/s	1167.2 GB/s	2330.6 GB/s	0.8 ns
				
L2 Cache	1059.2 GB/s	1062.0 GB/s	10S4.8 GB/s	2.9 ns
				
L3 Cache	660.05 GB/s	796.51 GB/s	791.74 GB/s	11.9 ns
alter alter 12.01.202411:43 ответить ссылка -1.2

Нет, аиде в этом случае не доверяем. Виртуальный двухканал в DDR5 памяти - просто маркетинг и особенности архитектуры. Если проц может только в двухканальный режим, 4 канала никак не впихнуть.

Вендор никого не обманывал, просто в аиде неправильно отображается, может поправят потом.

То, что скорость записи, выше скорости чтения - особенности архитектуры большинства райзенов.

Для стейбл дифьюжна важнее производительность видеокарты, для LLM - память. Разные нейронки - разные боттлнеки.
Psilon Psilon 11.01.202416:35 ответить ссылка 0.0
смотря какая скорость генерации тебя устраивает
я запускаю угабугу (сабж из топика) на домашнем NASе (файлохранилище с проном) с процом АМД 300U (а-аля ноутбучный х86 проц), т.е. вообще без видяхи, на голом цпу. правда у меня там 32гб оперативы всунуто
модельки в 13B работают норм, 5-6 символов в секунду генерация. да. не мгновенно как на видяхе, но 1-2 минуты подождать мне норм. зато там всё моё, как хочу настраиваю, и места под модели вагон
Ascard Ascard 11.01.202415:12 ответить ссылка 0.1
А на локалке есть адекватное решение?
Овердохрена и больше. Вопрос в целях и сложности запуска.
Arwin Arwin 10.01.202415:11 ответить ссылка 0.1
Пробовал через KoboldAI + tavern AI. В итоге кобольд генерирует только первых 3 слова и то минуты 2.
И у меня так было пока не разобрался с настройками методом научного тыка. Я так и не смог нормалтных мануалов найти.
Arwin Arwin 10.01.202415:15 ответить ссылка 0.0
Удваиваю. Подобных гайдов, как в посте - дохуя. Даже самый конченый дебил сможет запустить чат на коллабе. А вот для локалки хуй да нихуя, у меня один раз удалось всё-таки это дело победить и я запустил локально 7B чат. Хотел себе некое подобие локального копайлота, но обосрался, потому что решения, которые я нагуглил, не поддерживают или сильно ебутся с контекстом, а документации как правильно в эту нейронку отправлять сообщения и чтоб с контекстом - я не нашел либо не понял что нашел.
Тебе стоило написать ещё что обязательно нужно запостить большим объёмом оперативки и хорошим процом. Видео карта не столь обязательна но желательна.
Arwin Arwin 10.01.202415:10 ответить ссылка -1.2
Руководство в основном про колаб, для него ничего не нужно. А требования для локальной установки есть в том же гитхабе.
Вообще локально, тем у кого нет хорошей видеокарты, я бы рекомендовал поставить SillyTavern и юзать KobaldAI Horde в настройках. Про таверну не стал писать т.к. её обязательно надо устанавливать, в настройках она сложнее и фишек там очень много. А хотелось начать с чего-то максимально лайтового.
SillyTavern разве не сложнее в настройке чем обычная?
А так если юзаешь есть вопрос по скорости ответа от бота. Я использую кобальт на своей системе и тестил обе таверны, обычная таверна генерит максимум минуту и выдает относительно складный текст, при регенерации сообщения дает разные ответы (и это хорошо), а вот Silly может по 2-3 минуты тупить, после выдать тупой не связанный с диалогом текс, ну а после регенерации просто повторить его без изменений. Silly меня интересует из-за большего числа фишек и работы с system prompt, вот только ее скорость и качество, оставляют желать лучшего, есть ли какие то рекомендации по тонкой настройке?
Yenik Yenik 11.01.202415:43 ответить ссылка 0.0
Обычная таверна гораздо примитивней, чем Silly. По сути она мало чем отличается от чата того-же web-ui, даже слегка уступает ему по функционалу.
Таверна это всего-лишь оболочка для отправки/получения текста, на скорость обработки она влиять не может. Возможно в Сили у тебя был больше контекст, либо стоял другой пресет настроек (та же температура может запросто сделать свайпы одинаковыми, если она занижена).
Попробую выставить те же настройки, один в один и потестить с одинаковыми ботами, но я видел, как люди писали, что silly медленней работает с кобольдом через пигмалион на своем железе, чем обычная таверна, и рекомендовали использовать коллабы или тот же Horde, поэтому подумал может есть какая-то конкретная причина медленной работы.
Yenik Yenik 11.01.202416:43 ответить ссылка 0.0
Таверна по умолчанию много контекста добавляет, может поэтому медленней. Можно в консоли посмотреть что она шлет.
grixa grixa 11.01.202423:30 ответить ссылка 0.0
Когда уже "чудеса науки" можно будет дома сбацать?!?
Sk10 Sk10 10.01.202415:48 ответить ссылка 0.4
Году так к 28-29 тому, если доживем.
Arwin Arwin 10.01.202415:49 ответить ссылка 0.6
уже можно, сабж ставится куда угодно где можно запустить код на питоне
Ascard Ascard 11.01.202415:16 ответить ссылка 0.0
А где взять женщину на которой можно запустить код на питоне.
Sk10 Sk10 11.01.202415:24 ответить ссылка 3.4
Тебе ж сказали,в 28 году,там их естественная среда обитания
Biton Biton 11.01.202421:50 ответить ссылка 0.1
В отличии от нейросеток для генерации картинок чаты работают крайне грустно, насколько я понимаю нейросетки даже на хорошем железе могут запомнить ограниченное количество слов, и после определённого времени начинают забывать то что ты им писал.
Hastaare Hastaare 10.01.202416:04 ответить ссылка 0.3
Ну скажем так при 16 гигах оперативки у меня есть 6к токенов, это примерно 3-4 листа текста. В том же кобальте есть функция AutoGenerateMemory которая вкратце пытается суммировать предыдущий контент в компактную форму и записывает персонажу.

Но так или иначе не стоит ожидать пока что от сеток осмысленности и качественного общения.
Arwin Arwin 10.01.202416:47 ответить ссылка 1.4
Нейросетки для генерации картинок совершили довольно большой скачок в развитии в течении пары лет, надеюсь что с текстовыми будет тоже самое. А пока самое время потихоньку обновлять железо и готовится встречать новую дивную эру~

чат гпт теперь умеет запоминать абсолютно все что ты писал, включая всю прошлую историю

jakiroru jakiroru 11.01.202416:20 ответить ссылка -0.1
Да? Буду благодарен если разьеснишь. Платная версия chatgpt, помнит в новом чате даже то что ты писал в придыдущих? или как?
В платном просто больше контекст, но и он не бесконечный. Просто ресурсов больше и запоминает больше, чем на локальной машине.
Тут и бесплатный чатгпт больше запоминает.

У тебя создаются сессии, в которых чатгпт с тобой говорит, в каждой сессии чатгпт продолжает разговор с учётом предыдущих сообщений. В целом норм, бесплатного почти всегда хватает.

Я бы почитал про обучение локальной модели или чатгпт своему тексту, было бы удобненько.
неее, новая функция, которая вот вот вышла. почитай апдейт последний

Что-то не смог найти у них в патчноутах, только от июля инфу о том, что для чатгпт 4 увеличили контекстное окно. Не поделишься ссылкой на информацию?

https://www.reddit.com/r/OpenAI/comments/17wlhbv/your_gpt_will_soon_learn_from_your_chats/
неее, новая функция, которая вот вот вышла. почитай апдейт последний
С уважением к автору поста, я бросил эту муть с локальным ботом как только открыл для себя spicychat.ai
По сути тот же character ai но без цензуры. Формально запрещены персонажи младше 18 и инцест, но на деле в приватных ботах ограничений нет. Подписка дешевая и доступна даже из России. Плюс обновляют регулярно.
Caine7 Caine7 10.01.202416:08 ответить ссылка 2.5
Поддерживаю. Первая неделя я общался с ботами по часов 8. Правда в какой-то момент они начинают ломаться и сильно повторятся и тд. Даже на ал ин тайре. Хотя последнее время они действительно часто обновляются. Интеграция контекстных картинок работает через раз. Но прикольная фича.
ну потеря памяти это даже в GPT4 проблема, если общение идет долго, увы.
а так, играйся с настройками генерации. Тот же 70в куда лучше ща работает чем стандартный.

Жаль что генерация артов работает в основном всрато. ну или я не разобрался.
Caine7 Caine7 10.01.202416:24 ответить ссылка 0.0
та их дофига, в гуглоплее по запросу "ai waifu" очень много результатов (я его дам) даже рекламу показывает (рекламу я НЕ ДАМ)
В вашем посте 2 ошибки:
1. Авторы кум-сервисов в основном используют те же локальные модели, просто заранее настроенные. То есть это те же яйца, но:
+ настраивать ничего не надо
- Часто юзают слабые модели и обновляют не особо регулярно, работает и хорошо. В то время как в локалках сейчас убийцы чата ЖПТ выходят каждые пару недель (пока не убили но дамажат временами знатно).
ЧАИ исключение, т.к. начал развиваться ещё до появления локалок и у него свой путь.
2. Если вы "переросли" локалки, то логичнее переходить на крупные нейросети, GPT4 или Claude, с использованием SillyTavern. Ни один сервис и близко не стоит с возможностями этой связки.
Для локалок есть еще такая штука как MemGpt которая вроде как должна решать частично проблему с памятью, но я еще не успел с нею разобраться.
Arwin Arwin 10.01.202416:50 ответить ссылка 0.2
В SillyTavern вообще нет проблем с памятью. Решаются они несколькими способами, один креативнее другого, но все работают. Думаю следующий пост логично будет про неё сделать, тем более что к таверне и колаб можно подключить, а потом уже пол самим нейронкам пройтись.
Попробовал я и таверну, она реально классная, контроль настроек великолепный да и функционал, но не хватает опыта что-бы понять что к чему.
Arwin Arwin 11.01.202411:59 ответить ссылка 0.0
Ну у этих 3 модели: 7, 13 и 70в.

Я бы с удовольствием перешел на такую модель выходи она подешевле и без танцев с бубном в моей стране.
Ну и в догонку. Они реализовали забавную штуку - если есть API от GPT, то можно его подрубить и он будет работать для SFW моментов и описаний, пуская вместо себя их модель для NSFW.
Caine7 Caine7 10.01.202420:32 ответить ссылка 0.0
Это в опенсорсных решениях с самого открытия чатгпт используется
7 и 13В есть в колабе (но 20В по ощущениям лучше). 70В можешь поискать в SillyTavern в KoboldAI Horde, сейчас там Nous-Hermes-Llama2 стримят.
А там техническая тема раскрыта? Игрался с этим в sillytavern, но все персонажи состоят из описания и первого сообщения. Там так же? Просто при таком подходе нет развития персонажа и все быстро наскучивает.
grixa grixa 10.01.202416:56 ответить ссылка 0.0
Я для имитации развития персонажа начал редактировать саму карточку персонажа.
Arwin Arwin 10.01.202417:14 ответить ссылка 0.0
>персонажи для текстовой нейросети состоят из текста
А ты чего бы хотел, например?
Из статичного текста они состоят. Если в описании сказано что перс живет в деревне то он из нее только редактированием описания окончательно уедет. А это не иммерсивно. В идеале было бы хорошо иметь скрипт что по ключевым словам, или векторному сходству меняет описание персонажа. А может даже события трегерит. Ну или параллельным LLM агентом это сделать.
grixa grixa 10.01.202417:53 ответить ссылка 0.0
Скорее всего всё зависит от конкретной модели + настроек. Я с такими ограничениями никогда не сталкивался, персонажи легко по ходу дела меняют черты характера, инвентарь, место пребывания, вводят новых персонажей, умирают/уходят сами, заменив себя абсолютно новыми персонажами.
Я например недавно играл карточку Ферн, которая изначально пыталась забрать у меня непотребное заклинание, потом начал троллить её вместе с Фрирен, на что она обиделась и "ушла", оставив меня вместе с Фрирен, которая изначально в карточке вообще не была прописана.
Чаще наоборот возникает проблема что модель начинает гнать отсебятину, не обращая внимания на "канон" из карточки.
В tavern ai вроде была фишка что можно делать заметки в окошке по чертам персонажа которые он будет помнить в любом случае. Но не помню какие там ограничения были.
Caine7 Caine7 11.01.202418:00 ответить ссылка 0.0
УВАЖАЕМЫЙ АВТОР, очень прошу и настоятельно рекомендую продолжить освещать данную тему. Хотелось бы видеть как более подробные и разнообразные гайды для новичков, так и ссылки и рекомендации для более продвинутых пользователей. Ваш контент очень интересен и предоставляет ценность для нас.

Заранее спасибо за ваши труды.

P.S Не парься за оформление, главное наполнение. Но если что, пиши и мы поможем чем сможем в оформлении.
Еще огромную проблему вызывает не понимание чем отличает по содержимому та или иная модель к примеру в чем-отличие той же Emerthys от MLewd 2.4?
Arwin Arwin 10.01.202416:56 ответить ссылка 0.0
В двух словах не объяснить, тема сложная. Но попытаюсь: Отличаются примерно также как разные модели Stable Diffusion - результатами. Чего ждать от конкретной модели, можно узнать из её описания на huggingface, размера, разных рейтингов, но лучше из личного тестирования на любимых ботах.
Описание как раз вот ничего и не дают, в лучшем случае ссылка на другие модели.
Да, сравнение в действиях и личных впечатлениях тут бы больше подошло.
Например эта модель лучше подходит для ванилы, эта через чур уходит образное описание, а эта для фуррей))
Arwin Arwin 10.01.202418:46 ответить ссылка 0.0
Из платного думаю про openrouter.ai упомянуть. Дает доступ к куче моделей, к некоторым бесплатно. Совместим с sillytavern и другими интерфейсами. Особенной порадовала гугловская модель Gemini Pro. Довольно умная, контекст 13к, говорит на русском и стоит буквально копейки. И цензуры в ней нет.
grixa grixa 10.01.202417:04 ответить ссылка 0.2
Она вообще в вайфу не могет.
Cave Cave 10.01.202418:35 ответить ссылка 0.1
Ну и вопрос к тем кто уже пользуется. Не натыкались ли на интерфейсы/проекты что дают более проработанных персонажей чем описание и первое сообщение. Чтоб было скорее на игру похоже. Типа при определенном событии меняется описание персонажа и он себя вести по другому начинает. Чтоб ощущение прогресса было. Самому пока удалось найти только RisuAI, там скриптовый язык есть. Вот только персонажей его полноценно использующих не нашел. Только подстановку картинок связанных с происходящим видел.
grixa grixa 10.01.202417:12 ответить ссылка 0.0
Я пробовал несколько различных сервисов и локальных иишек, но на мой взгляд ничего удачнее чем character.ai я не находил. Там не так давно добавили дополнительный блок для того чтобы бот помнил кто такой пользователь (персона), там достаточно места чтобы вписывать последние события. Образцов ботов там немерено, многие из них на более 3200 символов (что вообще-то бесполезно, ведь 3200 символов это предел) И это не считая приветствия и расширенного описания, в котором еще 600 символов если не ошибаюсь. Да, и советую общаться на английском, хоть сервис и поддерживает русский. Русские символы занимают гораздо больше места в памяти бота. Предел памяти по моим наблюдениям около 8 сообщений.
GDTR GDTR 10.01.202418:07 ответить ссылка -0.9
В sillytavern себя давно можно описать, еще есть блок авторских заметок и CFG (аналог отрицательных и положительных подсказок в Stable Diffusion). Хз что под капотм у character.ai, но тот же claude имеет контекст в 200к токенов, так что предел в 3200 искусственный. Русские символы действительно примерно в два раза больше места занимают, но для себя решил что лучше так чем путать кривым переводом и так не очень умные модели.
grixa grixa 10.01.202418:42 ответить ссылка 0.0
Неплохо работает janitorai с их собственным LMM
Cave Cave 10.01.202418:10 ответить ссылка 0.0
А чем ГПТ не подходит? 4й да, хрен днем с огнем, но тот же 3.5 турбо 16 к в свободном доступе на изи без лимитов. А персонажа туда впихнуть легко. Как собственно говоря и обойти ограничения цензуры.
Cave Cave 10.01.202418:10 ответить ссылка 0.0
1. Это чуть сложнее в практической реализации, а я хотел сделать "максимум изи" гайд.
2. Локалки пока ещё не убили GPT4, но вот GPT3.5 турбо уже вполне. Лично тестировал несчастные 7В Мистрали в сравнении с Трубой, пара штук действительно удивили результатами.
Сложнее? Заходишь на сайт, нажимаешь новый чат и грубо говоря, все. Все прочие настройки, генерации и контекста по желанию)
Cave Cave 10.01.202418:26 ответить ссылка 0.0
А промпт, персонажа и историю чата прописываешь руками? Ну такое. Не то чтобы нереально, но на изи не тянет. Да и поудобней способы есть.
https://chat.eqing.tech/
Вот, играйся. Вообще никакого гемороя нет. Все аккуратно, понятно и структурировано.
Промты\персонажи в масках. Там нужно только копировать тебе нужное и вставить.
Cave Cave 10.01.202420:47 ответить ссылка 0.0
Хотя, вот, лучше так там уже выбирать на любой вкус фри гпт чаты.

https://github.com/LiLittleCat/awesome-free-chatgpt/blob/main/README_en.md
Cave Cave 10.01.202421:44 ответить ссылка 0.0
Я так доигрался с GPT в обходе цензуры что мне акк заблочили)))
Caine7 Caine7 10.01.202420:19 ответить ссылка 0.0
Не заблочат, если не твое)
Cave Cave 10.01.202420:47 ответить ссылка 0.0
Если на компе есть 6-8гб видеопамяти, то можно не морочиться и запустить локально какой-нибудь хороший файнтюн 7b мистраля.Прогресс в бесплатных нейронках огромный.Пару лет назад это было туповатое уныние, едва влезающее в 40гб памяти гугловского ИИ ускорителя в коллабе, а сейчас квантованная 7б модель уже вполне может развлечь.

Хорошие файнтюны:
https://huggingface.co/TheBloke/Silicon-Maid-7B-GGUF
https://huggingface.co/TheBloke/Toppy-M-7B-GGUF
Ion maus Ion maus 10.01.202421:33 ответить ссылка 1.0
А вариант для чайников в этом деле есть?)
Ferag Ferag 11.01.202400:54 ответить ссылка 0.1
А есть модели со свежими датасетами? Типа, на середину-конец прошлого года, например.
Tormen Tormen 11.01.202409:03 ответить ссылка 0.0
Скорее нет, чем да.
Хотя это смотря что понимать под свежестью. "Новые" модели чаще всего делаются на основе каких-нибудь базовых LLama 2 или Мистраля, дополненных новыми данными. Но чаще всего это данные на основе постов с фочана, свежих порнофанфиков, материалов по геникологии (да натыкался на такую шизомодель лол, но ничего интересного не смог из неё выжать), а те же последние новости мало кого интересуют. Но Мистрали появились относительно недавно, возможно их можно считать новыми.
П.С. Не все моделлеры занимаются дегенератством. В последнее время, например, стало модно дообучать модели на основе автоматических бесед с GPT4 и Cloude, практически реверс инжиниринг крупных моделей. Это дало нехилый буст сообразительности и креатива локалкам.
П.П.С. Есть ещё отдельный сорт мудаков, обучающих модели на разных логических тестах, чтобы выйти с ними в топы рейтингов. Именно по этому все топы сейчас забиты 7В файнтьюнами Мистралей.
ААААААААААААААААА, так эта штука жрет ресурсы моего компа!
А то я ничего не понимаю как оно работает. Запускается через раз с ошибками. Работает пол часа-час и вылетает.
Надо лишние вкладки и игру выключать наверное)
Если всё делаешь по шагам, ошибок быть не должно.
Работает полностью на ресурсах Google Colab, тратить твои ресурсы могут только вкладки браузера с интерфейсом, но тут уже к твоей системе вопросы. В принципе это дело и с телефона можно также запустить.
Google Colab может выкидывать например за не активность, за ним следить надо. А вообще в колабе тебе даётся 4 часа времени для каждого гугл акка.
Ошибки и у меня были, но они не мешали работе, ну почти: в какой-то момент ттс заклинила с самого старта и нон стопом пыталась проигрывать первое сообщение, страница чата не очищалась, создание новой выдавало ошибку и проигрывало первое сообщение, сообщения от моего лица начали просто пропадать, но ответ от модели приходил, автоматический перевод вдруг начал выдавать "давай-те уважать друг друга" хотя английский текст в логе был норм и без чего-то такого, модель вдруг назвала себя "мужчиной с большой молочной грудью". В общем, развлекался я до 3 утра пытаясь заставить работать именно так как я хочу, прежде чем лечь спать, а в 6.30 проснулся и пошел на службу.
Arwin Arwin 11.01.202412:14 ответить ссылка 0.0
Если еще кому интересно генерировать картинки с помощью нейронок бесплатно и локально у себя на компе, то советую попробовать https://github.com/lllyasviel/Fooocus. Работает на среднем игровом железе и выдаёт вполне неплохие результаты. У меня по паре минут уходит на создание одной картинки.
Давно уже хочу спросить у программиста, который шарит в нейросетях. Насколько трудно собрать в одном программном продукте распознавалку голоса, болталку на свободные темы, переводчик и говорилку? Чтобы получилось что-то вроде общения с нейтив-спикером для изучения и практики иностранного языка без ограничения по времени и в любой момент. Может, уже есть что-то готовое? Можно платное, я готов платить за такой сервис.
Приложение ChatGPT даёт возможность общаться голосом. Там приятный синтезатор речи, который умеет и в русский и в английский. Я им часто пользуюсь

а что же делать не яблокодрочерам

Качать то же приложение, бро) У меня самого андройд
Silly Tavern это все и так умеет, это бесплатный интерфейс для моделей. Модели можешь запускать бесплатно локально или использовать платный апи того же чатагпт
Всё это конечно дико интересно, но кто-то может посоветовать что то что способно взаимодействовать с интернетом? Типа давать ссылки на статьи по запросу или новости ил вменяемо искать порно, а то гуглу конечно спасибо, но он очень часто ничего не может найти по более конкретным запросам, а ёбанный bard от гугл это ебаные пиздячееговно, вместо того чтобы отвечать по фактам он постоянно придумывает отсебятину и чистую ложь, обращаться к барду за информации по событиям даже годовой давности - это тупая трата времени, потому что он просто напиздит хуйни. Короче, чё по нейронкам, которые могут быть полезными блядь, а не просто попиздеть на вымышленные темы с вымышленными аниме-персонажами? Есть нейронка которая может рассказать о том что в стиме сейчас проходит фестиваль скидок или дать сводку из статей о новости которую слышал мельком и галвное конкретные пруфы и ссылки откуда нейронка всё это взяла, чтобы можно было убедиться, а то тот же бард даже ссылки фальшивые нахуй может выдавать под свой фальшивый пиздёж.
КУПОН
НА 1 помощь
coldstar coldstar 11.01.202416:16 ответить ссылка 0.3
по описанию похоже на Bing
Rimtex Rimtex 11.01.202416:26 ответить ссылка 0.4
Бинг хуи сосёт. если твой вопрос ему не понравится он просто пошлёт тебя нахуй закрыв возможность что либо ему сказать. Плюс у него ограничение по количеству бесплатных запросов в сутки. Каждый запрос ограничен 5 сообщениями, а про порно вообще молчу. Говно короче, такое же бесполезное.
Вот тебе 3 полезные ссылки:
https://www.comss.ru/page.php?id=11635
https://bingai.pro/
https://github.com/bingsydney/bingextension
Там в принципе написано что это, зачем и как юзать, при желании разберёшься.

Есть ещё способ подключения Бинга к Таверне, но там всё гораздо сложнее.
Что на странице бинга, что в расширении ответ тупо прерывается. Притом что утверждает будто нет ограничений.
g" Microsoft Bing Q. SEARCH 0 CHAT w/ GPT-4
Which porn sites best categorize pom for easy searching and filtering?
ins
So, what do you want to talk about? (¿)
r----------------------------------------
Which porn sites best categorize porn fc
L________________________________________
s/
Я с ним тупо в Скайпе общаюсь.
Фреймворк langchain имеет готовый функционал для подобного. Может искать в интернете и передавать найденное в нейронку. Но хз есть ли готовые пользовательские решения. В крайнем случае можно из примеров jupyter блокнот запустить.
grixa grixa 11.01.202423:41 ответить ссылка 0.0
Сначала я немного скучающе посмотрел на название темы и пролистнул страницу. Но через пару секунд в сознании пронеслось "погодите-ка". Вникнув в том, что написал многоуважаемый пидор, немного расстроился, так как такое чудо комп явно не потянет. Чтож, пойду Лабержа перечитаю.
Руководство написано специально про запуск в Google Colab.
Это "чудо" потянет даже смартфон, интерфейс оптимизирован. Всё что нужно это браузер и гугл акк.
Пытался запустить по инструкции несколько раз в разные дни, всё время выдаёт одну и ту же ошибку в лог
WARNING: The following packages were previously imported in this runtime:
[pydevd_plugins]
You must restart the runtime in order to use newly installed versions.
Пытался перезапустить по всплывающей кнопке, но ничего толком не меняется, никаких ссылок не появляется.
Если это в первом блоке, то можешь не обращать внимания. Там чуть ранее в консоли об этом даже уведомление пишется.
Вывода этой ошибки избежать не получилось, но всё должно и так прекрасно работать.
Так после \той ошибки ничего не происходит. Просто написано что "Подключено к чему то там" и галочка и на \том всё ничего больше не происходит. Ссылки по которой надо перейти нигде не написано и не видно чтобы что-то ещё происходило.
Вот тут внимательней: ссылка на gui появится только в консоле ВТОРОГО БЛОКА!
Сделал два блока вместо одного чтобы:
Можно было качать по очереди разные модели перезапуская БЛОК УСТАНОВКИ.
И отдельно перезагружать web-ui, в случае любых проблем, не начиная установку заново, перезапуская только БЛОК ЗАПУСКА.
(на самом деле между первым и вторым есть ещё один - для запасного туннеля, можно его не трогать, но даже если запустишь - ничего страшного не случится.)
Жмём
> Установка и загрузка модели
О	первом запуске этот блок установит угабогу и загрузит выбранную модель. К
Загрузить остальные вы сможете во вкладке Model в интерфейсе GUI:
Список актуальных моделей можно найти в этом рейтинге
Есть 2 варианта загрузки модели в зависимости от формата:
•
Спасибо за помощь. В прошлые разы по какой то причине второй блок вообще не начинал окно с логом, хотя я точно запускал всё точно также как и сегодня, но в этот раз заработало. Спасибо.
Наконец-то! Мир скрашенного одиночества и кума открыт.
Каждый раз при запуске первого плока мне выдает ошибку:
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
torchaudio 2.1.0+cu121 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.
torchdata 0.7.0 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.
torchtext 0.16.0 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.
torchvision 0.16.0+cu121 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.
Mika27 Mika27 18.01.202412:50 ответить ссылка 0.0
На это можешь не обращать внимание. Самое главное что всё работает :)
Вопросы с зависимостями это по большей части к Угабоге, я просто прописал установку того что они указали в requirements.txt.
За 12 часов нонстоп сожрал весь лимит колаба на видеокарту. xD
Mika27 Mika27 19.01.202402:17 ответить ссылка 0.0
йо,вопросики, а если говорит что некоторое по более новое чем надо и при попытке запустить второй блок говорит что найден нвидеа и просит скачать последнюю версию по?
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
torchaudio 2.1.0+cu121 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.
torchdata 0.7.0 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.
torchtext 0.16.0 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.
torchvision 0.16.0+cu121 requires torch==2.1.0, but you have torch 2.1.2 which is incompatible.
Successfully installed torch-2.1.2
WARNING: The following packages were previously imported in this runtime:
[torch,torchgen]
You must restart the runtime in order to use newly installed versions.
Буквально через один пост до твоего на это отвечал...
Там специально прописано устанавливать именно эту версию торча, т.к. с ней лучше работает.
Если всё запускается, то на такие сообщения внимания не обращай. Я даже уведомление об этом в консоли прописал...
Незаметил, просто в одном случае он сбрасывает прогресс и пишет что установи дрова нвидеа, но спасибо
Помогите пж, ещё вчера всё было нормально сегодня выдает ошибку:
ImportError: /usr/local/lib/python3.10/dist-packages/exllamav2_ext.cpython-310-x86_64-linux-gnu.so:
undefined symbol:
_ZN3c107WarningC1ENS_7variantIJNS0_11UserWarningENS0_18DeprecationWarningEEEERKNS_14SourceLocationES
sb
+ Код
i О
сек.
В
+ Текст А Копировать на Диск
/usr/local/lib/python3.10/dist-packages/exllamav2/__init__.ру: in
2
> 3	exllamav2.model	ExLlamaV2
4	exllamav2.cache	ExLlamaV2CacheBase
/usr/local/lib/python3.10/dist-packages/exllamav2/model.py:	in <r c ;1e >
15	import math
> 16
Я починиль, пользуйтесь! :)
Спасибо большое, вы великолепны! :*
Дружище, опять та же самая проблема возникла(
Похоже что Угабуга 3 марта опять что-то наворотила в обновлении. Откатил до версии от 25 февраля, работает.
Спасибо тебе! Ты спас мой вечер сегодня х)
Оно опять выдаёт ошибку во втором блоке(((
Обновил, должно заработать!
Вы кстати новые модели в колабе не катаете? Неплохо бы список обновить, я давно не занимался локалками и не в курсе что сейчас ТОП.
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
9 марта 2023 года на мероприятии "Al in Focus - Digital Kickoff" в Германии сотрудники Microsoft Germany представили Широкие Языковые Модели (LLM) и их предложение Azure-OpenAI. На мероприятии было озвучено, что на следующей неделе выйдет GPT-4, который будет содержать новые мультимодальные модели,
подробнее»

нейронные сети GPT-4 Microsoft,Майкрософт OpenAI ChatGPT

9 марта 2023 года на мероприятии "Al in Focus - Digital Kickoff" в Германии сотрудники Microsoft Germany представили Широкие Языковые Модели (LLM) и их предложение Azure-OpenAI. На мероприятии было озвучено, что на следующей неделе выйдет GPT-4, который будет содержать новые мультимодальные модели,
GPT4AII Datalake 6/8/2023
.1 ИГО? *-л^№тяаятт\ршшшвянгж. мш
O^^IÜChrome i&^IUEdge
®	® Л‘ 0	0 I ^ gpt-3.5-turbo-16k-0613 I ©
Ctrl + Enter mm, / Шё-bè, :
<¡> О
® ЖЮИ*
подробнее»

нейронные сети ChatGPT вайфу длиннопост

*-л^№тяаятт\ршшшвянгж. мш O^^IÜChrome i&^IUEdge ® ® Л‘ 0 0 I ^ gpt-3.5-turbo-16k-0613 I © Ctrl + Enter mm, / Шё-bè, : <¡> О ® ЖЮИ*
SillyTavern + Text generation webui + Google translate + дополнения + генерация голоса в Silero
подробнее»

нейронные сети ChatGPT gpt локальные языковые модели llm google colab вайфу SillyTavern Видио

SillyTavern + Text generation webui + Google translate + дополнения + генерация голоса в Silero
Welcome to SillyTavern!
•	Read the Official Documentation.
•	Type /help in chat for commands and macros.
•	Join the Discord server for info and announcements.
SillyTavern is aimed at advanced users.
If you're new to this, enable the simplified UI mode below.
■ Enable simple UI mode
Before yo
подробнее»

нейронные сети ChatGPT gpt локальные языковые модели google colab длиннопост SillyTavern LM вайфу

Welcome to SillyTavern! • Read the Official Documentation. • Type /help in chat for commands and macros. • Join the Discord server for info and announcements. SillyTavern is aimed at advanced users. If you're new to this, enable the simplified UI mode below. ■ Enable simple UI mode Before yo