Разработчики «ВКонтакте» создали видеобота, отвечающего на сообщения фразами Сергея Дружко
В рамках тестирования алгоритма, который помогает группировать посты «ВКонтакте» в ленте пользователей по схожим темам, разработчики соцсети создали бота, который отвечает на сообщения видеороликами с фразами телеведущего Сергея Дружко.Ссылка на статью: https://tjournal.ru/37985-razrabotchiki-vkontakte-sozdali-videobota-otvechaushego-na-soobsheniya-frazami-sergeya-druzhko
Ссылка на бота: https://vk.com/im?sel=-133661781
Развлекайтесь=)
Еще на тему
В конце концов - мой ботофреймворк сам не допишется, а я хочу сегодня дописать кой-какую функциональность.
"для машинного анализа текста используется так называемые векторы — массивы чисел, передающие семантический смысл слов и предложений. Каждому слову находится соответствующий вектор. Как это происходит: берётся много текстов, на основе которых мы обучаем простую нейронную сеть, которая по слову предсказывает соседние слова. "
А вот что дальше делают с векторным представлением - уже не глядел.
это уже тонкости самого кода этого бота
да и что там обьяснять то? про векторы сказали, дальше береться слово или слова пользователя и ищется наболее близкий к ним ответ по базе этими связями, где они указаны как числовые зависимости - типо чем больше число тем точнее ответ
все видосики записали в базу как слова и в ответ на запрос выдергивают самые близко подходящие под ответ, в соответствии с теми самыми векторами
ну типо того, я сам нихя не понял :D
Строго говоря - скорее в обучающей выборке. Ну и в случае применения ИНС - даже несколько хитрее.
Впрочем, я тут прикинул, и понял, что мой исходный вопрос бесмысленный.
Нам же не генерировать новый текст, или что-то подобное, а определять степень "ревалентности" конечного набора классов запросу - в любом случае это или тупое определение ближайшего набора из "обучающей" выборки или какой-то сорт классификатора :-)
Ну а подробности устройства классификатора - в любом случае нет смысла выкладывать на нетехническом ресурсе, да.
"все видосики записали в базу как слова и в ответ на запрос выдергивают самые близко подходящие под ответ, в соответствии с теми самыми векторами"
Можно, конечно, но, если приюзать тупое сравнение с матричным представлением текста - сильно ограниченная система же. Иначе бы после изобретения word2vec классифицировать тексты вообще не было бы проблемой.
з.ы. всё, удаляюсь быдлокодить. И, кажется, я знаю, на что заменю тестового "погодного" бота :-)
"берётся много текстов, на основе которых мы обучаем простую нейронную сеть, которая по слову предсказывает соседние слова"
насчет сильно ограниченной системы - там все же не какой то умный собеседник а тупо видео ответы со схожими словами/темами построенные по выше указанной схеме по их текстам
так что не думаю что там сильно сложно все...
и вообще ты тут явно больше меня понимаешь, чего я объясняю то :D
Так-то даже это - уже это не так просто :-) Ну, если мы планируем построенную на основе этой систему приюзать для чего-то серьёзнее выдачи видео с Сергеем, конечно.
Впрочем, хуй с ними - прочел и точно вижу, что новых идей в свой pynlc я не потырю. Что очень хорошо - уже, блядь, месяц попиливаю одну хрень, но вечно что-нибудь взбредет в голову. Ёбаный стыд, оно давно должно ехать (или разбиться), а я шашечками занят.