LSTM, входные данные - векторизированный через word2vec текст, пытаюсь научить машину понимать о чем идет очень в тексте, путем соотношения тексту определенного класса события
Классификатор, значит?
Я тут недавно накидывал свёрточную (да-да, именно её. Только свёртка одномерная и охватывающая весь вектор) для этих целей. Точнее как - подглядел готовую реализацию, и склепал чуть более удобную обёртку к ней.
Так что был бы рад увидеть сравнение точности классификации.
Если вдруг рискнёшь - имей в виду, что установка у меня работает через задницу, а фиксить пока было влом. Так что прсто кинь pynlc в site-packages ("общее" или virtualenv-а)
Но почему ты думаешь, что всё должны читать простые гуманитарии? :-)
Если вдруг интересно - объясняю.
LSTM - один из типов нейронной сети, которые можно использовать для обработки последовательностей чисел/векторов.
word2vec - одна из технологий для получения векторного представления слов. Читай - подменяем каждой слово, допустим, сотней чисел. Киллерфича в том, что эта сотня для схожих по употреблению (читай - упоминаемых в похожих контекстах) слов они с высокой вероятностью будут близки. Т.е. условное length(vector("car") - vector("bus"))
В «а ф JoyReactor - смешные i X
ЕЗ Новая вкладка
О joyreactor.cc/i
ar* adventure time фэндомы Finn Marceline Jake zebazkastha
at art,adventure time,время приключений,фэндомы,Finn,Финн - парнишка, Финн, Финн парнишка,Marceline,Марселин -Королева Вампиров, Марселин^аке,Джейк - Пес, /PKetiK,zebazk
Я тут недавно накидывал свёрточную (да-да, именно её. Только свёртка одномерная и охватывающая весь вектор) для этих целей. Точнее как - подглядел готовую реализацию, и склепал чуть более удобную обёртку к ней.
Так что был бы рад увидеть сравнение точности классификации.
http://bitbucket.org/alex43210/pynlc
Вот как мне, простому гуманитарию, читать это?
Если вдруг интересно - объясняю.
LSTM - один из типов нейронной сети, которые можно использовать для обработки последовательностей чисел/векторов.
word2vec - одна из технологий для получения векторного представления слов. Читай - подменяем каждой слово, допустим, сотней чисел. Киллерфича в том, что эта сотня для схожих по употреблению (читай - упоминаемых в похожих контекстах) слов они с высокой вероятностью будут близки. Т.е. условное length(vector("car") - vector("bus"))
В общем, length(vector("car") - vector("bus")) < length(vector("car") - vector("water"))
Как-то так