Word2vec

Word2Vec: Função de Perda
Paid
Members
Public
A diferença entre os vetores probabilísticos e os vetores-alvo é crucial para que a rede neural possa aprender. Como medir esta diferença? Como funciona o processo de aprendizagem? E como sabemos quando o nosso modelo está "inteligente" o bastante?

Word2vec: Modelo Skip-Gram
Paid
Members
Public
Podemos fazer os computadores entenderem palavras ao transformá-las em números – ou melhor, vetores. Mas como fazer os computadores entenderem relações entre as palavras? Uma das formas é o Modelo Skip-Gram.

O que é Word2Vec
Paid
Members
Public
Word2Vec é um método de Aprendizado de Máquina para construir um modelo de linguagem baseado em ideias de Aprendizado Profundo. No entanto, a rede neural usada aqui é um tanto superficial (tem apenas uma camada escondida).

Word2vec: Loss Function
Paid
Members
Public
The difference between probabilistic output vectors and target vectors is crucial for the network to learn. How can you measure this difference? What does the learning process look like? How do we indicate when our model is smart enough?

Word2vec w pigułce
Paid
Members
Public
Word2vec to metoda uczenia maszynowego mająca na celu stworzenie modelu językowego opartego na idei głębokiego uczenia (Deep Learning), jednakże sieć neuronowa wykorzystywana w tym przypadku jest stosunkowo płytka (w jej skład wchodzi zaledwie jedna warstwa ukryta).

Word2vec: The Skip-Gram Model
Paid
Members
Public
People understand words with ease (usually). It's a bit harder for computers, but we can represent words with numbers to make them comprehensive. Not just any numbers, but vectors. Surprisingly, it's a common language for us, and that can lead to quite impressive things.

Word2vec Explained
Paid
Members
Public
Word2Vec is a Machine Learning method of building a language model based on Deep Learning ideas; however, a neural network that is used here is rather shallow (consists of only one hidden layer).