<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hans-CN">
	<id>https://www.bigphysics.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Irishere</id>
	<title>Big Physics - 用户贡献 [zh-cn]</title>
	<link rel="self" type="application/atom+xml" href="https://www.bigphysics.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Irishere"/>
	<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php/%E7%89%B9%E6%AE%8A:%E7%94%A8%E6%88%B7%E8%B4%A1%E7%8C%AE/Irishere"/>
	<updated>2026-04-13T19:53:41Z</updated>
	<subtitle>用户贡献</subtitle>
	<generator>MediaWiki 1.35.1</generator>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=3034</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=3034"/>
		<updated>2019-08-16T14:53:01Z</updated>

		<summary type="html">&lt;p&gt;Irishere：&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
此外，也有工作将汉字字形以图像形式编码，利用cnn卷积神经网络编码汉字图形特征，以之辅助词向量训练&amp;lt;ref name=&amp;quot;glyph&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。直接一次性替换到底的方式，以及这种类似para2vec的替换方式，以及其他的替换方式的效果，需要都做一下尝试。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。在研究过程中，可以把理据性拆分和纯笔画、偏旁部首拆分比较一下。&lt;br /&gt;
&lt;br /&gt;
补充：&amp;lt;ref name=&amp;quot;WordSeg&amp;quot;/&amp;gt;对深度学习模型是否需要分词信息进行了研究，字词表示学习工作可将其结论作为参考。&lt;br /&gt;
&lt;br /&gt;
==词向量算法==&lt;br /&gt;
在词语表示的研究上，word2vec模型之后，有几个较有代表性的工作：&lt;br /&gt;
&lt;br /&gt;
'''- GloVe''': 利用词语共现矩阵学习词表示。[https://nlp.stanford.edu/projects/glove/ 链接]&lt;br /&gt;
&lt;br /&gt;
'''- fasttext''': 以训练分类标签为目标，产生词向量的副产物，并集成了subword信息。[https://github.com/facebookresearch/fastText 链接]&lt;br /&gt;
&lt;br /&gt;
'''- ELMo''': 基于双向语言模型（采用LSTM模型）学习contextualized word embedding，真正意义上实现了一词多表示。[https://allennlp.org/elmo 链接]&lt;br /&gt;
&lt;br /&gt;
'''- BERT''': 基于双向语言模型（采用深层Transformer模型），将其隐层表示取出，可以得到更高效的contextualized embedding表示。[https://github.com/google-research/bert 链接]&lt;br /&gt;
&lt;br /&gt;
除了和word2vec算法结合，也可以考虑把汉字拆分和这些算法结合。&lt;br /&gt;
&lt;br /&gt;
==已开展工作==&lt;br /&gt;
梁诗尘等《基于分布式表示的汉字部件表义能力测量与应用》，已投稿到会议CCL 2019，并获接收。&lt;br /&gt;
&lt;br /&gt;
该文从汉字部件入手，提出了融合部件的字词表示模型，模型在向量内部评测任务获得了一定提升，在汉字理据性测量任务上也与人工打分的相关 系数呈现显著相关。基于该模型，进一步提出了部件表义能力的计算方法，对汉字部件的表义能力做了整体评估， 结合部件的构字能力建立了现代汉字部件的等级体系。测量结果显示，现代汉字部件具有一定表义能力，但整体而言表义能力偏低。最后，将测量结果应用对对外汉语教学中，确立了适用于部件教学法的部件范围，并提出了对应的汉字教学顺序方案。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu, Xun Jian, Hao Xin, Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027 https://github.com/HKUST-KnowComp/JWE&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;WordSeg&amp;quot;&amp;gt;Meng, Yuxian et al. Is Word Segmentation Necessary for Deep Learning of Chinese Representations?, to appear on ACL 2019. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2883</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2883"/>
		<updated>2019-05-17T07:48:20Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 进一步研究 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
此外，也有工作将汉字字形以图像形式编码，利用cnn卷积神经网络编码汉字图形特征，以之辅助词向量训练&amp;lt;ref name=&amp;quot;glyph&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
补充：&amp;lt;ref name=&amp;quot;WordSeg&amp;quot;/&amp;gt;对深度学习模型是否需要分词信息进行了研究，字词表示学习工作可将其结论作为参考。&lt;br /&gt;
&lt;br /&gt;
==词向量算法==&lt;br /&gt;
在词语表示的研究上，word2vec模型之后，有几个较有代表性的工作：&lt;br /&gt;
&lt;br /&gt;
'''- GloVe''': 利用词语共现矩阵学习词表示。[https://nlp.stanford.edu/projects/glove/ 链接]&lt;br /&gt;
&lt;br /&gt;
'''- fasttext''': 以训练分类标签为目标，产生词向量的副产物，并集成了subword信息。[https://github.com/facebookresearch/fastText 链接]&lt;br /&gt;
&lt;br /&gt;
'''- ELMo''': 基于双向语言模型（采用LSTM模型）学习contextualized word embedding，真正意义上实现了一词多表示。[https://allennlp.org/elmo 链接]&lt;br /&gt;
&lt;br /&gt;
'''- BERT''': 基于双向语言模型（采用深层Transformer模型），将其隐层表示取出，可以得到更高效的contextualized embedding表示。[https://github.com/google-research/bert 链接]&lt;br /&gt;
&lt;br /&gt;
除了和word2vec算法结合，也可以考虑把汉字拆分和这些算法结合。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu, Xun Jian, Hao Xin, Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;WordSeg&amp;quot;&amp;gt;Meng, Yuxian et al. Is Word Segmentation Necessary for Deep Learning of Chinese Representations?, to appear on ACL 2019. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2882</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2882"/>
		<updated>2019-05-17T05:07:58Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 参考文献 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
此外，也有工作将汉字字形以图像形式编码，利用cnn卷积神经网络编码汉字图形特征，以之辅助词向量训练&amp;lt;ref name=&amp;quot;glyph&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==词向量算法==&lt;br /&gt;
在词语表示的研究上，word2vec模型之后，有几个较有代表性的工作：&lt;br /&gt;
&lt;br /&gt;
'''- GloVe''': 利用词语共现矩阵学习词表示。[https://nlp.stanford.edu/projects/glove/ 链接]&lt;br /&gt;
&lt;br /&gt;
'''- fasttext''': 以训练分类标签为目标，产生词向量的副产物，并集成了subword信息。[https://github.com/facebookresearch/fastText 链接]&lt;br /&gt;
&lt;br /&gt;
'''- ELMo''': 基于双向语言模型（采用LSTM模型）学习contextualized word embedding，真正意义上实现了一词多表示。[https://allennlp.org/elmo 链接]&lt;br /&gt;
&lt;br /&gt;
'''- BERT''': 基于双向语言模型（采用深层Transformer模型），将其隐层表示取出，可以得到更高效的contextualized embedding表示。[https://github.com/google-research/bert 链接]&lt;br /&gt;
&lt;br /&gt;
除了和word2vec算法结合，也可以考虑把汉字拆分和这些算法结合。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu, Xun Jian, Hao Xin, Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;WordSeg&amp;quot;&amp;gt;Meng, Yuxian et al. Is Word Segmentation Necessary for Deep Learning of Chinese Representations?, to appear on ACL 2019. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2881</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2881"/>
		<updated>2019-05-17T05:07:36Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 参考文献 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
此外，也有工作将汉字字形以图像形式编码，利用cnn卷积神经网络编码汉字图形特征，以之辅助词向量训练&amp;lt;ref name=&amp;quot;glyph&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==词向量算法==&lt;br /&gt;
在词语表示的研究上，word2vec模型之后，有几个较有代表性的工作：&lt;br /&gt;
&lt;br /&gt;
'''- GloVe''': 利用词语共现矩阵学习词表示。[https://nlp.stanford.edu/projects/glove/ 链接]&lt;br /&gt;
&lt;br /&gt;
'''- fasttext''': 以训练分类标签为目标，产生词向量的副产物，并集成了subword信息。[https://github.com/facebookresearch/fastText 链接]&lt;br /&gt;
&lt;br /&gt;
'''- ELMo''': 基于双向语言模型（采用LSTM模型）学习contextualized word embedding，真正意义上实现了一词多表示。[https://allennlp.org/elmo 链接]&lt;br /&gt;
&lt;br /&gt;
'''- BERT''': 基于双向语言模型（采用深层Transformer模型），将其隐层表示取出，可以得到更高效的contextualized embedding表示。[https://github.com/google-research/bert 链接]&lt;br /&gt;
&lt;br /&gt;
除了和word2vec算法结合，也可以考虑把汉字拆分和这些算法结合。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu, Xun Jian, Hao Xin, Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;WordSeg&amp;quot;&amp;gt;Meng, Yuxian et al. Is Word Segmentation Necessary for Deep Learning of Chinese Representations?, to appear on ACL 2019. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2726</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2726"/>
		<updated>2019-03-27T07:26:51Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 扩展研究 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
此外，也有工作将汉字字形以图像形式编码，利用cnn卷积神经网络编码汉字图形特征，以之辅助词向量训练&amp;lt;ref name=&amp;quot;glyph&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==扩展研究==&lt;br /&gt;
在词语表示的研究上，word2vec模型之后，有几个较有代表性的工作：&lt;br /&gt;
&lt;br /&gt;
'''- GloVe''': 利用词语共现矩阵学习词表示。[https://nlp.stanford.edu/projects/glove/ 链接]&lt;br /&gt;
&lt;br /&gt;
'''- fasttext''': 以训练分类标签为目标，产生词向量的副产物，并集成了subword信息。[https://github.com/facebookresearch/fastText 链接]&lt;br /&gt;
&lt;br /&gt;
'''- ELMo''': 基于双向语言模型（采用LSTM模型）学习contextualized word embedding，真正意义上实现了一词多表示。[https://allennlp.org/elmo 链接]&lt;br /&gt;
&lt;br /&gt;
'''- BERT''': 基于双向语言模型（采用深层Transformer模型），将其隐层表示取出，可以得到更高效的contextualized embedding表示。[https://github.com/google-research/bert 链接]&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu, Xun Jian, Hao Xin, Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2725</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2725"/>
		<updated>2019-03-27T07:26:19Z</updated>

		<summary type="html">&lt;p&gt;Irishere：&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
此外，也有工作将汉字字形以图像形式编码，利用cnn卷积神经网络编码汉字图形特征，以之辅助词向量训练&amp;lt;ref name=&amp;quot;glyph&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==扩展研究==&lt;br /&gt;
在词语表示的研究上，word2vec模型之后，有几个较有代表性的工作：&lt;br /&gt;
- GloVe: 利用词语共现矩阵学习词表示。[https://nlp.stanford.edu/projects/glove/ 链接]&lt;br /&gt;
- fasttext: 以训练分类标签为目标，产生词向量的副产物，并集成了subword信息。[https://github.com/facebookresearch/fastText 链接]&lt;br /&gt;
- ELMo: 基于双向语言模型（采用LSTM模型）学习contextualized word embedding，真正意义上实现了一词多表示。[https://allennlp.org/elmo 链接]&lt;br /&gt;
- BERT: 基于双向语言模型（采用深层Transformer模型），将其隐层表示取出，可以得到更高效的contextualized embedding表示。[https://github.com/google-research/bert 链接]&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu, Xun Jian, Hao Xin, Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%B0%A4%E5%85%B6%E6%98%AF%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86%E5%AD%A6%E4%B9%A0%E6%9D%90%E6%96%99&amp;diff=2697</id>
		<title>分类:机器学习尤其是自然语言处理学习材料</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%B0%A4%E5%85%B6%E6%98%AF%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86%E5%AD%A6%E4%B9%A0%E6%9D%90%E6%96%99&amp;diff=2697"/>
		<updated>2019-03-23T13:05:40Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 书 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
&lt;br /&gt;
这里整理了机器学习，尤其是其中的自然语言处理，的学习材料。&lt;br /&gt;
&lt;br /&gt;
==课程==&lt;br /&gt;
# Chris Manning和Richard Socher的《Natural Language Processing with Deep Learning》课程，Stanford CS224N，http://onlinehub.stanford.edu/cs224&lt;br /&gt;
# YSDA Natural Language Processing course, 视频、作业程序 https://github.com/yandexdataschool/nlp_course&lt;br /&gt;
# Andrew Ng和Kian Katanforoosh的 《Deep Learning》课程，Stanford CS230， http://onlinehub.stanford.edu/cs230&lt;br /&gt;
# Andrew Ng的系列课程，https://study.163.com/my#/smarts&lt;br /&gt;
&lt;br /&gt;
==书==&lt;br /&gt;
# Ian Goodfellow and Yoshua Bengio and Aaron Courville 的《Deep Learning》教材, http://www.deeplearningbook.org，　中文版: https://github.com/exacity/deeplearningbook-chinese&lt;br /&gt;
# Yoav Goldberg 《Neural Network Methods for Natural Language Processing》教材, [https://github.com/shucunt/book/blob/master/2017%20-%20Neural%20Network%20Methods%20for%20Natural%20Language%20Processing.pdf 链接]&lt;br /&gt;
# Dan Jurafsky and James H. Martin 《Speech and Language Processing》 (3rd ed.) 教材, [https://web.stanford.edu/~jurafsky/slp3/ 链接]&lt;br /&gt;
&lt;br /&gt;
==原始论文==&lt;br /&gt;
# T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &lt;br /&gt;
# T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119.&lt;br /&gt;
&lt;br /&gt;
==科普和讲解==&lt;br /&gt;
# 吴军　《数学之美》&lt;br /&gt;
# 刘知远　《大数据智能》&lt;br /&gt;
# jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317&lt;br /&gt;
&lt;br /&gt;
==平台和素材==&lt;br /&gt;
# 平台：http://hpc.systemsci.org （需要hpc.systemsci.org的linux用户账号，不对公众开放，仅供研究团队内部使用）&lt;br /&gt;
# 平台搭建：anaconda和jupyter　(https://www.anaconda.com/) , pytorch（https://pytorch.org/tutorials/）&lt;br /&gt;
# 素材：&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%B0%A4%E5%85%B6%E6%98%AF%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86%E5%AD%A6%E4%B9%A0%E6%9D%90%E6%96%99&amp;diff=2696</id>
		<title>分类:机器学习尤其是自然语言处理学习材料</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E5%B0%A4%E5%85%B6%E6%98%AF%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86%E5%AD%A6%E4%B9%A0%E6%9D%90%E6%96%99&amp;diff=2696"/>
		<updated>2019-03-23T13:01:20Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 书 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
&lt;br /&gt;
这里整理了机器学习，尤其是其中的自然语言处理，的学习材料。&lt;br /&gt;
&lt;br /&gt;
==课程==&lt;br /&gt;
# Chris Manning和Richard Socher的《Natural Language Processing with Deep Learning》课程，Stanford CS224N，http://onlinehub.stanford.edu/cs224&lt;br /&gt;
# YSDA Natural Language Processing course, 视频、作业程序 https://github.com/yandexdataschool/nlp_course&lt;br /&gt;
# Andrew Ng和Kian Katanforoosh的 《Deep Learning》课程，Stanford CS230， http://onlinehub.stanford.edu/cs230&lt;br /&gt;
# Andrew Ng的系列课程，https://study.163.com/my#/smarts&lt;br /&gt;
&lt;br /&gt;
==书==&lt;br /&gt;
# Ian Goodfellow and Yoshua Bengio and Aaron Courville 的《Deep Learning》教材, http://www.deeplearningbook.org，　中文版: https://github.com/exacity/deeplearningbook-chinese&lt;br /&gt;
# Yoav Goldberg 的《Neural Network Methods for Natural Language Processing》教材, [https://github.com/shucunt/book/blob/master/2017%20-%20Neural%20Network%20Methods%20for%20Natural%20Language%20Processing.pdf 链接]&lt;br /&gt;
&lt;br /&gt;
==原始论文==&lt;br /&gt;
# T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &lt;br /&gt;
# T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119.&lt;br /&gt;
&lt;br /&gt;
==科普和讲解==&lt;br /&gt;
# 吴军　《数学之美》&lt;br /&gt;
# 刘知远　《大数据智能》&lt;br /&gt;
# jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317&lt;br /&gt;
&lt;br /&gt;
==平台和素材==&lt;br /&gt;
# 平台：http://hpc.systemsci.org （需要hpc.systemsci.org的linux用户账号，不对公众开放，仅供研究团队内部使用）&lt;br /&gt;
# 平台搭建：anaconda和jupyter　(https://www.anaconda.com/) , pytorch（https://pytorch.org/tutorials/）&lt;br /&gt;
# 素材：&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2595</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2595"/>
		<updated>2019-03-16T05:24:17Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 背景 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
此外，也有工作将汉字字形以图像形式编码，利用cnn卷积神经网络编码汉字图形特征，以之辅助词向量训练&amp;lt;ref name=&amp;quot;glyph&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2594</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2594"/>
		<updated>2019-03-16T05:23:59Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 背景 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
此外，也有工作将汉字字形以图像形式编码，利用cnn 卷积神经网络编码汉字图形特征，以之辅助词向量训练&amp;lt;ref name=&amp;quot;glyph&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2593</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2593"/>
		<updated>2019-03-16T05:22:39Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 背景 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram(subword)为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2592</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2592"/>
		<updated>2019-03-16T05:22:14Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 背景 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword1&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;subword2&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2591</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2591"/>
		<updated>2019-03-16T05:21:55Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 参考文献 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword1&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword2&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2590</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2590"/>
		<updated>2019-03-16T05:20:56Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 参考文献 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Subword&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146. http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2589</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2589"/>
		<updated>2019-03-16T05:19:13Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 参考文献 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Subword&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146., http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2588</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2588"/>
		<updated>2019-03-16T05:18:45Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 参考文献 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Subword&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146., http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From&lt;br /&gt;
Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2587</id>
		<title>分类:汉字结构地图和汉语字词的矢量表示</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%B1%89%E5%AD%97%E7%BB%93%E6%9E%84%E5%9C%B0%E5%9B%BE%E5%92%8C%E6%B1%89%E8%AF%AD%E5%AD%97%E8%AF%8D%E7%9A%84%E7%9F%A2%E9%87%8F%E8%A1%A8%E7%A4%BA&amp;diff=2587"/>
		<updated>2019-03-16T05:18:17Z</updated>

		<summary type="html">&lt;p&gt;Irishere：/* 参考文献 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:机器学习]]&lt;br /&gt;
[[分类:吴金闪]]&lt;br /&gt;
[[分类:汉字网络]]&lt;br /&gt;
[[分类:语言研究]]&lt;br /&gt;
[[分类:系统科学和网络科学]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==背景==&lt;br /&gt;
把语言的词汇表示成为意义上有联系的矢量形式，而不是简单的one-hot矢量（一个词代表空间的一个维度）。是大量后续自然语言处理的基础，无论从概念上还是从矢量空间的维数这个技术难度上。&lt;br /&gt;
&lt;br /&gt;
Word2vec算法[https://en.wikipedia.org/wiki/Word2vec word2vec]&amp;lt;ref name=&amp;quot;word2vec&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;/&amp;gt;，基于一个字上下文经常在一起出现的其他字的频率，可以用来发现词之间的语义联系，并用于解决自然语言处理的问题。在语音语言上，词的内部结构通常没有丰富的意义，基本上就是表示一个读音。但是，汉字是特殊的，其内部结构很多时候表示了含义上的联系。例如，妈、妹、姐、姑、奶都有“女”字旁，而且它们这几个字确实和“女”有联系。这个工作&amp;lt;ref name=&amp;quot;Cao&amp;quot;/&amp;gt;的研究者就注意到了这个联系，从而把汉字打开用更加基本的结构笔画来发现汉字的含以上的联系。&lt;br /&gt;
&lt;br /&gt;
在英语词汇的适量表示上，也有类似的拆分或者说直接粗暴的以n-gram为表示对象的word2vec研究&amp;lt;ref name=&amp;quot;subword&amp;quot;/&amp;gt;。&lt;br /&gt;
&lt;br /&gt;
这是这个工作的简短介绍&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;/&amp;gt;。实际上，这个工作在上面的思想上，走的更粗暴和极端——直接用笔画（被作者分成了五种）的n-gram来代表汉字——然后训练这些n-gram的矢量表示。当然，这个时候，真实的汉字的表示也就训练出来了——毕竟真实汉字不过就是这些笔画n-grams里面的一个。&lt;br /&gt;
&lt;br /&gt;
==进一步研究==&lt;br /&gt;
进一步，自然可以来看，如果我们不按照笔画，而是按照我们已经建成的[[:分类:汉字网络|汉字网络]]的拆分方式——把一个字拆分成为直接联系的下一层结构——来训练，效果会怎样？&lt;br /&gt;
&lt;br /&gt;
例如，首先，我们把原始的文本做一次转化，转化成每一个汉字都是下一级的子结构，例如照-&amp;gt;火昭，但不是照-&amp;gt;火口日刀，当然如果出现昭则做昭-&amp;gt;日昭的替换。接着，在替换完成的文本上做以字为单位（或者以n-gram为单位）的word2vec完成矢量化。如果是以字为单位的，则文本中出现过的处于结构上最高层的字没有矢量表示（已经被拆掉了，在替换之后的文本中没有了），因此，还得想办法再一次得到这些最高层字的矢量（例如和para2vec一样保留整个para，也就是上层字和拆分以后的字都放到语料里面）。这个可以用简单矢量加法得到，或者用再一次运行针对这些字（相当于替换后文本中的词）的局部的word2vec。具体可以参考&amp;lt;ref name=&amp;quot;components&amp;quot;/&amp;gt;&amp;lt;ref name=&amp;quot;characters&amp;quot;/&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
另外，我们的拆分比纯粹笔画拆分强的地方在于保留含义（和读音）联系；我们的拆分比部首或者部件拆分强的地方在于我们是意义和字源性拆分，还有理据性分数（专家打分和word2vec相似性两种理据性）。有了理据性分数，可以考虑仅仅拆分一部分字。有了字源性拆分，可以拆分到实际有联系的部件字上面去。&lt;br /&gt;
&lt;br /&gt;
==参考文献==&lt;br /&gt;
&amp;lt;references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Cao&amp;quot;&amp;gt;Shaosheng Cao, Wei Lu, Jun Zhou and Xiaolong Li, cw2vec: Learning Chinese Word Embeddings with Stroke n-gram Information, In Proceedings of AAAI 2018, http://www.statnlp.org/wp-content/uploads/papers/2018/cw2vec/cw2vec.pdf &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;jaylin008&amp;quot;&amp;gt;jaylin008, word2vec与cw2vec的数学原理, https://www.jianshu.com/p/f258d0c5c317 &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec&amp;quot;&amp;gt;T Mikolov, K Chen, G Corrado, J Dean, Efficient estimation of word representations in vector space, arXiv preprint arXiv:1301.3781. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;word2vec2&amp;quot;&amp;gt;T Mikolov, I Sutskever, K Chen, GS Corrado, J Dean, Distributed representations of words and phrases and their compositionality, Advances in neural information processing systems, 3111-3119. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;components&amp;quot;&amp;gt;Jinxing Yu Xun Jian Hao Xin Yangqiu Song, Joint Embeddings of Chinese Words, Characters, and Fine-grained Subcharacter Components. EMNLP. http://www.aclweb.org/anthology/D17-1027&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;characters&amp;quot;&amp;gt;Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, Huanbo Luan, Joint Learning of Character and Word Embeddings. IJCAI. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;subword&amp;quot;&amp;gt;Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov, Enriching Word Vectors with Subword Information. &amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;/references&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;Subword&amp;quot;&amp;gt;Bojanowski, Piotr, et al. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics 5 (2017): 135-146., http://aclweb.org/anthology/Q17-1010&amp;lt;/ref&amp;gt;&lt;br /&gt;
&amp;lt;ref name=&amp;quot;glyph&amp;quot;&amp;gt;Su, Tzu-ray, and Hung-yi Lee. Learning Chinese Word Representations From&lt;br /&gt;
Glyphs Of Characters. In Proceedings of EMNLP 2017. https://www.aclweb.org/anthology/D17-1025&amp;lt;/ref&amp;gt;&lt;/div&gt;</summary>
		<author><name>Irishere</name></author>
	</entry>
</feed>