<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hans-CN">
	<id>https://www.bigphysics.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Qiaoxizi</id>
	<title>Big Physics - 用户贡献 [zh-cn]</title>
	<link rel="self" type="application/atom+xml" href="https://www.bigphysics.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Qiaoxizi"/>
	<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php/%E7%89%B9%E6%AE%8A:%E7%94%A8%E6%88%B7%E8%B4%A1%E7%8C%AE/Qiaoxizi"/>
	<updated>2026-04-17T11:06:07Z</updated>
	<subtitle>用户贡献</subtitle>
	<generator>MediaWiki 1.35.1</generator>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E5%B7%A5%E4%BD%9C%E8%BF%9B%E5%B1%95%E4%B9%8B%E6%A8%B5%E6%BA%AA%E5%AD%90&amp;diff=5875</id>
		<title>分类:工作进展之樵溪子</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E5%B7%A5%E4%BD%9C%E8%BF%9B%E5%B1%95%E4%B9%8B%E6%A8%B5%E6%BA%AA%E5%AD%90&amp;diff=5875"/>
		<updated>2021-02-25T13:18:34Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:工作进展板]]&lt;br /&gt;
&lt;br /&gt;
本学期计划：&lt;br /&gt;
&lt;br /&gt;
# 学习内容&lt;br /&gt;
## 学校课程&lt;br /&gt;
## 2019斯坦福CS224n深度学习自然语言处理&lt;br /&gt;
## 阅读《教的更少，学得更多》&lt;br /&gt;
# To do list&lt;br /&gt;
## 感想类论文分类器&lt;br /&gt;
## “智能复杂体系的人机协同演化研究”项目 投票模型拓展&lt;br /&gt;
## 股票缺口课题&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%95%99%E8%82%B2%E7%B3%BB%E7%BB%9F%E7%A7%91%E5%AD%A6%E7%A0%94%E7%A9%B6%E4%B8%AD%E5%BF%83&amp;diff=5557</id>
		<title>分类:教育系统科学研究中心</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:%E6%95%99%E8%82%B2%E7%B3%BB%E7%BB%9F%E7%A7%91%E5%AD%A6%E7%A0%94%E7%A9%B6%E4%B8%AD%E5%BF%83&amp;diff=5557"/>
		<updated>2021-01-13T01:49:46Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 愿景、使命、价值和标语 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[分类:认知和教育中的系统科学]]&lt;br /&gt;
&lt;br /&gt;
[http://iess.bnu.edu.cn 教育系统科学研究中心　Institute of Educational System Science] （中心网站在建设中，这个页面是中心网站的主要内容）&lt;br /&gt;
&lt;br /&gt;
基于“认知和教育中的系统科学”研究的共同兴趣，基于对“帮助老师们教的更好，帮助学生们学得更好”的共同使命，我们成立了'''北京师范大学系统科学学院教育系统科学研究中心'''。这个分类记录中心基本信息和中心的各种活动。&lt;br /&gt;
&lt;br /&gt;
=中心成员=&lt;br /&gt;
北京师范大学汉语文化学院　陈路遥&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　陈晓松&lt;br /&gt;
&lt;br /&gt;
大连理工大学科学学与科技管理研究所&amp;amp;WISE实验室 陈悦 &lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　狄增如&lt;br /&gt;
&lt;br /&gt;
北京师范大学汉语文化学院　丁崇明&lt;br /&gt;
&lt;br /&gt;
国家信息中心　杜链&lt;br /&gt;
&lt;br /&gt;
北京师范大学汉语文化学院　冯丽萍&lt;br /&gt;
&lt;br /&gt;
北京师范大学中文信息处理研究所　胡韧奋&lt;br /&gt;
&lt;br /&gt;
北京航空航天大学可靠性与系统工程学院　李大庆&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　李克强&lt;br /&gt;
&lt;br /&gt;
北京师范大学教育学部　李崧&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　刘艳&lt;br /&gt;
&lt;br /&gt;
云南西双版纳生物医学研究院　钱卓&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　斯白露&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　王大辉&lt;br /&gt;
&lt;br /&gt;
北京师范大学国家安全与发展战略研究院 汪明&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　吴金闪&lt;br /&gt;
&lt;br /&gt;
天津师范大学心理学部　吴俊杰&lt;br /&gt;
&lt;br /&gt;
浙江工商大学经济学院　许彬&lt;br /&gt;
&lt;br /&gt;
北京师范大学汉语文化学院　徐彩华&lt;br /&gt;
&lt;br /&gt;
北京师范大学中文信息处理研究所　杨丽姣&lt;br /&gt;
&lt;br /&gt;
中国科学院文献情报中心　杨立英&lt;br /&gt;
&lt;br /&gt;
北京交通大学交通运输学院　闫小勇&lt;br /&gt;
&lt;br /&gt;
北京师范大学化学学院　尹冬冬&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　曾安&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　张江&lt;br /&gt;
&lt;br /&gt;
武汉大学信息管理学院　张琳&lt;br /&gt;
&lt;br /&gt;
北京师范大学教育学部　赵国庆&lt;br /&gt;
&lt;br /&gt;
北京师范大学教育学部　郑丽芬&lt;br /&gt;
&lt;br /&gt;
北京师范大学系统科学学院　周亚&lt;br /&gt;
&lt;br /&gt;
北京师范大学教育学部　朱志勇&lt;br /&gt;
&lt;br /&gt;
宁德时代新能源科技有限公司　黄思应（外联）&lt;br /&gt;
&lt;br /&gt;
北京都云科技有限公司　葛毅（中心联席主任，负责外联团队）&lt;br /&gt;
&lt;br /&gt;
曲速未来人工智能技术(广州)有限公司  侯欣杰（外联）&lt;br /&gt;
&lt;br /&gt;
北京我知科技有限公司　李峻 （外联）&lt;br /&gt;
&lt;br /&gt;
北京快当图文制作有限公司 马海明（外联）&lt;br /&gt;
&lt;br /&gt;
智象爱科（北京）信息技术有限公司　王沫（外联）&lt;br /&gt;
&lt;br /&gt;
浙江有进步信息科技有限公司　魏雷（外联）&lt;br /&gt;
&lt;br /&gt;
成都正载教育科技有限公司  姚敏&lt;br /&gt;
&lt;br /&gt;
北京读书人网络科技有限公司　张鹿（外联）&lt;br /&gt;
&lt;br /&gt;
Charles (Kip) Ault, Lewis &amp;amp; Clark Graduate School&lt;br /&gt;
&lt;br /&gt;
法国东方语言文化学院 白乐桑（Joël Bellassen）&lt;br /&gt;
&lt;br /&gt;
Michael Brody, Montana State University&lt;br /&gt;
&lt;br /&gt;
Alberto Cañas, the Institute for Human and Machine Cognition&lt;br /&gt;
&lt;br /&gt;
Simone Conceição, University of Wisconsin-Milwaukee&lt;br /&gt;
&lt;br /&gt;
Joel Mintzes, California State University&lt;br /&gt;
&lt;br /&gt;
Joseph Novak, Cornell University&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=愿景、使命、价值和标语=&lt;br /&gt;
愿景（Vision）&lt;br /&gt;
&lt;br /&gt;
帮助老师教得更好，帮助学生学得更好。&lt;br /&gt;
&lt;br /&gt;
To help teachers/learners to teach/learn better.&lt;br /&gt;
&lt;br /&gt;
使命（Mission）&lt;br /&gt;
&lt;br /&gt;
推动深层教和学，经得起检验的教和学，促进知识的创造和创造性的使用。&lt;br /&gt;
&lt;br /&gt;
To devolop experimentally validated deep teaching and learning, cultivate creators and creative user of knowledge.&lt;br /&gt;
&lt;br /&gt;
价值（Value）&lt;br /&gt;
&lt;br /&gt;
系统——从孤立到有联系，从直接联系到间接联系，上下左右贯通；科学——问题和数据驱动，实验检验。&lt;br /&gt;
&lt;br /&gt;
System: connecting the isolated, seeing through connections; Science: conducting problem/data-driven researches to describe the world with and experimentally validated models and concepts.&lt;br /&gt;
&lt;br /&gt;
标语（Slogan）&lt;br /&gt;
&lt;br /&gt;
系联起来，我们让世界，尤其是教育，不一样。&lt;br /&gt;
&lt;br /&gt;
Connected, we are making a difference, especially to education.&lt;br /&gt;
&lt;br /&gt;
核心产品或者说方法（Core Product or Core Method）&lt;br /&gt;
&lt;br /&gt;
人类知识高速公路上的以高层知识生成器为目标的理解型教和学。这种教和学的方法的优势：越学需要记住的东西越少越简单；学习和研究创造之间无缝结合；学习者可以学成自己的四不像。&lt;br /&gt;
&lt;br /&gt;
Meaningful learning for advanced knowledge generator over the network of human knowledge highway, which has unqie advantages as: the more advanced one learns the simpler it becomes and the less one needs to memorize, seamless connection between learning and creating knowledge, learner's full control over what to learn and what to become.&lt;br /&gt;
&lt;br /&gt;
=定位和特点=&lt;br /&gt;
'''开展深层教和学的研究'''：浅层学习指的是事实性、流程性浅层知识的记忆型学习，其典型活动是信号的接收、记忆、运算、重复性流程的练习；深层学习指的是通过在学科概念和事实性流程性知识之间的相互转化来学习浅层知识和领会学科概念，以及从学科典型思维方式和典型研究对象研究问题来生成学科概念，甚至从超越具体学科的人类一般思维方式和学习方法来生成具体学科的思维方式和概念；跟目前的教育神经科学主要研究的浅层学习不同，我们主要研究深层学习的测量、对进一步学习和创造知识的效果，以及促进深层学习的方法。&lt;br /&gt;
&lt;br /&gt;
'''促进基于数据和基于实验的研究'''：包含教和学行为的数据和脑活动的数据，实验室实验和田野实验相结合。&lt;br /&gt;
&lt;br /&gt;
'''融合多个学科'''：系统科学、知识学科领域（对学科现有知识的理解和学科研究经验）、脑与认知科学，合起来用于教和学以及相适配的教和学的管理的研究。系统科学是其中的粘合剂。&lt;br /&gt;
&lt;br /&gt;
'''问题驱动研究'''和'''开放性研究中心'''：围绕“帮助老师们教得更好，帮助学生们学得更好”的研究问题，无论研究负责人是否中心成员，都欢迎来开展研究和合作&lt;br /&gt;
&lt;br /&gt;
=具体研究和实践项目=&lt;br /&gt;
# 学科知识网络的构建：以概念地图和Wiki词条相结合的形式，反映了学科概念间的、学科概念和学科大图景间的联系，标注好教和学的层次，体现好理解的关键点；习题对应到知识网络上顶点和连边的标注。这部分研究一方面是后续研究的基础，一方面本身就可以帮助到教和学。&lt;br /&gt;
## 汉字（已基本完成，见[http://www.learnm.org 汉字理解型学习]，目前招募汉字本义图片和构字理据性英文解释的制作，招募汉字理据性打分）&lt;br /&gt;
## 英文单词（基本完成）&lt;br /&gt;
## 中小学数学（小学部分基本完成）&lt;br /&gt;
## 中小学物理&lt;br /&gt;
## 中小学语文&lt;br /&gt;
## 中小学历史&lt;br /&gt;
## 中小学地理&lt;br /&gt;
## 中小学信息科学&lt;br /&gt;
## 大学以及以上物理学&lt;br /&gt;
## 系统科学&lt;br /&gt;
## 科学计量学&lt;br /&gt;
# 知识网络相关算法&lt;br /&gt;
## 学科概念地图构建算法的研究（人工、自然语言处理，或者两者结合）&lt;br /&gt;
## 知识网络上学习顺序算法的研究&lt;br /&gt;
## 知识网络上诊断性检测算法的研究&lt;br /&gt;
# 深层教和学的研究：深层教和学的活动和学习效果是否可测量，从脑活动和行为上，和浅层教和学的区别；深层学习是否有助于创造知识解决问题；如何促进深层教和学&lt;br /&gt;
## 深层学习和浅层学习的对比，脑活动、学习成本和效果&lt;br /&gt;
### 被试在回答内在逻辑相同但是和生活经验距离不同的问题的脑活动的对比。旨在发现逻辑决策相比较于经验决策的特异性脑区&lt;br /&gt;
### 不同深浅的知识的学习和运用过程中脑区活动的对比，例如不同层次的类比的脑活动区域对比。旨在发现深层知识深层思维相比较于浅层知识浅层思维的特异性脑区&lt;br /&gt;
### 汉字等各个学科知识在深层和浅层学习过程和应用中（短、中、长期之后）的脑区活动对比，学习效果（迁移能力、问题解决能力）的对比&lt;br /&gt;
## 从知道到会用的距离，也就是知道知识但是不能把这些知识用于解决问题，是否就是教和学的层次的问题&lt;br /&gt;
## 迷思的抑制和解除，是否就是教和学的层次的问题&lt;br /&gt;
## 习惯了深浅层学习的学习者在问题解决能力上的对比：再有了上面的脑区的研究结果，以及学习深浅层测量量表、教学深浅层测量量表、问题解决能力创造力测量量表之后，我们就可以通过脑活动测量、行为实验测量、量表测量来研究学习的深浅层次和问题解决能力之间的关联性&lt;br /&gt;
## 深层教和学的多脑（教师和学生）同步和关联研究&lt;br /&gt;
# 教和学的层次标注和标注体系的研究，数据采集、分类编码和统计分析，量表编制，标注系统的研究（放入课堂活动的视频、音频、文字资料，学科知识地图，自动做出来教学层次的标注；放入习题、学科知识地图，自动做出来习题的层次标注）&lt;br /&gt;
# 教和学的材料的编撰和设计以及实验研究，以教材、教具、玩具等多种形式&lt;br /&gt;
# 和理解型学习相关的社会调查研究&lt;br /&gt;
## “老师的时间上哪里去了”调查研究&lt;br /&gt;
## 小学初中高中大学成绩相关性研究&lt;br /&gt;
## 大学学习到的东西和工作和生活的相关性调查研究&lt;br /&gt;
# 和理解型学习相适配的教师培训、教育管理的研究和实践&lt;br /&gt;
# 软件和系统的开发：&lt;br /&gt;
## 概念地图制作软件（和商业公司合作开发，必须保留基本功能的公益运行，见[http://www.lynkage.cn Lynkage系联]）&lt;br /&gt;
## 基于学科概念地图的课程视频网站、基于检测算法和学习顺序的个性化学习系统（和商业公司合作开发，必须保留基本功能的公益运行）&lt;br /&gt;
## 标注系统的开发（放入课堂活动的视频、音频、文字资料，学科知识地图，自动做出来教学层次的标注；放入习题、学科知识地图，自动做出来习题的层次标注）&lt;br /&gt;
## 招募学生或者商业公司汉字本义图片的制作（北京快当图文制作有限公司）&lt;br /&gt;
## 招募学生或者商业公司构字理据性英文解释的制作&lt;br /&gt;
## 汉字卡片等教具、玩具、艺术品的开发，传播理解型学习，传播汉字汉语&lt;br /&gt;
&lt;br /&gt;
=研究成果（论文、书籍、软件、课程）=&lt;br /&gt;
分为按照日期展示、按照研究方向和项目展示两种形式&lt;br /&gt;
&lt;br /&gt;
=活动预告和纪要=&lt;br /&gt;
# 第一次讨论（2020年11月4日），主题：深层教和学研究的理念、项目和方法，[[:分类:教育系统科学中心第一次活动纪要|纪要]]&lt;br /&gt;
# 第二次讨论（2020年11月27日），主题：中心第一批研究项目研究计划讨论，[[:分类:教育系统科学中心第二次活动纪要|纪要]]&lt;br /&gt;
# 第三次讨论（2020年12月16日），主题：中心第一批研究项目研究计划讨论，[[:分类:教育系统科学中心第三次活动纪要|纪要]]&lt;br /&gt;
# 第四次活动（2021年1月10日），主题：中心成立小会筹备，展示几个项目的预研究成果，[[:分类:教育系统科学中心第四次活动纪要|纪要]]&lt;br /&gt;
# 中心成立活动（2021年1月15日，下午4-6点），[[:分类:教育系统科学中心成立活动纪要|纪要]]&lt;br /&gt;
# 第四次活动（2021年2月1日），主题：中心准备开展的几个项目的研究讨论，[[:分类:教育系统科学中心第五次活动纪要|纪要]]&lt;br /&gt;
&lt;br /&gt;
=中心组织架构=&lt;br /&gt;
&lt;br /&gt;
==中心组织者==&lt;br /&gt;
&lt;br /&gt;
中心联合创始人：吴金闪，陈晓松，周亚，葛毅，狄增如，冯丽萍&lt;br /&gt;
&lt;br /&gt;
中心主任　吴金闪（iess@bnu.edu.cn）&lt;br /&gt;
&lt;br /&gt;
负责中心研究方向的设计&lt;br /&gt;
&lt;br /&gt;
中心联席主任　葛毅（iess.cochair@bnu.edu.cn）&lt;br /&gt;
&lt;br /&gt;
负责中心外联团队，负责中心研究和运行资金募集任务，负责培训活动&lt;br /&gt;
&lt;br /&gt;
中心副主任　周亚（iess@bnu.edu.cn）&lt;br /&gt;
&lt;br /&gt;
负责中心活动组织工作、研究开展进程、资金使用和募集、培训活动等的监督，负责内部制度文档管理&lt;br /&gt;
&lt;br /&gt;
中心秘书　待招募（iess.sec@bnu.edu.cn）&lt;br /&gt;
&lt;br /&gt;
中心制度文档管理、中心知识文档管理、中心活动组织、中心日程管理、中心联系人&lt;br /&gt;
&lt;br /&gt;
==中心学术委员会==&lt;br /&gt;
&lt;br /&gt;
==中心发展战略委员会==&lt;br /&gt;
Advisory Board&lt;br /&gt;
&lt;br /&gt;
北京师范大学　丁崇明&lt;br /&gt;
&lt;br /&gt;
国家信息中心　杜链&lt;br /&gt;
&lt;br /&gt;
北京师范大学　李克强&lt;br /&gt;
&lt;br /&gt;
云南西双版纳生物医学研究院　钱卓&lt;br /&gt;
&lt;br /&gt;
Charles (Kip) Ault, Lewis &amp;amp; Clark Graduate School&lt;br /&gt;
&lt;br /&gt;
法国东方语言文化学院 白乐桑（Joël Bellassen）&lt;br /&gt;
&lt;br /&gt;
Michael Brody, Montana State University&lt;br /&gt;
&lt;br /&gt;
Alberto Cañas, the Institute for Human and Machine Cognition&lt;br /&gt;
&lt;br /&gt;
Simone Conceição, University of Wisconsin-Milwaukee&lt;br /&gt;
&lt;br /&gt;
Joel Mintzes, California State University&lt;br /&gt;
&lt;br /&gt;
Joseph Novak, Cornell University&lt;br /&gt;
&lt;br /&gt;
==中心外联团队==&lt;br /&gt;
北京都云科技有限公司　葛毅（中心联席主任，负责外联团队）&lt;br /&gt;
&lt;br /&gt;
宁德时代新能源科技有限公司　黄思应&lt;br /&gt;
&lt;br /&gt;
曲速未来人工智能技术(广州)有限公司 侯欣杰&lt;br /&gt;
&lt;br /&gt;
北京我知科技有限公司　李峻&lt;br /&gt;
&lt;br /&gt;
北京快当图文制作有限公司 马海明&lt;br /&gt;
&lt;br /&gt;
智象爱科（北京）信息技术有限公司　王沫&lt;br /&gt;
&lt;br /&gt;
浙江有进步信息科技有限公司　魏雷&lt;br /&gt;
&lt;br /&gt;
成都正载教育科技有限公司 姚敏&lt;br /&gt;
&lt;br /&gt;
北京读书人网络科技有限公司　张鹿&lt;br /&gt;
&lt;br /&gt;
=致谢=&lt;br /&gt;
&lt;br /&gt;
==中心感谢以下单位的科研经费支持==&lt;br /&gt;
北京师范大学系统科学学院&lt;br /&gt;
&lt;br /&gt;
国家重点研发计划“变革性技术关键科学问题”重点专项&lt;br /&gt;
&lt;br /&gt;
==中心感谢以下单位的科研和运行经费捐助==&lt;br /&gt;
宁德时代新能源科技有限公司：捐助汉字结构和汉字理解型学习研究&lt;br /&gt;
&lt;br /&gt;
北京都云科技有限公司：捐助中心研究和运行经费　&lt;br /&gt;
&lt;br /&gt;
浙江有进步信息科技有限公司：捐助中心研究和运行经费&lt;br /&gt;
&lt;br /&gt;
==中心感谢以下合作研究和开发单位==&lt;br /&gt;
&lt;br /&gt;
智象爱科（北京）信息技术有限公司：合作开发Lynkage软件，合作制作理解型学习课程&lt;br /&gt;
&lt;br /&gt;
北京读书人网络科技有限公司：合作制作理解型学习课程&lt;br /&gt;
&lt;br /&gt;
北京快当图文制作有限公司（马海明）：汉字本义图片制作&lt;br /&gt;
&lt;br /&gt;
==中心感谢以下实验学校和实验教师==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5282</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5282"/>
		<updated>2020-12-14T12:37:45Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依存关系树的子结构信息。本文在以下几个方面进行了改进：通过神经网络语言模型进行半监督学习；表示词向量时利用CNN进行字符级编码；利用从现有知识库中提取的索引词典标记实体特征；通过模型集成优化模型。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;br /&gt;
[[文件:AI2-system 概念地图.png|1150px]]&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5281</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5281"/>
		<updated>2020-12-14T12:34:57Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依存关系树的子结构信息。本文在以下几个方面进行了改进：通过神经网络语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;br /&gt;
[[文件:AI2-system 概念地图.png|1150px]]&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5280</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5280"/>
		<updated>2020-12-13T08:24:46Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 概念地图 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经网络语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;br /&gt;
[[文件:AI2-system 概念地图.png|1150px]]&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5279</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5279"/>
		<updated>2020-12-13T08:24:31Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 概念地图 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经网络语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;br /&gt;
[[文件:AI2-system 概念地图.png|1100px]]&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5278</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5278"/>
		<updated>2020-12-13T08:24:24Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 概念地图 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经网络语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;br /&gt;
[[文件:AI2-system 概念地图.png|1000px]]&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5277</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5277"/>
		<updated>2020-12-13T08:23:59Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 概念地图 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经网络语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;br /&gt;
[[文件:AI2-system 概念地图.png|1200px]]&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:AI2-system_%E6%A6%82%E5%BF%B5%E5%9C%B0%E5%9B%BE.png&amp;diff=5276</id>
		<title>文件:AI2-system 概念地图.png</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:AI2-system_%E6%A6%82%E5%BF%B5%E5%9C%B0%E5%9B%BE.png&amp;diff=5276"/>
		<updated>2020-12-13T08:12:24Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：Qiaoxizi上传文件:AI2-system 概念地图.png的新版本&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:AI2-system_%E6%A6%82%E5%BF%B5%E5%9C%B0%E5%9B%BE.png&amp;diff=5275</id>
		<title>文件:AI2-system 概念地图.png</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:AI2-system_%E6%A6%82%E5%BF%B5%E5%9C%B0%E5%9B%BE.png&amp;diff=5275"/>
		<updated>2020-12-13T08:10:37Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：Qiaoxizi上传文件:AI2-system 概念地图.png的新版本&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:AI2-system_%E6%A6%82%E5%BF%B5%E5%9C%B0%E5%9B%BE.png&amp;diff=5274</id>
		<title>文件:AI2-system 概念地图.png</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:AI2-system_%E6%A6%82%E5%BF%B5%E5%9C%B0%E5%9B%BE.png&amp;diff=5274"/>
		<updated>2020-12-13T08:08:46Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5273</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5273"/>
		<updated>2020-12-13T08:08:36Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 概念地图 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经网络语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;br /&gt;
[[文件:AI2-system 概念地图.png]]&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5272</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5272"/>
		<updated>2020-12-13T07:42:25Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经网络语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5271</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5271"/>
		<updated>2020-12-13T07:40:37Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体-关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5270</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5270"/>
		<updated>2020-12-13T07:29:47Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 相关资料 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system细节讲解]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5269</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5269"/>
		<updated>2020-12-13T07:29:32Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 相关资料 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
==相关资料==&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5268</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5268"/>
		<updated>2020-12-13T07:29:17Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
==相关资料==&lt;br /&gt;
----&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5267</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5267"/>
		<updated>2020-12-13T07:28:20Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
----&lt;br /&gt;
*原始模型：[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]&lt;br /&gt;
*论文原文（改进模型）：[https://www.aclweb.org/anthology/S17-2097.pdf The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction]&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5266</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5266"/>
		<updated>2020-12-13T04:00:17Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf AI2_system]&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5265</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5265"/>
		<updated>2020-12-13T03:59:56Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
*组会分享ppt：[http://www.bigphysics.org/images/6/6c/AI2_system.pdf]&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5264</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5264"/>
		<updated>2020-12-13T03:59:15Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
*组会分享ppt：[[文件:AI2 system.pdf]]&lt;br /&gt;
[http://www.bigphysics.org/images/6/6c/AI2_system.pdf]&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:AI2_system.pdf&amp;diff=5263</id>
		<title>文件:AI2 system.pdf</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:AI2_system.pdf&amp;diff=5263"/>
		<updated>2020-12-13T03:56:37Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5262</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5262"/>
		<updated>2020-12-13T03:56:24Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
*组会分享ppt：[[文件:AI2 system.pdf]]&lt;br /&gt;
&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5261</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5261"/>
		<updated>2020-12-13T03:55:29Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
*组会分享ppt：[[媒体文件:范例.ogg]]&lt;br /&gt;
&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:Schematic_diagram_of_the_model.png&amp;diff=5260</id>
		<title>文件:Schematic diagram of the model.png</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:Schematic_diagram_of_the_model.png&amp;diff=5260"/>
		<updated>2020-12-13T03:52:38Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：Qiaoxizi上传文件:Schematic diagram of the model.png的新版本&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:Schematic_diagram_of_the_model.png&amp;diff=5259</id>
		<title>文件:Schematic diagram of the model.png</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E6%96%87%E4%BB%B6:Schematic_diagram_of_the_model.png&amp;diff=5259"/>
		<updated>2020-12-13T03:50:36Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5258</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5258"/>
		<updated>2020-12-13T03:50:27Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.png]]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5257</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5257"/>
		<updated>2020-12-13T03:48:37Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
[[文件:Schematic diagram of the model.jpg]]&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5256</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5256"/>
		<updated>2020-12-13T03:46:02Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
*'''概述'''：这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5255</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5255"/>
		<updated>2020-12-13T03:42:49Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
*'''缺点'''：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5254</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5254"/>
		<updated>2020-12-13T03:42:25Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
&lt;br /&gt;
缺点：考虑到模型的复杂度和计算效率，本文将两个模型单独训练，实体与关系的抽取还是存在先后性，两个任务并不是完全同步进行的。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5253</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5253"/>
		<updated>2020-12-13T03:37:52Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
* '''小结'''&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5252</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5252"/>
		<updated>2020-12-13T03:37:39Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
* '''小结‘’‘&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5251</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5251"/>
		<updated>2020-12-13T03:37:14Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* '''任务'''：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* '''Entity model'''&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* '''Relation model'''&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5250</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5250"/>
		<updated>2020-12-13T03:36:37Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* __Entity model__&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* Relation model&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5249</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5249"/>
		<updated>2020-12-13T03:36:29Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* _Entity model_&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* Relation model&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5248</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5248"/>
		<updated>2020-12-13T03:26:31Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* Entity model&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
* Relation model&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。对照Wikipedia和freebase两个公开知识库的索引，对实体的类别进行标注；对于给定的一对实体，通过计算输入的二进制特征，以标记实体对是否与每个索引词典匹配。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5247</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5247"/>
		<updated>2020-12-13T03:22:01Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* Entity model&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
&lt;br /&gt;
* Relation model&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5246</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5246"/>
		<updated>2020-12-13T03:21:37Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
# 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
# 模型描述：&lt;br /&gt;
* Entity model&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
&lt;br /&gt;
* Relation model&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对依存关系树中左右实体head之间的最短路径进行编码，每个节点上LSTM层的输入由四部分拼接得到。同时对顺序路径（两个实体之间的单词）进行编码。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5245</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5245"/>
		<updated>2020-12-13T03:05:54Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
# 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
# 模型描述：&lt;br /&gt;
* Entity model&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
&lt;br /&gt;
* Relation model&lt;br /&gt;
给定一对实体的跨径及其类型，该模型通过将关系的上下文相关表示传递到tanh层中，然后通过softmax层来预测标签，从而预测两个实体之间的关系。通过将实体类型嵌入和基于序列标记模型的隐藏层输出连接起来，以此表示左实体和右实体。使用双向BiLSTM层对左右实体的首部之间的依存关系树中的最短路径进行编码。 依赖路径中每个节点上LSTM层的输入将四个组件连接起来：&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5244</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5244"/>
		<updated>2020-12-13T02:13:58Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
# 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
# 模型描述：&lt;br /&gt;
* Entity model&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
&lt;br /&gt;
* Relation model&lt;br /&gt;
给定一对实体提及范围及其实体类型，该模型通过将关系的上下文相关表示传递到密集的tanh层中，然后通过softmax层来预测标签，从而预测两个提及之间的关系&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5243</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5243"/>
		<updated>2020-12-13T02:13:36Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
# 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
# 模型描述：&lt;br /&gt;
* Entity model&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。&lt;br /&gt;
&lt;br /&gt;
利用 BiLSTM 作为序列编码器来捕捉上下文的信息，得到的输出则是 BiLSTM 在同一个时刻两个方向上的输出 。&lt;br /&gt;
&lt;br /&gt;
将实体识别任务看作是一个序列标注任务，实体标签采用 BILOU(Begin, Inside, Last, Outside, Unit) 的标注方式，而实体类别接续在实体标签之后。BiLSTM层输出的分数将作为CRF层的输入，类别序列中分数最高的类别就是预测的最终结果。&lt;br /&gt;
&lt;br /&gt;
* Relation model&lt;br /&gt;
给定一对实体提及范围及其实体类型，该模型通过将关系的上下文相关表示传递到密集的tanh层中，然后通过softmax层来预测标签，从而预测两个提及之间的关系&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5242</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5242"/>
		<updated>2020-12-13T02:02:20Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
# 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
# 模型描述：&lt;br /&gt;
* Entity Model&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。&lt;br /&gt;
&lt;br /&gt;
利用神经网络语言模型BiLSTM来捕捉上下文的信息。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5241</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5241"/>
		<updated>2020-12-13T02:01:52Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* 模型描述：&lt;br /&gt;
# Entity Model&lt;br /&gt;
将预训练的GloVe词向量和利用CNN得到的字符级编码的词向量拼接起来，作为模型中输入的词向量。&lt;br /&gt;
&lt;br /&gt;
利用神经网络语言模型BiLSTM来捕捉上下文的信息。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5240</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5240"/>
		<updated>2020-12-13T01:55:11Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* 任务：从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
* 模型描述：&lt;br /&gt;
# Entity Model&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5239</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5239"/>
		<updated>2020-12-13T01:52:04Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
* 任务：&lt;br /&gt;
从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
*&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5238</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5238"/>
		<updated>2020-12-13T01:50:47Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
# 任务：&lt;br /&gt;
从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
#&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5237</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5237"/>
		<updated>2020-12-13T01:50:24Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。原始模型采用了端到端的神经网络结构来进行建模，通过在双向序列LSTM-RNNs上叠加双向树型结构LSTM-RNNs来捕获单词序列和依赖树的子结构信息。本文在以下几个方面进行了改进：通过神经语言模型进行半监督学习；字符级编码；利用从现有知识库中提取的索引词典；模型集成。&lt;br /&gt;
# 任务：&lt;br /&gt;
从科研论文中识别实体类型（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
#&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5236</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5236"/>
		<updated>2020-12-13T01:37:27Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
# 任务：&lt;br /&gt;
从科学论文中识别实体（Task / Material / Process）以及抽取实体关系（ Hyponym-of / Synonym-of）&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
	<entry>
		<id>https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5235</id>
		<title>分类:The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction</title>
		<link rel="alternate" type="text/html" href="https://www.bigphysics.org/index.php?title=%E5%88%86%E7%B1%BB:The_AI2_system_at_SemEval-2017_Task_10_(ScienceIE):_semi-supervised_end-to-end_entity_and_relation_extraction&amp;diff=5235"/>
		<updated>2020-12-13T01:31:09Z</updated>

		<summary type="html">&lt;p&gt;Qiaoxizi：/* 总结和评论 */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Category:文献讨论]]&lt;br /&gt;
[[分类:AllenAI系列科学学文章]]&lt;br /&gt;
[[分类:概念抽取和概念关系挖掘]]&lt;br /&gt;
&lt;br /&gt;
Waleed Ammar, Matthew E. Peters, Chandra Bhagavatula, R. Power, The AI2 system at SemEval-2017 Task 10 (ScienceIE): semi-supervised end-to-end entity and relation extraction&lt;br /&gt;
&lt;br /&gt;
== Abstract ==&lt;br /&gt;
This paper describes our submission for the ScienceIE shared task (SemEval2017 Task 10) on entity and relation extraction from scientific papers. Our model is based on the end-to-end relation extraction model of Miwa and Bansal (2016) with several enhancements such as semi-supervised learning via neural language models, character-level encoding, gazetteers extracted from existing knowledge bases, and model ensembles. Our official submission ranked first in end-to-end entity and relation extraction (scenario 1), and second in the relation-only extraction (scenario 3). &lt;br /&gt;
&lt;br /&gt;
== 总结和评论 ==&lt;br /&gt;
&lt;br /&gt;
这篇文章基于对经典的end-to-end 实体关系联合抽取模型（见论文[http://de.arxiv.org/pdf/1601.00770 End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures]）的改进，实现了一些科学论文中的概念和关系提取算法。&lt;br /&gt;
&lt;br /&gt;
== 概念地图 ==&lt;/div&gt;</summary>
		<author><name>Qiaoxizi</name></author>
	</entry>
</feed>