logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【论文泛读77】以自然的方式进行自然语言处理:基于面向对象的知识库和多层语法库的NLP工具包

贴一下汇总贴:论文阅读记录论文链接:《Doing Natural Language Processing in A Natural Way: An NLP toolkit based on object-oriented knowledge base and multi-level grammar base》一、摘要我们介绍一种基于面向对象的知识库和多层语法库的NLP工具包。该工具包专注于语义解析

【论文泛读27】基于卷积深层神经网络的关系分类

贴一下汇总贴:论文阅读记录论文链接:《Relation Classification via Convolutional Deep Neural Network》一、摘要用于关系分类的最新方法主要基于统计机器学习,它们的性能很大程度上取决于提取特征的质量。所提取的特征通常来自于预先存在的自然语言处理系统的输出,这导致了现有工具中错误的传播,并阻碍了这些系统的性能。在本文中,我们利用一个卷积深层神经

#神经网络
【论文泛读127】SSMix:用于文本分类的基于显着性的跨度混合

贴一下汇总贴:论文阅读记录论文链接:《SSMix: Saliency-Based Span Mixup for Text Classification》一、摘要混合数据增强已被证明对各种计算机视觉任务都很有效。尽管取得了巨大成功,但由于文本由可变长度的离散标记组成,因此将 mixup 应用于 NLP 任务仍然存在障碍。在这项工作中,我们提出了 SSMix,一种新颖的混合方法,其中操作是在输入文本上

【论文泛读179】Small-text:Python 中文本分类的主动学习

贴一下汇总贴:论文阅读记录论文链接:《Small-text: Active Learning for Text Classification in Python》一、摘要我们提出了 small-text,这是一个简单的模块化主动学习库,它为 Python 中的文本分类提供基于池的主动学习。它带有各种预先实现的最先进的查询策略,包括一些可以利用 GPU 的策略。明确定义的接口允许将多种此类查询策略与

【论文泛读18】利用BERT进行端到端面向方面的情感分析

贴一下汇总贴:论文阅读记录论文链接:《Exploiting BERT for End-to-End Aspect-based Sentiment Analysis》一、摘要在这篇论文中,我们从预先训练的语言模型,例如BERT,来研究情境化嵌入对E2E-ABSA任务的建模能力。具体来说,我们建立了一系列简单而深刻的神经基线来处理E2E-ABSA。实验结果表明,即使是一个简单的线性分类层,我们的基于伯

《人工神经网络原理》读书笔记(一)-绪论

全部笔记的汇总贴:《人工神经网络原理》-读书笔记汇总一、基本概念人工神经网络是受生物大脑启发,基于模仿生物大脑的结构和功能,采用数学和物理方法进行研究而构成的一种信息处理系统,它是由许多非常简单的并行工作的处理单元按照某种方法相互连接,并依靠其状态对外部输入信息进行动态响应的计算机系统。它是对大脑的简单模拟,具有高速处理能力和一定的智能特点,其功能取决于网络的结构、连接强度以及各个单元的处理方式。

#神经网络
【论文泛读77】以自然的方式进行自然语言处理:基于面向对象的知识库和多层语法库的NLP工具包

贴一下汇总贴:论文阅读记录论文链接:《Doing Natural Language Processing in A Natural Way: An NLP toolkit based on object-oriented knowledge base and multi-level grammar base》一、摘要我们介绍一种基于面向对象的知识库和多层语法库的NLP工具包。该工具包专注于语义解析

【论文泛读109】使用自然语言处理自动检测仇恨言论的系统评价

贴一下汇总贴:论文阅读记录论文链接:《A systematic review of Hate Speech automatic detection using Natural Language Processing》一、摘要随着提供匿名、轻松访问和在线社区形成以及在线辩论的社交媒体平台的增多,仇恨言论检测和跟踪问题成为社会、个人、政策制定者和研究人员面临的日益严峻的挑战。尽管努力利用自动技术进行自

【论文泛读129】Transformer 语言模型可以使用哪些上下文特征?

贴一下汇总贴:论文阅读记录论文链接:《What Context Features Can Transformer Language Models Use?》一、摘要基于 Transformer 的语言模型受益于对数百到数千个先前标记的上下文的调节。这些上下文的哪些方面有助于准确的模型预测?我们描述了一系列实验,这些实验通过在英语维基百科上训练的转换器语言模型中选择性地去除词汇和结构信息来测量可用信

#transformer
【论文泛读35】基于注意力的双向长短期记忆网络关系分类

贴一下汇总贴:论文阅读记录论文链接:《Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification》一、摘要关系分类是自然语言处理领域中一项重要的语义处理任务。最先进的系统仍然依赖词汇资源,如WordNet或NLP系统,如依赖解析器和命名实体识别器(NER)来获得高级功能。另一个挑

#lstm
    共 31 条
  • 1
  • 2
  • 3
  • 4
  • 请选择