• 文献检索
  • 文档翻译
  • 深度研究
  • 学术资讯
  • Suppr Zotero 插件Zotero 插件
  • 邀请有礼
  • 套餐&价格
  • 历史记录
应用&插件
Suppr Zotero 插件Zotero 插件浏览器插件Mac 客户端Windows 客户端微信小程序
定价
高级版会员购买积分包购买API积分包
服务
文献检索文档翻译深度研究API 文档MCP 服务
关于我们
关于 Suppr公司介绍联系我们用户协议隐私条款
关注我们

Suppr 超能文献

核心技术专利:CN118964589B侵权必究
粤ICP备2023148730 号-1Suppr @ 2026

文献检索

告别复杂PubMed语法,用中文像聊天一样搜索,搜遍4000万医学文献。AI智能推荐,让科研检索更轻松。

立即免费搜索

文件翻译

保留排版,准确专业,支持PDF/Word/PPT等文件格式,支持 12+语言互译。

免费翻译文档

深度研究

AI帮你快速写综述,25分钟生成高质量综述,智能提取关键信息,辅助科研写作。

立即免费体验

LBERT: Lexically-aware Transformers based Bidirectional Encoder Representation model for learning Universal Bio-Entity Relations.

作者信息

Warikoo Neha, Chang Yung-Chun, Hsu Wen-Lian

出版信息

Bioinformatics. 2021 Apr 1;36(22-23):5565. doi: 10.1093/bioinformatics/btaa869.

DOI:10.1093/bioinformatics/btaa869
PMID:33331647
Abstract
摘要

相似文献

1
LBERT: Lexically-aware Transformers based Bidirectional Encoder Representation model for learning Universal Bio-Entity Relations.LBERT:基于词汇感知变压器的双向编码器表示模型,用于学习通用生物实体关系。
Bioinformatics. 2021 Apr 1;36(22-23):5565. doi: 10.1093/bioinformatics/btaa869.
2
LBERT: Lexically aware Transformer-based Bidirectional Encoder Representation model for learning universal bio-entity relations.LBERT:基于词汇感知的基于Transformer的双向编码器表示模型,用于学习通用生物实体关系。
Bioinformatics. 2021 Apr 20;37(3):404-412. doi: 10.1093/bioinformatics/btaa721.
3
Model-based clinical note entity recognition for rheumatoid arthritis using bidirectional encoder representation from transformers.基于模型的类风湿性关节炎临床笔记实体识别:使用来自变换器的双向编码器表征
Quant Imaging Med Surg. 2022 Jan;12(1):184-195. doi: 10.21037/qims-21-90.
4
Using Character-Level and Entity-Level Representations to Enhance Bidirectional Encoder Representation From Transformers-Based Clinical Semantic Textual Similarity Model: ClinicalSTS Modeling Study.使用字符级和实体级表示来增强基于Transformer的临床语义文本相似性模型的双向编码器表示:临床STS建模研究
JMIR Med Inform. 2020 Dec 29;8(12):e23357. doi: 10.2196/23357.
5
Multi-Label Classification in Patient-Doctor Dialogues With the RoBERTa-WWM-ext + CNN (Robustly Optimized Bidirectional Encoder Representations From Transformers Pretraining Approach With Whole Word Masking Extended Combining a Convolutional Neural Network) Model: Named Entity Study.基于RoBERTa-WWM-ext + CNN(带有全词掩码扩展的基于变换器预训练方法的稳健优化双向编码器表示与卷积神经网络相结合)模型的医患对话多标签分类:命名实体研究
JMIR Med Inform. 2022 Apr 21;10(4):e35606. doi: 10.2196/35606.
6
B-LBConA: a medical entity disambiguation model based on Bio-LinkBERT and context-aware mechanism.B-LBConA:一种基于 Bio-LinkBERT 和上下文感知机制的医学实体消歧模型。
BMC Bioinformatics. 2023 Mar 16;24(1):97. doi: 10.1186/s12859-023-05209-z.
7
Multi-Level Representation Learning for Chinese Medical Entity Recognition: Model Development and Validation.用于中文医学实体识别的多层次表示学习:模型开发与验证
JMIR Med Inform. 2020 May 4;8(5):e17637. doi: 10.2196/17637.
8
BERT-based Ranking for Biomedical Entity Normalization.基于BERT的生物医学实体规范化排序
AMIA Jt Summits Transl Sci Proc. 2020 May 30;2020:269-277. eCollection 2020.
9
Fast and effective biomedical named entity recognition using temporal convolutional network with conditional random field.使用带有条件随机场的时间卷积网络进行快速有效的生物医学命名实体识别。
Math Biosci Eng. 2020 May 12;17(4):3553-3566. doi: 10.3934/mbe.2020200.
10
Extraction of causal relations based on SBEL and BERT model.基于 SBEL 和 BERT 模型的因果关系提取。
Database (Oxford). 2021 Feb 18;2021. doi: 10.1093/database/baab005.

引用本文的文献

1
PHILM2Web: A high-throughput database of macromolecular host-pathogen interactions on the Web.PHILM2Web:网络上的高通量生物大分子宿主-病原体相互作用数据库。
Database (Oxford). 2022 Jun 30;2022. doi: 10.1093/database/baac042.