Stars
Docker files to run open5gs + IMS + eNB + gNB + NR-UE in a docker
A trial of kbqa based on bert for NLPCC2016/2017 Task 5 (基于BERT的中文知识库问答实践,代码可跑通)
使用谷歌预训练bert做字嵌入的BiLSTM-CRF序列标注模型
Lstm-crf,Lattice-CRF,bert-ner及近年ner相关论文follow
多标签文本分类,多标签分类,文本分类, multi-label, classifier, text classification, BERT, seq2seq,attention, multi-label-classification
情感分析、文本分类、词典、bayes、sentiment analysis、TextCNN、classification、tensorflow、BERT、CNN、text classification
Bert源码阅读与讲解(Pytorch版本)-以BERT文本分类代码为例子
零基础入门NLP - 新闻文本分类 正式赛第一名方案
中文情感分析库(Chinese Sentiment))可对文本进行情绪分析、正负情感分析。Text analysis, supporting multiple methods including word count, readability, document similarity, sentiment analysis, Word2Vec .
一键中文数据增强包 ; NLP数据增强、bert数据增强、EDA:pip install nlpcda
keras implement of transformers for humans
基于Pytorch的Bert应用,包括命名实体识别、情感分析、文本分类以及文本相似度等
中文命名实体识别,实体抽取,tensorflow,pytorch,BiLSTM+CRF
CCKS2019中文命名实体识别任务。从医疗文本中识别疾病和诊断、解剖部位、影像检查、实验室检验、手术和药物6种命名实体。现已实现基于jieba和AC自动机的baseline构建、基于BiLSTM和CRF的序列标住模型构建。bert的部分代码主要源于https://github.com/charles9n/bert-sklearn.git 感谢作者。 模型最终测试集得分0.81,还有较大改进…
Keyphrase or Keyword Extraction 基于预训练模型的中文关键词抽取方法(论文SIFRank: A New Baseline for Unsupervised Keyphrase Extraction Based on Pre-trained Language Model 的中文版代码)
Macadam是一个以Tensorflow(Keras)和bert4keras为基础,专注于文本分类、序列标注和关系抽取的自然语言处理工具包。支持RANDOM、WORD2VEC、FASTTEXT、BERT、ALBERT、ROBERTA、NEZHA、XLNET、ELECTRA、GPT-2等EMBEDDING嵌入; 支持FineTune、FastText、TextCNN、CharCNN、BiRN…
Implemention some Baseline Model upon Bert for Text Classification
Code for NeurIPS 2019 - Glyce: Glyph-vectors for Chinese Character Representations
高质量中文预训练模型集合:最先进大模型、最快小模型、相似度专门模型
pytorch handbook是一本开源的书籍,目标是帮助那些希望和使用PyTorch进行深度学习开发和研究的朋友快速入门,其中包含的Pytorch教程全部通过测试保证可以成功运行
总结梳理自然语言处理工程师(NLP)需要积累的各方面知识,包括面试题,各种基础知识,工程能力等等,提升核心竞争力
Easy-to-use CPM for Chinese text generation(基于CPM的中文文本生成)
GPT2 for Chinese chitchat/用于中文闲聊的GPT2模型(实现了DialoGPT的MMI思想)