TerryChan' Blog

文章

标签

喜欢

标签: gpt2

共找到 9 篇相关文章

第 1 页,共 1 页

文章预览

"基于BERT微调做实体对应的信息抽取 抽取实体描述和属性"
2023年08月22日 726 字

这是我在知乎上的一点分享,还有点价值,转过来备份下. 基本上就是提取 实体+关系+描述 这一套。 比如前面的描述这个,点开每一条你就会发现基本都是 实体+是+描述。 至于下面的高度体重什么的也是类似,关系词固定下就是了。 要实现类似的也不是很难,现在模型这么多,随便用个Bert都可以做出类似的效果。 就拿抽取描述来说,先对文章抽取实体,然后 用实体+文章,…

阅读全文
浏览 评论

文章预览

"reformer生成内容确实很强"
2023年08月22日 749 字

不得不说谷歌新推出这个模型确实在生成文本方面确实很强。不过也存在的问题,就是感觉在生存速度上会比之前gpt2模型要慢一些。这这速度我估计让人很崩溃,有收获。 我我正在尝试使用这个模型训练下中文生成。确实在生成长文本方面会比模之前的模型要强的很多。 #### 示例1 知识提取 我尝试使用reformer做知识提取,先看一看效果 使用百度AI开源的知识提…

阅读全文
浏览 评论

文章预览

"GPT2不要太强悍 生成中文也不错"
2023年08月22日 787 字

以下内容使用gpt2生成 边境牧羊犬怎么养? 边境牧羊犬,这是一种非常漂亮的狗狗,很多人都会把它当成孩子了,它会经常跟人一样,它会对人发脾气,不管什么样的狗狗,它都会对小朋友发脾气。因为边境牧羊犬不管是从生活习惯还是家庭生活都比较容易接受,但是它的身体素质都比较强,它对于主人来说是比较好训练的,只需要稍微训练一点就行了,那么它就不会对人发脾气了,但是边…

阅读全文
浏览 评论

文章预览

"使用gpt2进行知识提取 效果还不错"
2023年08月22日 804 字

gpt2的生成能力让人惊叹,尝试使用gpt2进行知识提取. 把句子和提取的知识喂给gpt2稍加训练就能获取到不错的效国.虽然还有点莫名其妙. > > *江立,男,瑶族,1978年1月出生,广西恭城人,1998年7月参加工作,1997年6月加入中国共产党,广西师范大学政法学专业毕业,在职研究生学历,现任恭城市人大常委会副主任* > *[kg]胡新华,…

阅读全文
浏览 评论

文章预览

reformer-pytorch中文版本 高效的生成模型 类似GPT2的效果
2023年08月22日 531 字

reformer-chinese-pytorch ======================== reformer-pytorch中文版本,简单高效的生成模型。类似GPT2的效果。 之前做过一个类似项目,这次重新写了,各方面都做了很多的优化,训练也更加便捷了。 reformer最大的优点就是节省资源,而且对于长文本更加有效。 之后有时间会做一个基于P…

阅读全文
浏览 评论