TerryChan' Blog

文章

标签

喜欢

标签: 人工智能

共找到 11 篇相关文章

第 1 页,共 2 页

文章预览

人工智能提示词 让大模型基于资料生成水文
2024年03月10日 254 字

生成一些水文,营销时候使用,不得不说这样做比搞什么伪原创来的靠谱多了。 以下是提示词举例 ``` 根据以上资料随便写一篇文章, 文章不少于1000字 ,要求语言丰富,风趣 不得添加任何未在提供资料中明确提及的技术细节,删除所有的虚构数据。将无法确认的规格记录为 "unknown"。 所有回复数据必须基于…

阅读全文
浏览 评论

文章预览

"基于BERT微调做实体对应的信息抽取 抽取实体描述和属性"
2023年08月22日 726 字

这是我在知乎上的一点分享,还有点价值,转过来备份下. 基本上就是提取 实体+关系+描述 这一套。 比如前面的描述这个,点开每一条你就会发现基本都是 实体+是+描述。 至于下面的高度体重什么的也是类似,关系词固定下就是了。 要实现类似的也不是很难,现在模型这么多,随便用个Bert都可以做出类似的效果。 就拿抽取描述来说,先对文章抽取实体,然后 用实体+文章,…

阅读全文
浏览 评论

文章预览

"尝试使用albert评估标题质量"
2023年08月22日 195 字

bert很强大但是训练成本有点过大,所以尝试使用albert\_tiny训练,虽然效果会降低不少但是预测速度足够快.而且机器要求也小了很多. 思路 选择视频标题和播放量作为训练资料,毕竟视频标题党的情况比较多.想要直接预测流量估计不是很容易但是预测个区间总共可以吧.  爬取了20万条数据作为语料,跑了一千多次后仅有55%的正确率. 希望…

阅读全文
浏览 评论

文章预览

"reformer生成内容确实很强"
2023年08月22日 749 字

不得不说谷歌新推出这个模型确实在生成文本方面确实很强。不过也存在的问题,就是感觉在生存速度上会比之前gpt2模型要慢一些。这这速度我估计让人很崩溃,有收获。 我我正在尝试使用这个模型训练下中文生成。确实在生成长文本方面会比模之前的模型要强的很多。 #### 示例1 知识提取 我尝试使用reformer做知识提取,先看一看效果 使用百度AI开源的知识提…

阅读全文
浏览 评论

文章预览

"GPT2不要太强悍 生成中文也不错"
2023年08月22日 787 字

以下内容使用gpt2生成 边境牧羊犬怎么养? 边境牧羊犬,这是一种非常漂亮的狗狗,很多人都会把它当成孩子了,它会经常跟人一样,它会对人发脾气,不管什么样的狗狗,它都会对小朋友发脾气。因为边境牧羊犬不管是从生活习惯还是家庭生活都比较容易接受,但是它的身体素质都比较强,它对于主人来说是比较好训练的,只需要稍微训练一点就行了,那么它就不会对人发脾气了,但是边…

阅读全文
浏览 评论

文章预览

"使用gpt2进行知识提取 效果还不错"
2023年08月22日 804 字

gpt2的生成能力让人惊叹,尝试使用gpt2进行知识提取. 把句子和提取的知识喂给gpt2稍加训练就能获取到不错的效国.虽然还有点莫名其妙. > > *江立,男,瑶族,1978年1月出生,广西恭城人,1998年7月参加工作,1997年6月加入中国共产党,广西师范大学政法学专业毕业,在职研究生学历,现任恭城市人大常委会副主任* > *[kg]胡新华,…

阅读全文
浏览 评论