草庐IT

Chinese-Medicine

全部标签

基于GPT2-Chinese文本自动生成

基于GPT2-Chinese模型的中文文本生成项目,可用于中文生成任务。当下市面上很多文本自动生成业务都是基于该模型二次开发的,可以很少有那种特定垂直领域的模型用于该领域的创作,也就导致大家在使用类似产品的时候会发现很多的问题,这种问题多数会导致写出来的文章前后逻辑不对,这个自己体会就知道了,真的能拿出来直接发么?答案肯定是不能。真的,有买会员的那个钱都可以购买GPU资源自己训练自己的模型了。因此也还是需要基于原有的算法二次开发自己的的垂直领域的内容,这就要用到开源的代码用自己的数据训练,当然了这个门槛也比较高,一方面是环境配置搭建就能劝退很多人,另一方面是这种业务比较吃硬件资源即GPU。如果

基于GPT2-Chinese文本自动生成

基于GPT2-Chinese模型的中文文本生成项目,可用于中文生成任务。当下市面上很多文本自动生成业务都是基于该模型二次开发的,可以很少有那种特定垂直领域的模型用于该领域的创作,也就导致大家在使用类似产品的时候会发现很多的问题,这种问题多数会导致写出来的文章前后逻辑不对,这个自己体会就知道了,真的能拿出来直接发么?答案肯定是不能。真的,有买会员的那个钱都可以购买GPU资源自己训练自己的模型了。因此也还是需要基于原有的算法二次开发自己的的垂直领域的内容,这就要用到开源的代码用自己的数据训练,当然了这个门槛也比较高,一方面是环境配置搭建就能劝退很多人,另一方面是这种业务比较吃硬件资源即GPU。如果

python通过rouge-chinese库实现中文Rouge评价指标(超简单)

Rouge-Chinese库(Python)专用于计算中文rouge指标的python库(paper)完整代码请见github仓库:https://github.com/Isaac-JL-Chen/rouge_chinese,欢迎star!与英文rouge库的不同点rouge-chinese库基于rouge库,针对中文NLP任务做出了改进。使用原始的rouge库计算中文的rougescore会遇到一些问题,例如,会产生栈溢出以及占据过大内存的问题(长文章甚至会占据数十GB),不支持对中文文章的分句,以及使用unionrougescore近似rougescore,导致结果不准确。新的rouge-

交互式AI技术与模型部署:bert-base-chinese模型交互式问答界面设置

使用Gradio实现QuestionAnswering交互式问答界面,首先你需要有一个已经训练好的QuestionAnswering模型,这里你提到要使用bert-base-chinese模型。Gradio支持PyTorch和TensorFlow模型,所以你需要将bert-base-chinese模型转换成PyTorch或TensorFlow格式,以便在Gradio中使用。在这里,我将演示如何使用HuggingFaceTransformers库(PyTorch版本)加载bert-base-chinese模型,并使用Gradio创建交互式问答界面。确保已经安装了必要的库:pipinstallgr

LLM - Chinese-Llama-2-7b 初体验

目录一.引言二.模型下载三.快速测试四.训练数据五.总结一.引言自打LLama-2发布后就一直在等大佬们发布LLama-2的适配中文版,也是这几天蹲到了一版由LinkSoul发布的 Chinese-Llama-2-7b,其共发布了一个常规版本和一个4-bit的量化版本,今天我们主要体验下Llama-2的中文逻辑顺便看下其训练样本的样式,后续有机会把训练和微调跑起来。二.模型下载HuggingFace: https://huggingface.co/LinkSoul/Chinese-Llama-2-7b4bit量化版本: https://huggingface.co/LinkSoul/Chine

LLM-LLaMA中文衍生模型:Chinese-LLaMA-Alpaca【扩充词表、Lora部分参数预训练、微调】

GitHub:GitHub-ymcui/Chinese-LLaMA-Alpaca:中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署(ChineseLLaMA&AlpacaLLMs)中文LLaMA模型中文LLaMA模型在原版的基础上扩充了中文词表,使用了中文通用纯文本数据进行二次预训练。模型名称训练数据重构模型[1]大小[2]LoRA下载[3]Chinese-LLaMA-7B通用20G原版LLaMA-7B770M[百度网盘][GoogleDrive]Chinese-LLaMA-Plus-7B ⭐️通用120G原版LLaMA-7B790M

达到chatgpt 90%效果的llama,Chinese-Alpaca-Plus-13B合并使用全过程分享

基于llama的开源项目有很多,本次测试的是一个基于7b的llama二次训练的项目,本项目开源了中文LLaMA模型和指令精调的Alpaca大模型。这些模型在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练,进一步提升了中文基础语义理解能力。同时,中文Alpaca模型进一步使用了中文指令数据进行精调,显著提升了模型对指令的理解和执行能力。在预训练阶段使用了20G中文语料的预训练。但即使LLaMA本身已经过充分的预训练并且具备一定的跨语言能力,但看起来20G的中文预训练还是非常不充分的。因此,做了如下改进,并发布了Plus版本:1、进一步扩充了训练数据,其中预训练语料扩充至120

IDEA插件系列(2)Chinese ​(Simplified)​ Language Pack插件——中文语言包

1.插件介绍Chinese​(Simplified)​LanguagePack插件。中文语言包将为您的IntelliJIDEA,AppCode,CLion,DataGrip,GoLand,PyCharm,PhpStorm,RubyMine,和WebStorm带来完全中文化的界面。2.安装方式第一种方式,是在IDEA上搜索插件进行安装,会适配当前IDEA的版本。第二种安装方式是使用离线插件进行安装。插件下载地址:https://plugins.jetbrains.com/plugin/13710-chinese-simplified-language-pack----/3.使用方法会自动转换成中

【AI实战】从零开始搭建中文 LLaMA-33B 语言模型 Chinese-LLaMA-Alpaca-33B

【AI实战】从零开始搭建中文LLaMA-33B语言模型Chinese-LLaMA-Alpaca-33B简介环境配置环境搭建依赖安装代码及模型权重拉取拉取Chinese-LLaMA-Alpaca拉取llama-30b-hf模型权重及代码拉取chinese-llama-lora-33b模型权重及代码合并模型权重先转换pth类型的模型权重,验证模型权重合并后检查SHA256再合并huggingface类型的模型权重搭建测试页面拉取text-generation-webui加载模型并启动webui参考简介2023年2月25日消息,Meta推出了一种针对研究社区的基于人工智能(AI)的新型大型语言模型,

生物医学工程方向——SCI投稿经验分享 (Ultrasound in Medicine & Biology)

生物医学工程方向——SCI投稿经验分享(UltrasoundinMedicine&Biology)Today,接到了sci的录用通知,有点小激动,此刻记录一下自己如何披荆斩棘、浑水摸鱼!期刊简介:投稿时间线个人情况查找期刊投稿过程及注意事项修改及录用其他最后Today,接到了sci的录用通知,有点小激动,此刻记录一下自己如何披荆斩棘、浑水摸鱼!期刊简介:Journal:UltrasoundinMedicine&Biology《医学与生物学超声》ISSN:0301-5629CiteScore:5.4ImpactFactor:3.694投稿官网:https://www.sciencedirect.