文本
WeLM
体验链接:https://welm.weixin.qq.com/docs/playground/ API接口:https://welm.weixin.qq.com/docs/api/ 论文地址:https://arxiv.org/abs/2209.10372 WeLM的相关技术论文《WeLM: A Well-Read Pre-trained Language Model for Chinese》已经发布于论文预印本网站arXiv,感兴趣的用户可前往https://arxiv.org/abs/2209.10372查看更多技术细节。 在NLP领域,让大模型成为真正能落地且实用的工具,是每一位NLP领域的研究者矢志不渝的方向。未来,微信AI也将针对WeLM进行进一步的微调优化,进一步提升其在新任务上的泛化效果,也欢迎更多开发者、用户前来体验WeLM并提出宝贵意见和建议,帮助该模型早日成为真正能落地且实用的工具,共同探索人工智能的发展之路。
XrayGPT
XrayGPT:使用医学视觉语言模型的胸片摘要。 XrayGPT 旨在促进围绕基于给定 X 射线的胸片自动分析的研究。 LLM(Vicuna)在医学数据(患者和医生之间的 100k 真实对话)和约 30k 放射学对话上进行了微调,以获得特定领域和相关的特征。 我们从两个数据集(MIMIC-CXR 和 OpenI)的自由文本放射学报告中生成交互式和干净的摘要(~217k)。这些总结有助于通过微调高质量数据的线性转换层来提高 LLM 的性能。有关我们高质量摘要的更多详细信息,请查看数据集创建。 我们使用简单的线性变换将冷冻医学视觉编码器 (MedClip) 与 fune-tuned LLM (Vicuna) 对齐。