- 无需人工标注!LLM加持文本嵌入学习:轻松支持100种语言,适配数十万下游任务使用LLM生成海量任务的文本数据,无需人工标注即可大幅提升文本嵌入的适用度,只需1000训练步即可轻松扩展到100种语言。
- AI解读视频张口就来?这种「幻觉」难题Vista-LLaMA给解决了Vista-LLaMA 在处理长视频内容方面的显著优势,为视频分析领域带来了新的解决框架。
- 面向表格数据的大模型推理综述我们在本文对现有的基于LLM的表格推理相关工作进行梳理,来促进该领域上的研究。
- 东北大学NLP Lab&小牛翻译 “自然语言处理视角下的Transformer”全文共119页,从自然语言处理的角度,全面介绍了Transformer模型的基础知识和其在自然语言处理应用中的进展
- 大型视觉语言模型中对象幻觉的缓解:视觉对比解码(VCD)阿里巴巴达摩院和新加坡南洋理工大学的研究团队提出了一种创新方法——视觉对比解码(VCD),有效解决大型视觉语言模型中的对象幻觉问题
- 表格数学推理准确率达98.78%!UCLA推出全新「变色龙推理框架」| NeurIPS 2023UCLA等机构研发的Chameleon框架,在AI界引起广泛关注,获得超过100次学术引用,AlphaSignal评选其为「周最佳论文」。
- 全新近似注意力机制HyperAttention:对长上下文友好、LLM推理提速50%本文介绍了一项近似注意力机制新研究,提出了 HyperAttention,使 ChatGLM2 在 32k 上下文长度上的推理时间快了 50%。
- DISC-FinLLM:复旦大学团队发布中文智慧金融系统,采用多专家微调框架复旦大学数据智能与社会计算实验室(FudanDISC)发布金融领域的大语言模型 ——DISC-FinLLM。
- 大模型可解释性你能理得清吗?综述已来,一文解你疑惑对传统的 fine-tuning 模型和基于 prompting 的超大模型的可解释性技术进行了全面的梳理,并探讨了模型解释的评估标准和未来的研究挑战。
- 复旦NLP团队发布80页大模型Agent综述,一文纵览AI智能体的现状与未来智能体会成为打开 AGI 之门的钥匙吗?复旦 NLP 团队全面探讨 LLM-based Agents。