- 消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型谷歌和威斯康星麦迪逊大学的研究人员推出了一个让LLM给自己输出打分的选择性预测系统
- 无需人工标注!LLM加持文本嵌入学习:轻松支持100种语言,适配数十万下游任务使用LLM生成海量任务的文本数据,无需人工标注即可大幅提升文本嵌入的适用度,只需1000训练步即可轻松扩展到100种语言。
- 更适合中文LMM体质的基准CMMMU来了:超过30个细分学科,12K专家级题目M-A-P 开源社区、港科大、滑铁卢大学、零一万物等联合推出了面向中文大规模多学科多模态理解和推理基准 CMMMU
- 新一代注意力机制Lightning Attention-2:无限序列长度、恒定算力开销、更高建模精度Lightning Attention-2 是一种新型的线性注意力机制,让长序列的训练和推理成本与 1K 序列长度的一致。
- 旋转多尺度交互网络RMSIN,只需1080ti完美解决遥感图像指向性分割这篇论文介绍了一项新的任务——指向性遥感图像分割(RRSIS),以及一种新的方法——旋转多尺度交互网络(RMSIN)。
- 面向表格数据的大模型推理综述我们在本文对现有的基于LLM的表格推理相关工作进行梳理,来促进该领域上的研究。
- 东北大学NLP Lab&小牛翻译 “自然语言处理视角下的Transformer”全文共119页,从自然语言处理的角度,全面介绍了Transformer模型的基础知识和其在自然语言处理应用中的进展
- AI识别出地震先兆信号?机器学习发现数据神秘关联,人类有望预测地震10年前,「地震预测」在圈内还是如尼斯湖水怪一般的奇谈怪论,但机器学习的发展,已经让「准确预测地震」的可能性,又往前迈进了一步。
- AI研究也能借鉴印象派?这些栩栩如生的人竟然是3D模型创建逼真的动态虚拟角色,要么在训练期间需要准确的 3D 配准,要么在测试期间需要密集的输入图像,有时则两者都需要,也许 D3GA 是你需要的。
- Mamba可以替代Transformer,但它们也能组合起来使用1+1>2。