Beta
首页
社区
技术
Open AI
搜索
登录 / 注册
编辑
LLaMA
(这个标签还没有简介,来参与编辑吧)
文章数
13
帖子数
0
最新创建
中文官网
功能差体验差
声音模型
1122
模型调优
重复次数
TempLora
动态提示
上下文提示学习
CoPL
三维编辑
InseRF
动态自洽性
负向校准增强
负向协助训练
负样本
大模型蒸馏
DATM
无损数据集蒸馏
HIDiff
分层集成扩散模型
音乐生成
多模态音乐理解
M2UGen
SOPs
MetaGPT
多智能体协作
多模态结构化表示
场景图知识
数字生命
相关文章
GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?
机器之心
· 赞同
0
ChatGPT/GPT-4/Llama电车难题大PK!小模型道德感反而更高?
新智元
· 赞同
0
LLaMA微调显存需求减半,清华提出4比特优化器
机器之心
· 赞同
0
32卡176%训练加速,开源大模型训练框架Megatron-LLaMA来了
机器之心
· 赞同
0
不到1000步微调,将LLaMA上下文扩展到32K,田渊栋团队最新研究
机器之心
· 赞同
0
大模型入局传统算法,LLMZip基于LLaMA-7B实现1MB文本压缩率90%!
将门
· 赞同
0
没有RLHF,一样媲美GPT-4、Bard,Meta发布650亿参数语言模型LIMA
机器之心
· 赞同
0
调教LLaMA类模型没那么难,LoRA将模型微调缩减到几小时
机器之心
· 赞同
0
130亿参数,8个A100训练,UC伯克利发布对话模型Koala
机器学习算法与自然语言处理
· 赞同
0
LLaMA模型惨遭泄漏,Meta版ChatGPT被迫「开源」!GitHub斩获8k星,评测大量出炉
机器学习算法与自然语言处理
· 赞同
0
相关帖子
还没有相关数据
反馈
反馈列表
快速反馈
添加中文文档