新闻首页 / “2024年02月02日”的新闻
2
1
匿名论文提出奇招!增强大模型长文本能力居然还能这么做
丰色发自凹非寺 量子位公众号 QbitAI 一提到提高大模型长文本能力,就想到长度外推或者上下文窗口扩展? 不行,这些都太费硬件资源了。 来看一个奇妙新解: 和长度外推等方法使用 KV 缓存的本质不同,它用模型的参数来存储大量上下文信息。 具体办法就是建一个临时 Lora 模块,让它仅在长文本生成过
0
GPT-4V只能排第二!华科大等发布多模态大模型新基准:五大任务14个模型全面测评
新智元报道 编辑:LRS 好困 【新智元导读】华中科技大学联合华南理工大学、北京科技大学等机构的研究人员对 14 个主流多模态大模型进行了全面测评,涵盖 5 个任务,27 个数据集。 近期,多模态大模型(LMMs)在视觉语言任务方面展示了令人印象深刻的能力。然而,由于多模态大模型的回答具有开放性,如