如何做英文网站的外链,江苏省建设执业资格中心网站,淘宝客推广一天80单,山东川畅信息技术有限公司网站建设本文来源公众号“AI算法与图像处理”#xff0c;仅用于学术分享#xff0c;侵权删#xff0c;干货满满。
原文链接#xff1a;吴恩达团队新作#xff01;多模态方向
研究评估了先进多模态基础模型在 10 个数据集上的多样本上下文学习#xff0c;揭示了持续的性能提升。…本文来源公众号“AI算法与图像处理”仅用于学术分享侵权删干货满满。
原文链接吴恩达团队新作多模态方向
研究评估了先进多模态基础模型在 10 个数据集上的多样本上下文学习揭示了持续的性能提升。批量查询显著降低了每个示例的延迟和推理成本而不牺牲性能。这些发现表明利用大量演示示例可以快速适应新任务和新领域而无需传统的微调。 论文地址https://arxiv.org/abs/2405.09798 代码地址https://github.com/stanfordmlgroup/ManyICL
1 背景介绍
在近期的多模态基础模型Multimodal Foundation Model研究中上下文学习In-Context Learning, ICL已被证明是提高模型性能的有效方法之一。
然而受限于基础模型的上下文长度尤其是对于需要大量视觉 token 来表示图片的多模态基础模型已有的相关研究只局限于在上下文中提供少量样本。
令人激动的是最新的技术进步大大增加了模型的上下文长度这为探索使用更多示例进行上下文学习提供了可能性。
基于此斯坦福吴恩达团队的最新研究——ManyICL主要评估了目前最先进的多模态基础模型在从少样本 (少于 100) 到多样本最高至 2000上下文学习中的表现。通过对多个领域和任务的数据集进行测试团队验证了多样本上下文学习在提高模型性能方面的显著效果并探讨了批量查询对性能和成本及延迟的影响。 2 方法概览
本研究选择了三种先进的多模态基础模型GPT-4o、GPT4 (V)-Turbo 和 Gemini 1.5 Pro。出于 GPT-4o 优越的表现研究团队在正文中着重讨论 GPT-4o 和 Gemini 1.5 Pro GPT4 (V)-Turbo 的相关内容请于附录中查看。
数据集方面研究团队在 10 个跨越不同领域包括自然影像、医学影像、遥感影像和分子影像等和任务包括多分类、多标签分类和细粒度分类的数据集上进行了广泛的实验。 基准数据集汇总。
为了测试增加示例数量对模型性能的影响研究团队逐步增加了上下文中提供的示例数量最高达到近 2000 个示例。同时考虑到多样本学习的高成本和高延迟研究团队还探索了批量处理查询的影响。在这里批量查询指的是在单次 API 调用中处理多个查询。
3 实验结果
3.1 多样本上下文学习性能评估
总体表现包含近 2000 个示例的多样本上下文学习在所有数据集上均优于少样本学习。随着示例数量的增加Gemini 1.5 Pro 模型的性能呈现出持续的对数线性提升而 GPT-4o 的表现则较不稳定。 数据效率研究测量了模型的上下文学习数据效率即模型从示例中学习的速度。结果表明Gemini 1.5 Pro 在绝大部分数据集上显示出比 GPT-4o 更高的上下文学习数据效率意味着它能够更有效地从示例中学习。 3.2 批量查询的影响
总体表现在选择最优示例集大小下的零样本和多样本情境中将多个查询合并为一次请求不会降低性能。值得注意的是在零样本场景中单个查询在许多数据集上表现较差。相比之下批量查询甚至可以提高性能。 零样本场景下的性能提升对于某些数据集如 UCMerced批量查询在零样本场景下显著提高了性能。研究团队分析认为这主要归因于领域校准 (domain calibration)、类别校准 (class calibration) 以及自我学习 (self-ICL)。 3.3 成本和延迟分析
多样本上下文学习虽然在推理时需要处理更长的输入上下文但通过批量查询可以显著降低每个示例的延迟和推理成本。例如在 HAM10000 数据集中使用 Gemini 1.5 Pro 模型进行 350 个示例的批量查询延迟从 17.3 秒降至 0.54 秒成本从每个示例 0.842 美元降至 0.0877 美元。 4 结论
研究结果表明多样本上下文学习能够显著提高多模态基础模型的表现尤其是 Gemini 1.5 Pro 模型在多个数据集上表现出持续的性能提升使其能够更有效地适应新任务和新领域而无需传统的微调。
其次批量处理查询可以在相似甚至更好的模型表现的同时降低推理成本和延迟显示出在实际应用中的巨大潜力。
总的来说吴恩达团队的这项研究为多模态基础模型的应用开辟了新的路径特别是在快速适应新任务和领域方面。
THE END !
文章结束感谢阅读。您的点赞收藏评论是我继续更新的动力。大家有推荐的公众号可以评论区留言共同学习一起进步。