- 8月 AGI技术月报 上篇
- LLM做Sentence Embedding的通用方案
- 透过机器狗狗眼看世界
- 强哥的Chisel基础课(上)
- FlashAttention fp8实现(ada架构)
- 开源模型 Function Call 方案梳理
- Megatron-LM训练的大模型如何分组?
- 模型大一统!统一PGMs, Kernel SVMs, MLP与KAN调和多项式网络
- 具身智能赛道,如何评价一家好的机器人创业公司?
- 创业一年,人间三年
- TensorRT-LLM 中的 Hopper Mixed GEMM 的 CUTLASS 3.x 实现讲解 学习笔记
- 安卓端侧大模型MLC-LLM部署全攻略:以InternLM2.5-1.8B为例
- Alignment下一站:合成数据
- LLM 推理加速技术 —— GPTQ 量化技术演进
- 浅析GEMM优化multistage数怎么算
- flux.1作为最强的文生图模型,本地应该如何最快,最轻量化的运行?
- 简单回顾一下机器视觉领域推理加速技术
- 用于智算场景的Scale-up互联技术分析
- 打造 LLMOps 时代 Prompt 数据驱动引擎
- Genie!能模拟人类工程师思考和行动
- 7B模型挑战Transformer,长序列处理再升级
- 论文荣登计算机体系结构顶会ISCA,芯片架构成为边缘AI最佳并行计算选择
- MIT研究揭示AI训练数据来源受限的趋势
- LLM端侧部署新范式T-MAC开源
- Meta CRAG KDD Cup 2024竞赛方案:一种 Hybrid RAG实现策略
- 摩根士丹利人形机器人产业链最值得关注的15家公司
- 结合具体工作讨论类CLIP模型的机器人应用
- WiredTiger Introduction
- PolarDB-X 存储引擎核心技术 | Lizard B+tree 优化
- DiT类模型纵评-从DiT到SD3到Flux
- 大型语言模型时代的存储系统
- Nvidia DLS for AI Enterprise 和 vGPU 的部署和配置:分步指南
- 我们在教授成千上万数据科学家 LLM 时学到的经验
- 大模型如何推理?先来仿真一下
- Decode优化-Lean Attention
8月 AGI技术月报 上篇
8月 AGI技术月报 上篇
2024年9月13日修改
LLM做Sentence Embedding的通用方案
文章探讨了利用大型语言模型(LLM)进行句子嵌入的通用方案,强调了现有检索模型在主题检索通用性方面的不足。作者提出了直接使用 LLM 生成句子嵌入的方法,通过在输入前添加提示(Prompt),并以最后一个词的最后一层输出为嵌入表示。文章引用了两篇论文,分别提出了伪装的思维链(Pretended CoT)和知识增强(Knowledge Enhancement)技术,以及使用元任务(meta-tasks)引导模型生成多维表示。实验结果显示,该方法在多数数据集上与无监督微调的自编码模型相当,且具有更高的通用性。模型大小对结果的影响随着模型规模从 350m 增加到 1.3b 而显著,但在 13b 以上时,性能提升减缓。在主题分类实战中,作者使用了科大讯飞的长文本分类数据集,尝试了不同的 Prompt 设计,但效果有限。在句对匹配任务中,LLM 的初始准确率为 0.74,表现不俗,但仍有改进空间。文章还提供了代码实现,展示了如何使用 LLM 生成句子嵌入。
附件不支持打印