当前位置:

人工智能

在 RAG 中,你如何选择 Embedding Model 嵌入模型,需要考虑哪些因素
167 阅读
在 RAG 应用中为了优化检索精度,其中的数据清洗和预处理怎么做
140 阅读
什么自查询?为什么在 RAG 中需要自查询
237 阅读
在 RAG 中,索引流程中的文档解析你们怎么做的
132 阅读
A2A 协议的工作流程是怎样的
191 阅读
如何进行 RAG 调优后的效果评估?请给出真实应用场景中采用的效果评估标准与方法
204 阅读
什么是 RAG?RAG 的主要流程是什么
175 阅读
什么混合检索?在基于大模型的应用开发中,混合检索主要解决什么问题
152 阅读
什么查询扩展?为什么在 RAG 应用中需要查询扩展
172 阅读
什么是 RAG 中的分块?为什么需要分块
167 阅读
RAG 的完整流程是怎么样的
166 阅读
A2A 协议有哪五大设计原则
156 阅读
AUC 到底在统计上代表什么?你怎么计算它,在线上业务里你如何解释“这次 AUC 提升”的含义。.docx
186 阅读
Transformer 里因果注意力的 Q K V 各从哪来?Mask 具体怎么实现。
241 阅读
为什么你在项目里会选 ResNet?从梯度传播、表示能力、参数 算力、迁移性几个维度讲讲你的工程化理由。
266 阅读
挑一次你觉得最有价值的“特征 损失”前向推导,完整讲讲从想法到落地的过程和收益。
224 阅读
你怎么看“多头注意力 + 强化学习”的组合?它的价值在哪,工程上会碰到什么难点。
215 阅读
YOLOv8 的结构你怎么拆解?训练与部署各自踩过哪些坑,你是怎么解决的。
217 阅读
Scaled DotProduct Attention 为啥要除以 √dk?如果不除会出什么数值或训练问题。
256 阅读
当负样本比例剧变时,AUC 可能怎么走?你会如何保证指标的稳定和可比
271 阅读
Paraformer 有什么优势、适用边界是什么?跟传统 CTC/Transducer 比,差别和取舍点在哪。
266 阅读
为什么要做 Label Smoothing.docx为什么要做 Label Smoothing?它怎么做,什么边界条件才适合,过度用会有什么坑。
192 阅读
L1 和 L2 正则你怎么选?它们各自的效果与风险是什么,工程里你是怎么权衡的。
291 阅读
样本量不够的时候你会怎么补?数据增强、半/自监督、迁移学习、先验约束、合成数据——你实际用过哪些,效果如何。
209 阅读