当前位置:

人工智能

L1 和 L2 正则你怎么选?它们各自的效果与风险是什么,工程里你是怎么权衡的。
128 阅读
样本量不够的时候你会怎么补?数据增强、半/自监督、迁移学习、先验约束、合成数据——你实际用过哪些,效果如何。
85 阅读
常见的数据归一化 标准化方式你怎么选?不同方案的差异点与适用场景讲清楚。
100 阅读
Topk 和 Topp 采样你怎么理解?两者差异在哪,哪些场景更可控?最好结合你做过的生成 推荐任务说。
128 阅读
模型上线之后,评估闭环怎么搭?灰度 AB 怎么跑?监控告警你怎么做,哪些指标最关键。.docx
104 阅读
NLP中你做的数据增强里,哪几种最稳?给出量化对比和背后的原因。
118 阅读
你做 CTR CVR CTCVR 联合建模时,ESMM ESMM2 是怎么推导与工程落地的?线上到底带来了什么收益。.docx
103 阅读
把 BN 讲透:原理是什么;训练期和推理期用的统计量有何不同;跟 LN、GN 比,分别什么时候用、怎么取舍。.docx
107 阅读
偏差和方差你怎么把握?结合你遇到的真实线上案例,怎么判断是高偏差还是高方差,各怎么治。.docx
109 阅读
Dropout 训练和推理阶段分别怎么用.docxDropout 训练和推理阶段分别怎么用、为什么这么用?跟 BN LN 放一起会有哪些相互影响,怎么摆放更稳。 给出一句话总结和详细解.docx
98 阅读
你实际用过哪些学习率策略?为什么要 warmup?拿一条你做过的收敛曲线说它起了什么作用,什么时候会失效。.docx
88 阅读
回归任务最后一层该怎么选激活?线性、Softplus、截断、还是直接做分布建模?按不同业务约束说说你的选择依据。.docx
124 阅读
为什么树模型一般不需要对特征进行标准化处理
113 阅读
为什么一般预测模型要对特征进行标准化处理
128 阅读
Kmeans和KNN有什么区别?Kmeans的k值如何选择?
148 阅读
GBDT、XGBoost、Random Forest、LightGBM分别是什么?它们的原理和区别是什么?
136 阅读
常见的聚类算法有哪些?如何评价聚类效果?
93 阅读
什么是梯度爆炸和梯度消失?它们的原因是什么?
164 阅读
什么是信息熵、信息增益和信息增益比?它们在机器学习中有什么作用?
113 阅读
神经网络常见的初始化方式有哪些
150 阅读
机器学习和深度学习怎么区别
112 阅读
什么是集成学习?它有哪些优点?
146 阅读
什么是Dropout?它的原理是什么?
116 阅读
常见的正则化方法有哪些?它们的原理和作用是什么?
96 阅读