当前位置:

人工智能

前馈神经网络(FFN)在 Transformer 中有什么作用?
176 阅读
什么是损失函数(Loss)?
157 阅读
什么是 Self-Attention?
141 阅读
为什么要使用多头注意力(Multi-head Attention)?
144 阅读
大模型基础面试题:什么是 Attention 机制?
102 阅读
大模型基础面试题:什么是 Prompt?为什么提示词能影响模型回答?
160 阅读
大模型基础面试题:什么是 Embedding?
160 阅读
大模型与传统机器学习模型的区别是什么?
112 阅读
为什么 Transformer 能取代 RNN?
139 阅读
什么是 Transformer 架构?
157 阅读
大模型基础面试题:什么是预训练?
148 阅读
什么是参数量,比如7B、13B是什么意思?
134 阅读
大模型中的“泛化(Generalization)”是什么?
170 阅读
大模型中的“温度(Temperature)”是什么?
135 阅读
大模型中的“对齐(Alignment)”是什么?
139 阅读
什么是大语言模型(LLM)?.docx
147 阅读
大模型中的“上下文窗口(Context Window)”是什么?
143 阅读
大模型中的“GRPO(Generative Rejection Preference Optimization)”是什么?
148 阅读
大模型中的“Scaling(扩展规律)”是什么?
145 阅读
大模型中的“MOE(Mixture of Experts)”是什么?
110 阅读
大模型中的“噪声(Noise)”是什么?
122 阅读
大模型中的“软标签(Soft Label)”是什么?
149 阅读
大模型中的“SFT”是什么?
130 阅读
大模型中的“RAG(Retrieval-Augmented Generation)”是什么?
138 阅读