LLM学习的「阶梯地图」(二)
出处:
mp.weixin.qq.com
当 Transformer 架构像一把钥匙打开深度学习的新大门,大语言模型(LLM)已从实验室走向产业落地。但对多数人而言,从基础概念到架构选型的学习之路,常像在参数森林里迷路 —— 哪些是必须掌握的核心原理?不同模型架构的取舍背后藏着怎样的逻辑? 本LLM系列文章选自腾讯云架构师技术同盟成员羚羊工业互联网股份有限公司 高级系统架构师 宋国磊。宋老师为开发者搭建了一条由浅入深的学习路径。 《LLM系列(四)神奇的数字27》讲述:国内外主流 LLMs(如 ChatGPT、Claude、DeepSeek 等)在被要求生成 1-50 之间的 “随机” 数字时,普遍倾向于选择 27。这一现象并非技术缺陷,而是模型在人类生成的文本数据上训练时,继承了人类的认知偏差 —— 人类在生成随机数时存在系统性偏好,27 因处于 “黄金地带”(既不明显如 1、10 等,也不无趣如 20、30 等),被认为更具 “随机感”的原理。