AI私塾/什么是缩放定律?
发表时间:2025年02月01日浏览量:
在人工智能(AI)跟深度进修(DL)范畴,缩放定律(Scaling Laws)指的是模子机能怎样随盘算量、参数范围跟数据量的增添而变更的法则。这些定律辅助研讨者懂得怎样进步AI机能,以及能否值得投入更多资本来练习更年夜的模子。 假如用“培养一棵树”的比方来懂得缩放定律,树的树根深度即为年夜模子的模子参数目;泥土营养为练习数据量,阳光能量为盘算资本,果实甜度为模子机能。当树根更深(模子参数目更年夜)、泥土更肥(练习数据量更年夜)、阳光更足(算力更强),果实会越来越甜(模子机能更强),且甜度晋升速率超越投入增加─直到碰到“玻璃天花板”,此时再增添投入,甜度增幅急剧放缓。 就像园林巨匠不会自觉寻求最高树木,AI工程师经由过程缩放定律寻觅“甜美点”:在算力估算内,找到使(机能晋升/资本耗费)比值最年夜的参数─数据─算力组合,这就是DeepSeek以算法解围而出的要害地点。