Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据

声明:本文来自于微信公众号 新智元(ID:AI_era),作者:新智元,授权站长之家转载发布。【新智元导读】训练数据的数量和质量,对LLM性能的重要性已经是不言

返回顶部