大模型是一张模糊的图片   |Ted Chiang

本文作者 Ted Chiang 提出了一个不同但深刻的视角。
Chiang警告我们,即便AI的精度再高,拍摄出来的图像也始终会带有模糊和失真。
Chiang将AI输出的内容类比成JPEG格式的图像,这种图像在压缩时会损失很多细节,尽管表面看起来清晰,但实际上隐藏了许多压缩导致的信息损失与细节扭曲。
大模型虽然能够迅速、合理地回答问题,看似无所不知,但实际上,它的知识输出是一种“有损压缩”的产物。
大模型通过巨量数据训练时,会将复杂信息转化成更易处理的统计规律和概率分布。在这一过程中,信息的细节、上下文关联性、准确性等必然有所损失。
这意味着,大模型每次调用所生成的答案,尽管看似正确合理,却只是对真实信息的模糊再现,而非精确复制。
因此,我们在使用大模型生成内容时必须保持谨慎。虽然它的表现令人惊叹,但它所提供的信息并非绝对真实可靠,而是经过压缩和模糊处理后的“近似真相”。我们必须认识到,大模型是一种精巧但有缺陷的工具,而不是可靠的真理制造机。

THE END
分享
评论 抢沙发

请登录后发表评论

    暂无评论内容