第523章 巴别塔(4827)(1 / 5)

投票推荐 加入书签 留言反馈

  第523章 巴别塔(4827)
  打破了语言矩阵!?
  谢尔盖布林打了个激灵,视线马上重新回到了屏幕上密密麻麻的曲线图上。
  抢过德米斯哈萨比斯手中的鼠标,谢尔盖布林不停地向下滑动着鼠标滚轮。
  大周语、普鲁士语、高卢语、盎语、倭语、大毛语、西拜语、葡图佳语、意呆利语、巴拉特语……
  超过三百张曲线对比图无一不是在说明这样一个事实——
  juzi2.5十五种语言的各种性能曲线,几乎全都在同一水平线之上!
  无论是理解和记忆,推理与认知、自主规划和决策、自我优化与学习、情绪与社交模拟、工具调用……
  除了生成和表达存在较大的波动值之外,其他几乎所有能力的性能,尤其是推理和认知,在各种语言环境下,几乎是完全一样的!
  连百分之一的差距都没有!
  这怎么可能!?
  这完全违背了大模型的原理!
  “是不是通过参数调整,把所有语言的性能进行了拉齐操作?或者本身先翻译成盎语后,用盎语思考,再翻译回思维链?”
  谢尔盖布林感觉自己瞬间头顶和腋下就冒出了汗。
  人工智能,所谓智能,就是思考,而思考,就需要语言,无论人还是计算机,都不可能脱离语言来思考。
  大模型ai更是如此。
  这些大模型,可能掌握了全世界所有的语言,但使用不同语言进行思考时,大模型的在不同方面的性能表现都是不同的。
  一来,是因为不同语言训练资料的多寡和质量的差异。
  在当今的互联网时代,盎语语料当然是最丰富的,占到互联网整体资料量的百分之八十以上。
  alphazero在使用盎语进行理解和推理的时候,正确率相对其他语言会高5%以上。
  二来,各种不同的语言本身就存在不同的“表达偏重”和“性能差异”。
  比如普鲁士语,在结构推理方面的速度比盎语更快,西拜语则在感性类语料中优势明显。
  而大模型在一次思考回路中,通常使用单一语言构建其推理路径。
  虽然它可以在输入阶段识别多种语言,在输出阶段进行翻译,但其内在的认知张量结构,仍旧倾向于使用输入语言所构建的token空间进行语义演算。
  说人话,就是大模型在思考问题的时候,在一个思考回路中,基本只会使用一种语言来思考,你使用盎文,它就用盎文思考,你使用周文,它就用周文思考。
  就算它在回复中掺杂了其他语言,也只是一种资料引用或人类写作风格的模仿,而不是真正的跨语种思考。
  橘子大模型又怎么可能使用不同语言思考的时候,各方面性能都差不多的?
  这完全不符合常理!
  唯一的可能性,就是对各种语言的思考性能进行了拉齐操作。
  说白了,就是一个木桶,以最短的那个板为基准,把高的板子都砍了。 ↑返回顶部↑

章节目录