巧乐之   文章
25-03-14T09:46:10

信息技术 - 片段

Manus“翻车”,下一个DeepSeek还有多远?

对于Manus来说,其口碑则在一天内就经历了戏剧性的反转。有测试者表示,测试期可能存在资源不足的问题,一个任务代理需要花费数小时,也会出现错误操作。上海某创投机构的一位AI投资人向《中国新闻周刊》透露,Manus本质上是一个较为成熟、操作性较强的智能体,不开源反而使用自媒体爆发式宣传、邀请码饥饿营销等方式造势,“很败路人好感”。事实上,它仍基于底层大模型调用工具来实现每一个具体指令,也就是说,其在模型能力方面没有突破,只是将若干工作流封装起来形成了产品级的应用。

多位受访者指出,模型能力仍是AGI的基石,在大模型中没解决的问题,智能体以及以后的AGI也绕不开。其中最显著的当数模型“幻觉”。幻觉是指大模型在缺乏真实依据的情况下,会生成错误甚至完全虚构的内容。使用大语言模型时,除了前述的时间理解问题外,用户还经常会遇到大模型编造参考文献、伪造数据的现象。多模态模型中则会出现视频内容明显违反物理规律等问题。

“大语言模型倾向于编造一些东西,而且通常表现得信心满满。”美国佐治亚理工学院理论计算机科学学院教授桑托什·温帕拉专注于AI幻觉研究,他向《中国新闻周刊》表示,各种大语言模型在参考文献方面犯错的概率为30%—90%。目前幻觉产生的机理还不明晰,一个根本原因可能是,大语言模型通过压缩数据来工作,在构建数据之间的关系时必然会丢失一些信息,在重建时就可能因为缺少细节而给出完全偏离主题的答案。(信心时概率,在该犹豫的时候信心满满,这是丢弃了概率信息,这是量子计算模型可以考虑承接的部分——编者注)

腾讯元宝连夜修改用户协议!“霸王”条款冲上热榜,你的内容到底谁说了算?

游云庭则表示,根据我国《著作权法》的规定,人创作的内容才受著作权保护,所以总体上说,人工智能输出的内容版权属于公有领域。

实际上,别说 AI,现在二次元改图或者仿写小说,原创者的权益都很难被保护。有业内人士指出,除了很低劣粗制滥造的抄袭,高级一点都很难被认定侵权。

为什么同一个汉字,有两个编码?比如说这两个字:行 ⾏

在AI模型中,温度参数(temperature)是一个控制生成文本随机性的关键因素。它主要影响模型生成结果的多样性。

高温度值:增加生成结果的随机性和多样性,但可能增加幻觉的可能性。
低温度值:减少生成结果的随机性,使生成的文本更加确定性和可预测,从而减少幻觉的可能性。

万字解构“幻觉陷阱”:大模型犯的错,会摧毁互联网吗?

过去我们可能还有一种共识,虽然人们存在不同的价值观,但事实是唯一的。如今,人们对于事实的认定也已经变得模糊。在后真相时代,不仅存在价值观的差异,对“事实”本身也有了不同的理解。

此外,理性思维的败退也是一个重要因素。我认为基本有三个源流:
1.很多人质疑推理本身,认为所有推理都只是合理化的过程。
2.有人认为科学也只是一种“信仰”,是主观建构的。
3.还有人相信客观性是一种幻觉,不存在客观真理。

小心,AI开始胡说八道

在高频使用豆包、DeepSeek,以及OpenAI的o1等AI工具后,小昭的发现是,豆包的幻觉问题不算明显,语言相对平实;OpenAI的o1对中国国情不够熟悉,“国内素材没有那么充足”。而DeepSeek是其中最好用的工具,语言专业又生动,但DeepSeek编造细节的情况却是最严重的。