巧乐之   文章
25-05-14T13:17:11

信息技术 - 片段

美商务部叫停「AI扩散规则」藏杀机!英伟达市值再破3万亿

与此同时,他们又出台了加强全球半导体出口管制的新措施,这些限制可谓是又准又狠。具体包括以下三点:
1. 发布指导意见,在世界任何地方使用华为AI芯片,都违反美国出口管制。 
2. 发布指导意见,警告公众当美国AI芯片被用于训练/推理中国AI模型时的潜在后果。
3. 向美国公司发布关于如何保护供应链免受转移策略影响的指导意见。

投入数亿美元的大模型“对齐”,脆弱得像饺子皮

图灵奖得主、人工智能三巨头之一的约书亚·本吉奥(Yoshua Bengio)曾说过:“人工智能对齐不仅是技术问题,也是伦理和社会问题。如果一个负责应对气候变化的AI得出‘消灭人类是最有效解决方案’的结论,我们就必须确保它不会这么做。”

Manus“翻车”,下一个DeepSeek还有多远?

对于Manus来说,其口碑则在一天内就经历了戏剧性的反转。有测试者表示,测试期可能存在资源不足的问题,一个任务代理需要花费数小时,也会出现错误操作。上海某创投机构的一位AI投资人向《中国新闻周刊》透露,Manus本质上是一个较为成熟、操作性较强的智能体,不开源反而使用自媒体爆发式宣传、邀请码饥饿营销等方式造势,“很败路人好感”。事实上,它仍基于底层大模型调用工具来实现每一个具体指令,也就是说,其在模型能力方面没有突破,只是将若干工作流封装起来形成了产品级的应用。

多位受访者指出,模型能力仍是AGI的基石,在大模型中没解决的问题,智能体以及以后的AGI也绕不开。其中最显著的当数模型“幻觉”。幻觉是指大模型在缺乏真实依据的情况下,会生成错误甚至完全虚构的内容。使用大语言模型时,除了前述的时间理解问题外,用户还经常会遇到大模型编造参考文献、伪造数据的现象。多模态模型中则会出现视频内容明显违反物理规律等问题。

“大语言模型倾向于编造一些东西,而且通常表现得信心满满。”美国佐治亚理工学院理论计算机科学学院教授桑托什·温帕拉专注于AI幻觉研究,他向《中国新闻周刊》表示,各种大语言模型在参考文献方面犯错的概率为30%—90%。目前幻觉产生的机理还不明晰,一个根本原因可能是,大语言模型通过压缩数据来工作,在构建数据之间的关系时必然会丢失一些信息,在重建时就可能因为缺少细节而给出完全偏离主题的答案。(信心时概率,在该犹豫的时候信心满满,这是丢弃了概率信息,这是量子计算模型可以考虑承接的部分——编者注)

腾讯元宝连夜修改用户协议!“霸王”条款冲上热榜,你的内容到底谁说了算?

游云庭则表示,根据我国《著作权法》的规定,人创作的内容才受著作权保护,所以总体上说,人工智能输出的内容版权属于公有领域。

实际上,别说 AI,现在二次元改图或者仿写小说,原创者的权益都很难被保护。有业内人士指出,除了很低劣粗制滥造的抄袭,高级一点都很难被认定侵权。

为什么同一个汉字,有两个编码?比如说这两个字:行 ⾏

在AI模型中,温度参数(temperature)是一个控制生成文本随机性的关键因素。它主要影响模型生成结果的多样性。

高温度值:增加生成结果的随机性和多样性,但可能增加幻觉的可能性。
低温度值:减少生成结果的随机性,使生成的文本更加确定性和可预测,从而减少幻觉的可能性。