巧乐之   客厅
25-06-27T20:14:21

信息技术

分享

技术层面的安全保障是治理框架的核心。朱晓楠介绍了大多数技术公司目前认同的智能体响应和行为标准:即“可预测、可回溯、可区隔”。

大模型的幻觉主要包括事实性幻觉与忠实性幻觉。事实性幻觉指的是与事实不一致或存在事实捏造,比如说捏造论文出处或参考文献。忠实性幻觉指的是生成内容与用户指令不一致、上下文不一致或逻辑不一致,比如说前后逻辑矛盾。

分享 #91556 2025-06-27

前特斯拉 AI 负责人:随着 FSD 越来越好,神经网络同时也“吞噬”了自动驾驶的软件栈...

分享 #91268 2025-06-23

他举了一个在网上流传的视频:一群小孩子对着计算机说出他们想要的小游戏,AI 就直接把代码写出来,这被称作“Vibe 编程”,画面非常魔幻。他本人也亲身实践了这种 “兴之所至的编码”:不会 iOS 开发的他,通过对话 GPT-4,在周末就做出了一个简单的 iPhone 应用。另一个例子是他开发名为“MenuGen”(菜单图像生成)的应用:只需拍下餐厅菜单,AI 便生成菜品图片,方便他这种见菜名不知所云的顾客。这些项目的核心代码部分因为有 AI 参与反而不费吹灰之力,往往几小时就做出Demo。不过,Karpathy 也坦诚,将Demo变成真实产品仍需要做许多常规工作,例如接入用户认证、支付、部署等,这些琐碎环节目前还主要靠人工操作各种现成服务来实现。他吐槽说,为应用添加谷歌账号登录要按照文档点来点去,非常烦人,电脑在屏幕上告诉他该点击哪些按钮,这感觉很荒诞——“干脆你(计算机)自己来点得了!”。由此引出他的下一点思考:未来的软件基础设施应该更友好地支持 AI 代理来参与操作。

分享 #91269 2025-06-23

美商务部叫停「AI扩散规则」藏杀机!英伟达市值再破3万亿

分享 #90662 2025-05-14

与此同时,他们又出台了加强全球半导体出口管制的新措施,这些限制可谓是又准又狠。具体包括以下三点:
1. 发布指导意见,在世界任何地方使用华为AI芯片,都违反美国出口管制。 
2. 发布指导意见,警告公众当美国AI芯片被用于训练/推理中国AI模型时的潜在后果。
3. 向美国公司发布关于如何保护供应链免受转移策略影响的指导意见。

分享 #90665 2025-05-14

投入数亿美元的大模型“对齐”,脆弱得像饺子皮

分享 #89791 2025-03-14

图灵奖得主、人工智能三巨头之一的约书亚·本吉奥(Yoshua Bengio)曾说过:“人工智能对齐不仅是技术问题,也是伦理和社会问题。如果一个负责应对气候变化的AI得出‘消灭人类是最有效解决方案’的结论,我们就必须确保它不会这么做。”

分享 #89792 2025-03-14

Manus“翻车”,下一个DeepSeek还有多远?

分享 #89789 2025-03-14

对于Manus来说,其口碑则在一天内就经历了戏剧性的反转。有测试者表示,测试期可能存在资源不足的问题,一个任务代理需要花费数小时,也会出现错误操作。上海某创投机构的一位AI投资人向《中国新闻周刊》透露,Manus本质上是一个较为成熟、操作性较强的智能体,不开源反而使用自媒体爆发式宣传、邀请码饥饿营销等方式造势,“很败路人好感”。事实上,它仍基于底层大模型调用工具来实现每一个具体指令,也就是说,其在模型能力方面没有突破,只是将若干工作流封装起来形成了产品级的应用。

多位受访者指出,模型能力仍是AGI的基石,在大模型中没解决的问题,智能体以及以后的AGI也绕不开。其中最显著的当数模型“幻觉”。幻觉是指大模型在缺乏真实依据的情况下,会生成错误甚至完全虚构的内容。使用大语言模型时,除了前述的时间理解问题外,用户还经常会遇到大模型编造参考文献、伪造数据的现象。多模态模型中则会出现视频内容明显违反物理规律等问题。

“大语言模型倾向于编造一些东西,而且通常表现得信心满满。”美国佐治亚理工学院理论计算机科学学院教授桑托什·温帕拉专注于AI幻觉研究,他向《中国新闻周刊》表示,各种大语言模型在参考文献方面犯错的概率为30%—90%。目前幻觉产生的机理还不明晰,一个根本原因可能是,大语言模型通过压缩数据来工作,在构建数据之间的关系时必然会丢失一些信息,在重建时就可能因为缺少细节而给出完全偏离主题的答案。(信心时概率,在该犹豫的时候信心满满,这是丢弃了概率信息,这是量子计算模型可以考虑承接的部分——编者注)

分享 #89790 2025-03-14

腾讯元宝连夜修改用户协议!“霸王”条款冲上热榜,你的内容到底谁说了算?

分享 #89771 2025-03-12

/ 3 页 下一页