🚀 产业动态
OpenAI 发布网络安全专用模型,与 Anthropic Mythos 正面竞速
OpenAI 向少数用户开放了一款专注于发现软件安全漏洞的新型 AI 模型,该模型旨在更精准地识别代码中的脆弱点。此前竞争对手 Anthropic 于一周前宣布限量发布 AI 安全工具 Mythos,两家公司在 AI 网络安全赛道上的竞争愈发激烈。OpenAI 此举被广泛视为对标 Anthropic Mythos 的战略回应,旨在争夺”AI 防御者”市场的先发优势。
[来源:Bloomberg] 查看详情 | 2026-04-14
Anthropic Mythos 模型获加拿大 AI 部长公开点赞
加拿大负责人工智能的部长 Evan Solomon公开赞扬了 Anthropic 限制性发布 Mythos 模型的做法,称”先与防御者合作、而非广泛发布,是负责任的路径,也能让保护关键系统的人先行一步”。此前,Anthropic 选择了仅向部分企业开放测试的谨慎策略,Solomon 表示这一决策值得肯定,反映了 AI 安全领域的自律趋势。
[来源:Bloomberg] 查看详情 | 2026-04-14
美国财政部寻求获取 Anthropic Mythos 模型以挖掘漏洞
据知情人士透露,美国财政部的技术团队正在寻求获取 Anthropic Mythos AI 模型的访问权限,以便开始主动搜寻系统中潜在的安全漏洞。财政部作为全球最重要的金融机构之一,其对 Mythos 的兴趣表明,美国政府机构正在认真考虑利用前沿 AI 模型来强化自身网络安全防御体系。
[来源:Bloomberg] 查看详情 | 2026-04-14
欧洲央行行长拉加德肯定 Anthropic 限制 Mythos 发布的审慎做法
欧洲央行行长克里斯蒂娜·拉加德(Christine Lagarde)公开赞扬了 Anthropic 对其最新 AI 模型 Mythos 实施限制性发布策略的决定,并呼吁对 AI 技术建立更广泛的防护机制。拉加德同时表达了对 AI 系统潜在风险的担忧,警告若不加以适当管控,AI 可能对金融系统和经济稳定带来冲击,这是迄今为止来自欧洲最高层级监管者对 AI 安全问题最明确的表态之一。
[来源:Bloomberg] 查看详情 | 2026-04-14
银行业警告:Anthropic Mythos 驱动的 AI 网络攻击或造成灾难性后果
网络安全专家和法律分析师警告称,Anthropic 的 Mythos AI 模型——多家公司及网络安全专家已发出警告,认为该模型可能极大提升复杂网络攻击的能力——对拥有遗留技术系统的银行业构成了重大挑战。银行等金融机构仍在使用大量老旧系统,在应对由 AI 驱动的新型攻击手段时显得尤为脆弱,行业担忧 Mythos 一旦被恶意利用,将引发前所未有的安全危机。
[来源:Reuters] 查看详情 | 2026-04-14
Google DeepMind 发布 Gemini Robotics ER-1.6:赋予机器人更强物理推理能力
Google DeepMind 正式发布 Gemini Robotics ER-1.6,这是其面向机器人领域的最新多模态大模型。该版本在 ER-1 基础上大幅提升了”具身推理”(Embodied Reasoning)能力,使机器人能够更准确理解物理环境、推理空间关系并完成复杂的长时序操作任务。DeepMind 同步发布了相关研究论文和技术博客,展示了 ER-1.6 在真实家居和工业场景中的实验结果,新模型被认为是将 AI 从虚拟世界推向真实物理世界的关键一步。
[来源:Google DeepMind Blog] 查看详情 | 2026-04-14
Boston Dynamics 与 Google DeepMind 合作教 Spot 机器狗学会”推理”
Boston Dynamics 与 Google DeepMind 联合宣布,双方合作将 DeepMind 的 Gemini Robotics ER-1.6 模型集成至 Spot 四足机器人,赋予其实时环境推理和决策能力。此次合作将 DeepMind 的 AI 大脑与 Boston Dynamics 的顶级硬件平台相结合,Spot 未来有望在巡检、救援和复杂地形作业中实现真正的自主运行,标志着机器狗从”遥控工具”向”智能体”的重要跨越。
[来源:IEEE Spectrum] 查看详情 | 2026-04-14
Google DeepMind 研究员披露:六大”陷阱”可轻易劫持 AI Agent
Google DeepMind 安全研究团队发布重磅研究,披露了当前 AI Agent 在生产环境中面临的六种关键攻击向量(” traps”),这些攻击可在真实互联网环境下实现对 AI Agent 行为的劫持、误导甚至破坏。研究涵盖了提示注入(Prompt Injection)、工具调用误导、记忆污染等主流攻击手法,并提供了对应防御建议。该研究首次系统性地将 Web 攻击技术与 AI Agent 安全问题结合,被视为 2026 年 AI 安全领域最重要的开源研究之一。
[来源:SecurityWeek] 查看详情 | 2026-04-14
Google AI 水印系统被指可被逆向破解,AI 生成内容辨识面临新挑战
The Verge 报道称,Google 此前为区分 AI 生成内容与人类创作内容而设计的 AI 水印(Watermarking)系统被发现存在安全漏洞,外部开发者已成功实现对该系统的逆向工程破解。这意味着攻击者可绕过水印检测,将 AI 生成内容伪装为人类作品。该发现对 Google 正在推动的 AI 内容溯源生态构成直接冲击,也再次引发关于 AI 生成内容监管边界的广泛讨论。
[来源:The Verge] 查看详情 | 2026-04-14