TAG:网络安全
Anthropic创始人确认向特朗普政府介绍新AI模型Mythos
Anthropic 联合创始人杰克·克拉克确认公司曾向特朗普政府简要介绍新 AI 模型 Mythos。该模型因具备强大网络安全能力暂未公开发布。尽管与国防部因“供应链风险”与军用限制产生合同争议,Anthropic 仍强调与政府合作的重要性,并讨论 AI 对就业与高等教育的潜在影响及多学科人才的价值。
中国信通院启动多模态智能体安全防护能力测试 蚂蚁数科DTClaw首批全项通过
本文报道了中国信通院针对OpenClaw(龙虾)类AI智能体产品启动的安全防护能力评测。蚂蚁数科旗下的DTClaw平台凭借其全链路安全防护能力,成为国内首批全项通过测评的产品。文章详细介绍了DTClaw在沙箱隔离、漏洞检测及提示注入防护等核心领域的优异表现,及其独创的CARLI五维防护模型。此次评测不仅验证了DTClaw的技术实力,也为AI智能体的安全合规落地与规模化应用提供了权威参考。
开源监控平台 Grafana 曝提示词注入漏洞,黑客可诱导 AI 助手泄露企业敏感数据
本文详细介绍了开源监控平台 Grafana 披露的“GrafanaGhost”安全漏洞。该漏洞利用间接提示注入技术,可能误导 AI 助手将企业敏感数据通过 URL 参数泄露至外部服务器。尽管官方表示该漏洞并非零点击触发且已完成修复,但其揭示了 AI 集成功能面临的新型安全挑战。文章分析了漏洞原理及官方应对措施,并提醒用户及时更新版本以保障数据安全。
Node.js 因 AI 虚假报告“轰炸”宣布暂停发放安全赏金
由于 AI 生成的虚假和低质量漏洞报告激增,开源项目 Node.js 宣布暂停通过 HackerOne 平台发放现金奖励。这一决定反映了 AI 工具的大规模滥用正打破开源社区的平衡,海量无效报告严重消耗了志愿者的审核精力。Node.js 的困境并非个例,揭示了生成式 AI 时代下,传统开源激励机制在筛选高质量安全反馈方面面临的严峻系统性挑战。
英国金融监管机构紧急行动 严查Anthropic最新AI模型隐患
本文报道英国金融、网络安全等多部门联合开展紧急行动,针对Anthropic最新AI模型Claude Mythos Preview的安全风险展开评估,将向金融机构警示相关网络安全漏洞,同时提及美国此前已启动相关风险研讨,以及该AI模型超强漏洞探测能力可能带来的多重安全隐患。
英国金融监管机构紧急评估Anthropic新AI模型风险
英国金融监管机构正联合国家网络安全中心,紧急评估 Anthropic 最新 AI 模型 “Claude Mythos Preview” 可能带来的网络安全风险。该模型在测试中被发现存在数千个重大软件漏洞,涉及操作系统及网页浏览器等核心领域。英国央行及财政部将与金融机构展开专门通报会议,这体现了全球监管机构对 AI 技术安全性及金融体系稳定的高度重视。
人工智能技术引发金融行业高度
近日,Anthropic发布的超级AI模型Mythos引发全球金融圈震动。美国财政部与美联储紧急召集华尔街高管,应对该模型可能带来的网络安全挑战。Mythos具备自主识别并利用系统漏洞的能力,甚至能攻破浏览器读取敏感信息。目前,多国监管机构已介入,督促金融机构利用该模型强化防御,以应对新一代AI驱动的网络攻击风险。
Anthropic推出顶级AI安全模型,仅限科技巨头试用,网络安全ETF连涨6日;马斯克起诉OpenAI,要求罢免CEO奥尔特曼丨全球科技早参
本期“全球科技早参”聚焦多项重磅科技动态。Anthropic推出顶级AI安全模型“Mythos”,仅限科技巨头测试,旨在提升网络安全防御能力,带动相关ETF连涨。与此同时,马斯克起诉OpenAI,要求罢免CEO并恢复其非营利性质,引发业界广泛关注。英特尔宣布加入马斯克“Terafab”项目,发力AI算力,为其代工业务带来突破。SpaceX则详细披露了IPO计划,拟募资750亿美元,并为散户预留高比例股份。此外,苹果折叠屏iPhone有望在9月发布,提振消费电子市场信心。这些事件共同展现了AI、航天、网络安
Anthropic 推出强大 AI 模型 Mythos 仅限安全伙伴试用
Anthropic发布了其新一代“前沿模型”Mythos的预览版,被称为“迄今最强大”的AI模型。该模型通过“Project Glasswing”安全项目,仅限与特定安全伙伴合作,专注于网络安全任务。Mythos展现了卓越的编程和推理能力,在测试中发现了“数千个零日漏洞”,尤其在挖掘长期未被发现的“历史漏洞”方面潜力巨大。尽管功能强大,Anthropic严格限制其使用,以防恶意利用,并正与美国联邦官员探讨其在国家级关键系统中的应用。此举凸显了AI在提升网络安全防御能力方面的巨大潜力,同时也伴随着对技术滥用
国内首次发布AI红队!谋乐Elliot开创AI攻防新赛道
本文介绍国内数字安全企业谋乐科技首发AI红队及可自主进化的白帽智能体Elliot,剖析传统安全模式在AI时代的短板,详解Elliot核心能力与实战效果优势,同时披露行业首个人机攻防赛事“图灵之刃”启动信息,展现AI技术引领网络安全攻防变革的新方向。
应对AI技术赋能背后风险挑战 我国人工智能安全标准体系加速构建
随着AI技术广泛赋能各行各业,我国面临日益严峻的人工智能安全风险挑战,如近期Claude代码泄露和OpenClaw智能体漏洞导致的重大企业损失。为应对这些风险,我国正加速构建人工智能安全标准体系。全国网络安全标准化技术委员会已组建AI安全标准工作组,系统推进内生安全与数据基座、新形态与服务安全等领域的国家标准制定,并聚焦AI应用安全分类分级、未成年人应用安全指南等核心标准的落地,旨在前瞻性地构建完善的AI治理框架,确保AI技术的健康可持续发展。
超九成德国民众担忧AI深度伪造风险
德国民调显示超90%成年人担忧AI深度伪造技术风险,其中53%认为威胁极高。民众主要忧虑假新闻泛滥与就业冲击,近半数对AI未来持悲观态度。文章结合多国数据揭示深度伪造诈骗成本降低带来的安全挑战,探讨技术监管与社会应对的紧迫性。
OpenClaw再现高危漏洞 超17万实例存安全风险
360数字安全集团发现OpenClaw存在高危漏洞,影响全球超17万个实例。该漏洞可绕过权限控制窃取服务器敏感信息,凸显AI智能体领域的安全隐患。文章探讨了AI技术发展中的安全挑战及防护重要性。
AI独角兽Mercor遇袭 LiteLLM开源项目遭恶意代码入侵
AI独角兽Mercor证实其开源项目LiteLLM遭遇供应链攻击,恶意代码被植入并波及数千家企业。黑客组织TeamPCP和勒索组织Lapsus$均声称参与攻击,导致敏感数据泄露。文章分析了此次事件对AI基础设施安全的影响,并探讨了开源工具合规性的重要性。
警惕仿冒OpenClaw下载网站 安装文件需谨慎
工信部网络安全威胁和漏洞信息共享平台发布风险提示,提醒用户防范仿冒OpenClaw(俗称“龙虾”)下载网站和安装文件。这些恶意文件可能植入远程控制木马,导致系统受控、信息泄露等风险。文章列出了已知仿冒域名和安装包名称,建议用户通过可信渠道下载软件,谨慎点击不明链接。