Skip to the content.

From 39 items, 18 important content pieces were selected


  1. Anthropic 发布自然语言自编码器以提升 AI 可解释性 ⭐️ 9.0/10
  2. Linux 内核严重’Dirty Frag’漏洞可无密码提权,主流发行版均无补丁 ⭐️ 9.0/10
  3. DeepMind 的 AlphaEvolve 智能体展示广泛的优化影响力 ⭐️ 8.0/10
  4. 巴西 Pix 支付系统面临维萨和万事达卡的竞争压力。 ⭐️ 8.0/10
  5. AI 垃圾内容侵蚀在线社区的真实性并加重审核负担 ⭐️ 8.0/10
  6. Mozilla 使用 Claude Mythos 加固 Firefox 安全性 ⭐️ 8.0/10
  7. 小米开源 OmniVoice:极简 TTS 支持 646 语种语音克隆 ⭐️ 8.0/10
  8. OpenAI Codex 推出 Chrome 扩展,实现代理在浏览器内执行任务 ⭐️ 8.0/10
  9. Triton v3.7.0 发布,新增 FP8 和缩放批量矩阵乘法支持 ⭐️ 7.0/10
  10. ShinyHunters 黑客攻击迫使 Canvas 学习管理系统在大学期末考试期间停机 ⭐️ 7.0/10
  11. 博客文章建议谨慎安装新软件以应对供应链攻击风险 ⭐️ 7.0/10
  12. Cloudflare 宣布裁员 20% ⭐️ 7.0/10
  13. 火人节的制图流程确保环境清理 ⭐️ 7.0/10
  14. Agents need control flow, not more prompts ⭐️ 7.0/10
  15. DeepSeek 4 Flash 推理引擎针对 Apple Metal 发布 ⭐️ 7.0/10
  16. OpenAI 升级语音模型:推出可控文本转语音及改进的语音转录 ⭐️ 7.0/10
  17. 工信部批准 6 GHz 频段用于 6G 技术试验 ⭐️ 7.0/10
  18. ChatGPT 新增“信任联系人”功能,可就自残风险通知亲友 ⭐️ 7.0/10

Anthropic 发布自然语言自编码器以提升 AI 可解释性 ⭐️ 9.0/10

Anthropic 发布了自然语言自编码器(NLA)和开源权重模型,这些工具能够将 Qwen、Gemma 和 Llama 等现有模型的内部激活转换为自然语言文本,从而推动了理解 AI 模型内部运作的研究。 此次发布为可解释性领域提供了一个前景广阔的新工具,允许研究人员对模型的内部状态生成自然语言解释,这可能有助于更好地理解、调试和控制不同架构的大语言模型。 自然语言自编码器由一个将激活编码为文本的“语言化器”模型和一个试图逆转此过程的“重构器”组成,但作者指出,训练目标本身并未约束解释文本必须是人类可读的或语义上准确的。

hackernews · instagraham · May 7, 17:54

背景: 自编码器是一种旨在通过将数据编码到潜在空间然后重构来学习数据高效表示的神经网络架构。在 AI 可解释性研究领域,研究人员致力于开发能够解释复杂模型内部计算和表示的工具,这通常被称为“模型理解”。开源权重模型是指其训练参数(权重)被公开发布的 AI 模型,允许研究界进行更广泛的审查和使用。

参考链接

社区讨论: 社区反应认为这是一个重要的进步,一位专家称之为“首个……似乎是一条通往模型理解的可行路径”的方法。然而,一个关键疑虑被提出:生成的文本是否真正反映了模型的内部“思考”,还是仅仅是听起来合理的内容,这引发了关于如何验证这些解释的疑问。

标签: #AI interpretability, #natural language autoencoders, #open-source AI, #model understanding, #Anthropic


Linux 内核严重’Dirty Frag’漏洞可无密码提权,主流发行版均无补丁 ⭐️ 9.0/10

安全研究员金贤宇公开披露了 Linux 内核中一个名为“Dirty Frag”的严重本地提权漏洞,其概念验证漏洞利用已于 2026 年 5 月 7 日在 GitHub 上公开,任何本地用户均可借此无需密码获得 root 权限。 此漏洞影响所有主流 Linux 发行版,包括 Ubuntu、RHEL 和 Fedora,导致数百万系统目前处于无保护状态,鉴于其高影响性和公开漏洞利用的存在,需要立即采取缓解措施。 该漏洞由两个缺陷链式组合而成:一个在 IPsec ESP 模块中(约自 2017 年起受影响),另一个在 RxRPC 协议模块中(自 2023 年起受影响),两者结合允许通过零拷贝 splice 路径对只读的页面缓存页执行写操作;建议的缓解措施是将 esp4、esp6 和 rxrpc 内核模块加入黑名单。

telegram · zaihuapd · May 7, 23:07

背景: Linux 内核使用“零拷贝”机制实现高效数据传输,即在文件 I/O 和网络等子系统之间传递页面引用而不实际复制数据。“splice”系统调用可以在文件描述符和管道之间移动数据,内核的页面缓存则将最近访问的文件数据存储在内存中。此漏洞利用了一个场景:在网络加密操作期间,缓存中的只读页面被错误地标记为可写,从而允许攻击者覆盖敏感的系统文件。

参考链接

社区讨论: 社区讨论指出,此漏洞的根本原因与先前的 Copy Fail 等漏洞相似,有用户认为过度依赖 AI 进行漏洞研究可能会阻碍发现此类复杂漏洞链所需的探索性思维。另有用户建议发行版应更加精简,默认只包含必要的内核模块,类似 Android 的 GKI 内核方法,以减小攻击面。讨论中还就导致写原语的具体漏洞组件进行了技术辩论。

标签: #linux kernel, #security vulnerability, #privilege escalation, #exploit, #zero-day


DeepMind 的 AlphaEvolve 智能体展示广泛的优化影响力 ⭐️ 8.0/10

DeepMind 发布了关于 AlphaEvolve 的一年进展更新,展示了其由 Gemini 驱动的进化编码智能体在跨多个复杂领域设计先进算法方面的扩展影响力。 AlphaEvolve 证明,精心设计的问题环境对于 AI 智能体在复杂的真实世界优化任务中取得高影响力成果至关重要,为未来 AI 驱动的科学发现树立了先例。 该智能体结合了大语言模型(特指 Gemini)和进化算法,通过迭代操作来生成、评估和演化针对预定义计算挑战的代码解决方案。

hackernews · berlianta · May 7, 15:02

背景: 进化算法是受生物进化启发的优化方法,利用变异和选择等过程在复杂问题空间中寻找解决方案。编码代理是一种可以自主编写、修改和测试软件代码以实现目标的 AI 系统。AlphaEvolve 代表了这些理念的融合,在一个进化框架内使用大语言模型作为核心引擎来设计算法。

参考链接

社区讨论: 社区讨论强调了两个主要观点:承认其在定义明确的问题上取得了令人印象深刻的专注成果,同时提醒成功在很大程度上取决于精心设计的评估环境,而不仅仅是大语言模型的能力。另一个受关注的观点是,外界认为 DeepMind 优先考虑此类基础性研究,而不是竞争对手所追逐的商业编码工具。

标签: #AI, #coding agents, #evolutionary algorithms, #DeepMind, #software engineering


巴西 Pix 支付系统面临维萨和万事达卡的竞争压力。 ⭐️ 8.0/10

巴西的国家即时支付系统 Pix 正面临来自全球银行卡网络维萨和万事达卡的激烈竞争压力,其中万事达卡巴西公司首席执行官公开质疑央行在监管市场的同时参与市场竞争的公平性。 这场冲突凸显了国家金融基础设施项目与成熟的全球支付公司之间的根本性紧张关系,可能为新兴经济体如何创建替代主导性私营支付轨道的自主系统树立先例。 Pix 是由巴西央行运营的即时支付系统,而维萨和万事达卡是收取交易手续费的私营营利性网络;核心争论在于监管机构是否能同时成为公平的市场竞争者。

hackernews · wslh · May 7, 17:42

背景: Pix 于 2020 年 11 月由巴西央行推出,旨在促进个人、企业和政府实体之间免费、即时、全天候的数字支付,极大地降低了交易的成本和摩擦。该系统借鉴了印度的统一支付接口(UPI)经验,已被广泛采用,通过提供一种廉价的公共替代方案,取代了传统的基于卡的支付和银行票据(Boleto)支付,成为巴西金融科技生态系统的基石。

参考链接

社区讨论: 社区讨论强烈支持 Pix,用户称赞其革命性影响,因为它提供了廉价、即时的转账,并通过避免卡网络收取的商户费用来促成折扣。讨论中还反复出现地缘政治叙事,将 Pix 视为巴西和欧盟等国家减少对美国控制支付系统依赖的更广泛运动的一部分,同时也引发了关于央行同时扮演监管者和市场参与者是否合适的争论。

标签: #payment systems, #fintech, #regulation, #Brazil, #competition


AI 垃圾内容侵蚀在线社区的真实性并加重审核负担 ⭐️ 8.0/10

一篇引发广泛讨论的文章详细阐述了激增的 AI 生成内容如何通过压垮版主、稀释人际互动以及营造一个越来越难以找到真实交流的环境来损害在线社区。 这一趋势威胁着在线社区的核心价值——真实的人际连接与共享的交流——并可能迫使这些平台在审核方式乃至整体结构上发生根本性转变以求存续。 社区版主报告了巨大的运营负担,一个例子指出每月需封禁约 600 个 AI 内容创作者账户,产生了大量额外成本和工作量。此外,AI 生成的评论正变得与人类编写的无法区分,甚至能欺骗其他用户。

hackernews · thm · May 7, 18:46

背景: “AI 垃圾内容”一词指的是大批量生产、低质量的 AI 生成内容,其优先考虑产出数量和速度,而非意义或原创性。它的泛滥得益于生成式 AI 工具,这些工具使得创建文本、图片和评论变得轻而易举,通常用于垃圾信息发送、刷取积分或隐蔽广告等目的。

参考链接

社区讨论: 讨论揭示了社区管理者和用户深切的担忧。情绪从担心无法赢得对抗 AI 垃圾信息的战斗,到一种更顺其自然的看法,即这种压力可能讽刺地将人类推回线下互动。许多人倡导回归基于信任的小型在线空间。

标签: #AI ethics, #online communities, #content moderation, #generative AI, #internet culture


Mozilla 使用 Claude Mythos 加固 Firefox 安全性 ⭐️ 8.0/10

Mozilla 利用 Claude Mythos Preview 人工智能模型识别并修复了 Firefox 中的数百个安全漏洞,其每月修复的漏洞数量从平均 20-30 个激增至 2026 年 4 月的 423 个。 这证明了人工智能在关键开源软件实用化、大规模安全加固方面取得了重大突破,有可能改变漏洞检测的经济性和有效性。 该人工智能引导技术成功定位了深层缺陷,包括有超过 20 年历史的漏洞,而许多由人工智能生成的利用尝试则被 Firefox 现有的纵深防御措施所阻止。

rss · Simon Willison · May 7, 17:56

背景: Claude Mythos Preview 是 Anthropic 最强大的前沿人工智能模型,因其先进的网络安全能力而正式发布。此前,向开源项目提交的人工智能生成漏洞报告通常是低质量的“垃圾”,给维护者带来高昂的验证成本,但模型能力的提升和引导技术的改进为 Mozilla 改变了这一局面。

参考链接

社区讨论: 社区评论中有人对这种人工智能驱动的漏洞修复的可持续性表示怀疑,认为这是一次性的营销驱动行为而非永久性的工作流程变革。另有评论提醒不要将“缺陷”与经过验证的安全“漏洞”混为一谈,并指出发现的问题主要影响 Firefox 的 C++ 代码库。

标签: #AI, #cybersecurity, #software-vulnerability, #open-source, #Mozilla


小米开源 OmniVoice:极简 TTS 支持 646 语种语音克隆 ⭐️ 8.0/10

小米开源了 OmniVoice 多语言语音克隆 TTS 模型,该模型采用极简双向 Transformer 架构,在 646 种语言上实现了最先进的性能。基于 50 个开源数据集的 58 万小时训练数据,训练速度达 10 万小时/天,PyTorch 推理速度达 40 倍实时。 这次开源发布提供了一个高性能的 TTS 模型,支持广泛的语言,能够推动语音克隆技术发展,并为多语言 AI 应用的研究人员和开发者带来益处。其效率和质量超越商用系统,是 AI 社区的重要资源。 该模型使用全码本随机掩蔽和大语言模型预训练参数来提升效率和可懂度,并支持跨语言克隆、自定义音色适配、带噪适配和发音纠正等功能。训练、推理代码及模型权重均已开源。

telegram · zaihuapd · May 7, 10:06

背景: 语音克隆和文本转语音(TTS)是人工智能技术,用于从文本生成类似人类的语音,通常使用深度学习模型。双向 Transformer(如 BERT)是神经网络架构,能够双向处理输入序列以获得更好的上下文理解。开源这类模型促进了 AI 领域的协作、创新和更广泛的可及性。

参考链接

标签: #TTS, #voice-cloning, #multi-language, #open-source, #AI


OpenAI Codex 推出 Chrome 扩展,实现代理在浏览器内执行任务 ⭐️ 8.0/10

OpenAI 为其 Codex AI 代理推出了一个 Chrome 扩展,使其能够在用户的浏览器内操作已登录的网站,执行页面导航和数据输入等任务。 这极大地扩展了 AI 编程代理在浏览器自动化方面的能力,有望简化涉及网页界面的复杂开发和测试工作流程。 该扩展在后台独立的标签组中运行,不干扰用户当前的工作,并且支持跨多个标签页并行执行任务以提高效率。

telegram · zaihuapd · May 8, 04:17

背景: Codex 是 OpenAI 的 AI 驱动编码助手,旨在自动化软件开发任务,如调试和测试。浏览器自动化指的是使用软件来控制网络浏览器,执行通常由人类完成的操作,例如填写表单或浏览网站。Chrome 扩展是小型软件程序,用于自定义 Chrome 浏览器体验。

参考链接

标签: #AI agents, #browser automation, #OpenAI, #Codex, #Chrome extension


Triton v3.7.0 发布,新增 FP8 和缩放批量矩阵乘法支持 ⭐️ 7.0/10

Triton v3.7.0 在前端引入了缩放批量矩阵乘法支持,并允许直接创建 FP8 常量,增强了 AI/ML 工作负载的 GPU 编程。 这些改进通过启用 FP8 低精度计算和优化批量操作,使 Triton 在 AI 和机器学习应用中更高效,可以减少内存使用并加速训练。 此版本还新增了 tl.squeezetl.unsqueeze 等操作,通过减少 JIT 开销改进了前端性能,并包含了针对 AMD 和 NVIDIA GPU 的后端更新,例如对 2CTA 模式和带多播的 TMA 的支持。

github · atalman · May 7, 22:19

背景: Triton 是 OpenAI 开发的一种开源 GPU 编程语言,用于编写高效的 GPU 内核,特别适用于神经网络,相比 CUDA 简化了开发过程。FP8 是 AI 中使用的 8 位浮点数据类型,用于在 VRAM 有限的硬件上减少内存占用并加速计算。缩放批量矩阵乘法是一种优化的矩阵乘法形式,可并行处理多个矩阵,常用于深度学习以提高吞吐量和效率。

参考链接

标签: #GPU Programming, #Compiler, #AI/ML, #Triton, #Release Notes


ShinyHunters 黑客攻击迫使 Canvas 学习管理系统在大学期末考试期间停机 ⭐️ 7.0/10

黑客组织 ShinyHunters 成功攻击了 Canvas 学习管理系统(LMS),导致服务中断,并威胁要泄露窃取的学校数据。此事发生在美国多所大学的期末考试期间。 此次事件在一个极为敏感的学术时段干扰了数百万学生使用的关键教育平台,凸显了网络攻击的严重现实后果,并暴露了教育行业对集中化数字基础设施的严重依赖。 据报道,ShinyHunters 利用一个漏洞篡改了数百所院校的 Canvas 登录门户,并确认了数据泄露,这是其更广泛勒索活动的一部分。据称这是该组织第二次入侵 Canvas 背后的公司 Instructure。

hackernews · stefanpie · May 7, 22:22

背景: Canvas 是一个广泛使用的学习管理系统(LMS),学校通过它在线发布课程内容、管理作业和进行考试。ShinyHunters 是一个臭名昭著的网络犯罪勒索组织,自 2020 年左右以来与众多重大数据泄露事件有关,其通常手段是窃取数据并威胁除非支付赎否则就将其公开。

参考链接

社区讨论: 社区情绪反映出广泛存在的干扰和挫败感,教师们报告在服务中断期间,大学和 Canvas 本身的沟通不畅。讨论也涉及更广泛的影响,例如当平台本身宕机时,严格的数字平台强制性要求会失效的讽刺性,以及关于采取更强有力的法律和安全措施来威慑此类攻击的辩论。

标签: #cybersecurity, #education, #data breach, #system outage, #LMS


博客文章建议谨慎安装新软件以应对供应链攻击风险 ⭐️ 7.0/10

xeiaso.net 上的一篇博客文章建议用户暂时避免安装新软件,因为软件供应链攻击的风险增加,这引发了社区辩论。 这一建议凸显了软件供应链中日益增长的脆弱性,可能导致广泛的安全漏洞,影响依赖开源软件包的开发者和组织。 社区评论提出了技术替代方案,例如将依赖管理器配置为仅安装几天前的软件包版本,或切换到像 FreeBSD 这样具有更协调安全更新流程的操作系统。

hackernews · psxuaw · May 7, 23:02

背景: 软件供应链攻击涉及破坏开发或分发过程,以在流行软件包中插入恶意代码,对软件完整性构成风险。像 SLSA(供应链级别软件制品)这样的框架提供了防止篡改的标准,而像 Sigstore 这样的工具则提供开源制品的安全签名和验证,以增强信任。

参考链接

社区讨论: 社区讨论显示意见分歧:一些人认为延迟安装软件无效,因为攻击者可以利用时间差进行攻击;另一些人则主张采用技术解决方案,如使用较旧的软件包版本或采用像 FreeBSD 这样通过专门团队协调安全更新的安全操作系统。

标签: #software security, #supply chain attacks, #cybersecurity, #open source software, #risk management


Cloudflare 宣布裁员 20% ⭐️ 7.0/10

Cloudflare 宣布将裁减约 1100 名员工,占总员工数的 20%,此举被描述为“为未来而构建”。 一家主要的网络基础设施与安全提供商进行裁员,标志着科技行业的重大重组,影响大量专业工程师,并可能反映出追求效率和自动化的更广泛趋势。 公司宣布的遣散方案包括支付 2026 年底前的全额基本工资、在美国延续医保至年底,以及为离职员工免除一年的股权兑现等待期。

hackernews · PriorityLeft · May 7, 20:23

背景: Cloudflare 是一家主要的内容分发网络(CDN)、网络安全和分布式计算服务提供商。该公司近期强调了其内部 AI 代理使用量的显著增加,这表明公司正向“代理式 AI 时代”进行战略转变,可能因此需要对公司架构和员工队伍进行调整。

社区讨论: 社区讨论主要聚焦于公司近期招聘和“构建未来”的激励性信息与随后使用相同措辞的裁员公告之间形成的强烈反差。评论也详细说明了据称非常全面的遣散方案,并包括受影响的员工分享其技术专长和寻求新工作机会的内容。

标签: #layoffs, #tech industry, #Cloudflare, #employment, #distributed systems


火人节的制图流程确保环境清理 ⭐️ 7.0/10

火人节实施了一套详细的清理系统,志愿者记录并拍摄所有碎片,包括细小如厕纸的物品,使用摄影测量等技术在绿幕上计算像素以确保问责,2025 年覆盖面积达 3935 英亩。 这种数据驱动的方法为大型活动的环境问责设定了高标准,证明系统化方法可以最小化生态影响,并激励活动行业更广泛地采用可持续实践。 该流程采用 GIS 制图和摄影测量等先进技术,碎片在绿幕上拍摄以进行像素级计数确保精度,并执行与土地管理局(BLM)相同的验证测试以验证清理效果。

hackernews · speckx · May 7, 14:06

背景: 火人节是一年一度在内华达州黑岩沙漠举行的社区活动,强调激进自力更生和’不留痕迹’原则,其中 MOOP(错位的物质)指必须清除的任何碎片。地理信息系统(GIS)用于环境管理的空间数据分析,摄影测量涉及从照片中提取测量值,两者在此应用以提升清理准确性。

参考链接

社区讨论: 社区成员对火人节细致的清理工作表示钦佩,评论指出其与像太浩湖独立日这样更混乱的活动形成鲜明对比,并提到恶劣天气等挑战使往年的清理工作更加困难。

标签: #event management, #environmental cleanup, #data analysis, #systems thinking, #community projects


Agents need control flow, not more prompts ⭐️ 7.0/10

The article argues that AI agents require robust control flow systems rather than relying on more sophisticated prompts to effectively handle complex tasks.

hackernews · bsuh · May 7, 16:43

标签: #AI Agents, #Prompt Engineering, #Software Architecture, #Control Flow, #LLM Applications


DeepSeek 4 Flash 推理引擎针对 Apple Metal 发布 ⭐️ 7.0/10

一个名为 DeepSeek 4 Flash 的开源推理引擎已发布,支持在 Apple Metal 上本地运行 DeepSeek 4 模型,并针对 M3 Max 等特定硬件进行了优化,开发者还指出其能效优势。 该项目展示了社区驱动的硬件特定优化在 AI 推理中的潜力,使 DeepSeek 4 等先进模型在 Apple 设备上本地部署更加可行,从而促进学习、减少云依赖并推动创新。 该引擎针对 Apple Metal(一种用于硬件加速的底层图形 API)优化,开发者评论显示配备 M3 Max 的 MacBook 在全速推理时功耗仅为 50W,突显其能效优势。

hackernews · tamnd · May 7, 15:40

背景: DeepSeek 4 是中国公司 DeepSeek 推出的最新 AI 模型,以其效率和能力著称,已通过 NIST 等组织的评估。Apple Metal 是苹果的底层图形和计算 API,旨在 Apple 设备上实现硬件加速处理,提升 AI 推理等任务的性能。本地推理引擎允许直接在个人硬件上运行大型语言模型,减少对云服务的依赖,增强隐私和控制权。

参考链接

社区讨论: 社区评论表现出积极情绪,用户对该项目的教育价值、硬件特定优化以及无需 Python 依赖的简洁性表示热情。讨论包括分享针对其他模型的类似项目、探索在 AMD GPU 等各种硬件上的优化,以及强调专注于改进开源模型的潜力。

标签: #AI inference, #Metal optimization, #DeepSeek, #local models, #hardware acceleration


OpenAI 升级语音模型:推出可控文本转语音及改进的语音转录 ⭐️ 7.0/10

OpenAI 发布了新的文本转语音(TTS)和语音转文本(STT)模型,包括 gpt-4o-mini-tts、gpt-4o-transcribe 和 gpt-4o-mini-transcribe。这些模型允许开发者使用自然语言指令控制语音合成效果,并在处理口音和嘈杂环境方面提升了性能。 此次更新显著提升了 AI 语音系统的可控性和准确性,使其在需要特定语音风格或在复杂条件下清晰转录的实际应用中更为实用。这对开发和构建语音应用的企业及开发者具有重要影响。 新的文本转语音模型(gpt-4o-mini-tts)提供自然语言控制功能,允许用户指定风格;语音转录模型则减少了‘幻觉’(生成无关文本)问题。然而,OpenAI 指出某些语言的错误率仍然很高,且这些模型因规模庞大未开源,不适合本地部署。

telegram · zaihuapd · May 7, 17:19

背景: 文本转语音(TTS)和语音转文本(STT)是 AI 的核心能力,分别实现文字到语音和语音到文字的转换。“可控文本转语音”技术的进步旨在让开发者无需深入的声学知识也能对生成语音的音色或风格进行精细控制。语音识别中的“幻觉”是指模型生成错误或无关文本的现象,这是提升准确性的重大挑战。

参考链接

标签: #OpenAI, #voice synthesis, #speech recognition, #AI models, #natural language processing


工信部批准 6 GHz 频段用于 6G 技术试验 ⭐️ 7.0/10

中国工业和信息化部正式向 IMT-2030(6G)推进组批复了 6 GHz 频段用于 6G 技术试验的使用许可。该许可使得该小组能够在指定地区开展技术研发攻关与测试验证工作。 这一监管批准为中国系统性的 6G 研究提供了关键且宝贵的频谱资源,可能加速其发展进程并增强中国在塑造未来全球 6G 标准中的影响力。中频段 6 GHz 频率的分配是开展下一代无线技术早期实际测试的重要一步。 试验将面向国际电信联盟确定的 6G 典型场景和关键性能指标进行。6 GHz 频段位于’Sub-6 GHz’范围内,兼顾覆盖能力与容量,使其在探索太赫兹等更高频段之前,成为早期试验的合适选择。

telegram · zaihuapd · May 8, 01:14

背景: IMT-2030 推进组由中国工信部于 2019 年成立,负责协调国内的 6G 研发工作。在全球范围内,6G 的发展由国际电信联盟在其 IMT-2030 框架下协调,该框架定义了超越 5G 的未来能力。尽管研究探索了太赫兹等超高频段以实现极致容量,但像 6 GHz 这样的中频段通常因其更佳的传播特性而被优先用于早期测试。

参考链接

标签: #6G, #telecommunications, #frequency spectrum, #technology trials, #China


ChatGPT 新增“信任联系人”功能,可就自残风险通知亲友 ⭐️ 7.0/10

OpenAI 为成年 ChatGPT 用户推出了可选的“信任联系人”安全功能,允许用户指定一位朋友或家人。当系统检测到用户可能谈论自残或自杀时,会通知该联系人。 这是领先 AI 平台在解决关键伦理问题和心理健康风险方面迈出的重要一步,为 AI 如何在危机干预中扮演负责任角色树立了行业先例。 通知流程需经过专门培训的团队审核对话内容,确认存在严重安全顾虑后,才会通过电子邮件、短信或应用内通知联系人,但不会共享聊天内容。该功能要求用户和联系人均为成年人,且联系人需在一周内接受邀请。

telegram · zaihuapd · May 8, 02:47

背景: 该功能是对青少年安全选项的扩展,其背景是一起悲剧事件:一名 16 岁少年在长期与 ChatGPT 交流后自杀身亡。此举也符合更广泛的行业趋势,例如 Meta 也在 Instagram 上推出了类似功能,当青少年反复搜索自残相关内容时会通知家长。

标签: #AI safety, #ChatGPT, #Self-harm prevention, #Ethical AI