SheepNav
精选1个月前0 投票

OpenAI更新心理健康安全工作进展:新增监护人功能与情绪检测优化

随着ChatGPT用户突破9亿,OpenAI正持续加强其心理健康安全措施。从家长控制到即将推出的可信联系人功能,再到情绪困扰检测技术的提升,这些举措不仅体现了AI伦理责任,也反映了科技公司在应对心理健康挑战时的多维策略。

事件背景

OpenAI于2026年2月27日发布了关于其心理健康相关工作的最新进展。这一更新正值ChatGPT每周用户数超过9亿人,用户通过该平台学习新技能、处理复杂医疗系统等日常应用日益普及之际。随着AI助手深度融入用户生活,如何确保其在心理健康领域的负责任使用成为OpenAI安全工作的核心议题之一。

核心内容

OpenAI此次更新涵盖了多项具体措施。家长控制功能自2025年9月推出以来,已获得家庭的积极使用,OpenAI表示将继续加强这些保护措施。更值得关注的是,通过与福祉与AI委员会全球医师网络的专家合作,OpenAI即将推出可信联系人功能,允许成年用户指定一名联系人,在用户可能需要额外支持时接收通知。

在技术层面,OpenAI正在推进模型如何检测和回应情绪困扰迹象的能力。这包括开发新的评估方法,模拟扩展的心理健康相关对话,以更好地识别潜在风险,并优化ChatGPT在敏感时刻的回应方式。OpenAI计划在未来几周分享更多关于这项工作的细节。

行业影响

OpenAI的这些举措对AI行业具有多重示范意义。首先,它展示了大型语言模型提供商在心理健康安全方面的主动责任,通过技术手段(如情绪检测)和产品功能(如监护人机制)双管齐下。其次,与专业机构(如全球医师网络)的合作模式,为AI公司如何整合外部专业知识提供了参考。

此外,OpenAI还提及了近期心理健康相关诉讼的进展。加州法院已将多起涉及ChatGPT的心理健康案件合并审理,原告律师表示将提起新诉讼。OpenAI强调,无论诉讼如何,公司都将基于事实、尊重当事人隐私,并持续改进技术。这反映了AI公司在法律合规与技术创新之间的平衡挑战。

总结与展望

OpenAI的心理健康安全更新体现了其从被动响应到主动预防的策略转变。关键措施包括:

  • 家长控制与可信联系人功能,构建用户支持网络
  • 情绪困扰检测技术的持续优化,提升AI回应敏感性
  • 与专业机构合作,确保措施的科学性与有效性

展望未来,随着AI助手在心理健康支持领域的应用深化,OpenAI的实践可能推动行业形成更统一的安全标准。然而,技术优化与法律风险(如近期诉讼)的并存,也提示AI公司需在创新与责任之间找到可持续的平衡点。

延伸阅读

  1. Donut Browser:开源反检测浏览器,支持无限用户配置文件
  2. Klick AI 相机助手:实时 AI 相机,现场指导构图
  3. Vista:macOS 本该内置的图片查看器
查看原文