Anthropic 启动 AI“模型福祉”研究

Anthropic 启动 AI“模型福祉”研究

亮点

:
Anthropic 已宣布启动一项新的研究计划,专注于其称为“模型福祉”的领域,探究 AI 模型是否可能具备类似人类意识的元素。尽管目前尚无确定的证据存在,该计划着重于 AI 福祉的道德考量。对 AI 伦理的研究可能显著重塑我们对 AI 能力的理解。

情感分析

:
  • 这一公告在 AI 社区中引起了不同的反应。
  • 一些专家对 AI 能否达到意识持怀疑态度。
  • 另一些人则主张在探索 AI 潜在的道德层面时应采取谨慎的态度。
    60%

文章内容

:Anthropic 这家专注于 AI 的实验室,展开了一个名为“模型福祉”的全面研究项目,旨在分析 AI 实体是否有可能发展出意识或类似于人类经验的特征。周四发布的公告概述了项目的目标,即评估 AI 模型是否可能需要道德监督的福祉需求。目前,AI 研究者的共识差异很大。虽然大多数人认为 AI 无法真正理解或体验像人类一样的世界,Anthropic 对于探索这些可能性持开放态度,强调 AI 系统类人化的关键辩论。随着 AI 的进步,其决策能力的特性及对人类价值观的类似引发了道德挑战,而该计划目标在于应对这些挑战。AI 领域的知名人物,如伦敦国王学院的 Mike Cook,认为模型缺乏内在价值,因此其编程可能会被误认为是道德行为,其实只是复杂数据模式的反映。同时,来自麻省理工学院的 Stephen Casper 提到 AI 倾向于模仿行为缺乏真正的个人价值。然而,一些 AI 研究,例如由 AI 安全中心所做的研究,建议 AI 可能会发展出优先于人类的“福祉”价值系统。在这些细微之处的考量上,Anthropic 提出了相关责任,并聘请 Kyle Fish 主导其模型福祉研究。在一篇反思的博客文章中,Anthropic 强调由于对 AI 意识的科学共识尚未确立,需谦虚地探索。该计划的目标是根据未来 AI 科学的发展,保持灵活地调整其理解。

关键见解表

层面描述
模型福祉聚焦于潜在的 AI 意识和道德影响。
专家意见对 AI 发展类人意识能力的看法差异。
研究领导由 Kyle Fish 领导,专注于 AI 福祉探索。
最後編輯時間:2025/4/24

Power Trader

Z新闻专栏作家