近期,OpenAI 机器人团队负责人凯特琳·卡林诺夫斯基的辞职消息在市场上引发了不小的轰动。她就与五角大楼的 AI 合作协议提出了严肃的道德担忧。对此事的看法并不只是一个人的决定,而是一个关乎原则的问题。



卡林诺夫斯基表示,AI 在国家安全中可以发挥重要作用,但前提是必须有适当的监管和安全措施。她的主要担忧包括:AI 被滥用于国内监控,以及自主武器系统的研发。她还表示,在宣布该协议之前,OpenAI 没有建立足够的治理保障,相关决策也过于仓促。

卡林诺夫斯基于 2024 年从 Meta 加入,当时她在 AR 眼镜项目上工作。她加入 OpenAI 的初衷是为了给团队带来新的方向,但在宣布与五角大楼合作之后,局势发生了变化。她一直保持对 Sam Altman 以及整个团队的尊重,但在这件事上并未让步。

OpenAI 的发言人表示,与五角大楼的合作旨在以克制的方式使用 AI,以加强国家安全,并且公司已设定了明确的边界。然而,围绕这项合作的争议在行业中仍在持续。市场的反应也相当引人关注——消息发布后,ChatGPT 被删除的次数增长了 295% 以上;与此同时,Anthropic 的 Claude 应用在美国 App Store 的免费应用中拿下了第一名。

这整个事件都引发了一个关于 AI 与自主系统 ( 等技术 ) 的道德使用的重大问题。当大型企业与政府合作时,透明度和安全措施究竟有多重要,值得深思。如果你也在考虑这类技术的发展以及它们的道德层面问题,那么在 Gate 上关注相关讨论将是一个不错的选择。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论