公司不知道Chat GPT是否安全,但员工需要人工智能的帮助

2025-07-24 09:54来源:本站

  

  

  今年早些时候,贾斯汀在工作中使用了ChatGPT,他对它的帮助感到很高兴。他是波士顿地区一家生物技术公司的研究科学家,他要求聊天机器人创建一个基因测试协议——这项任务可能需要他几个小时,但使用流行的人工智能工具后,只需几秒钟就能完成。

  他说,聊天机器人为他节省了这么多时间,这让他很兴奋,但在4月份,他的老板发布了一项严格的法令:禁止员工使用ChatGPT。他们不希望员工将公司机密输入聊天机器人——它可以接收人们的问题,并给出栩栩如生的答案——并冒着信息被公开的风险。

  “这有点令人不快,”贾斯汀说,他要求只使用自己的名字来自由讨论公司的政策。但他理解这项禁令是出于“充分的谨慎”,因为他说OpenAI对其聊天机器人的工作方式保密。他说:“我们只是不知道它到底是怎么回事。”

  像OpenAI的ChatGPT这样的生成式人工智能工具被认为是工作世界的关键,有可能通过自动化繁琐的任务和激发创造性的解决方案来提高员工的生产力。但随着这项技术被整合到人力资源平台和其他工作工具中,它给美国企业带来了巨大的挑战。苹果(Apple)、Spotify、威瑞森(Verizon)和三星(Samsung)等大公司已经禁止或限制员工在工作中使用生成式人工智能工具,理由是担心该技术可能会危及敏感的公司和客户信息。

  几位企业领导人表示,他们禁止ChatGPT是为了防止最坏的情况,即员工在工作中寻求帮助时将专有计算机代码或敏感的董事会讨论上传到聊天机器人,无意中将这些信息放入OpenAI将来可以用来训练聊天机器人的数据库中。高管们担心,黑客或竞争对手可能会简单地提示聊天机器人说出自己的秘密,并得到这些秘密,尽管计算机科学专家表示,目前尚不清楚这些担忧有多合理。

  贝克·麦凯时律师事务所(Baker McKenzie)机器学习业务全球主管丹妮尔·贝内克(Danielle Benecke)表示,快速发展的人工智能领域正在创造一种动态,在这种动态中,企业既害怕错过,也害怕搞砸。企业担心行动不够快或太快会损害自己的声誉。

  “你想成为一个快速的追随者,但你不想犯任何错误,”贝内克说。

  OpenAI首席执行官萨姆·奥特曼(Sam Altman)曾私下告诉一些开发者,该公司希望开发一款ChatGPT“超级智能工作个人助理”,内置对员工及其工作场所的了解,并能以个人的沟通方式起草电子邮件或文件,提供有关公司的最新信息。

  OpenAI的代表拒绝对公司的隐私问题发表评论,但指出OpenAI网站上4月份的一篇文章指出,ChatGPT用户可以在私人模式下与机器人交谈,并防止他们的提示最终进入其训练数据。

  长期以来,企业一直难以让员工在工作中使用尖端技术。21世纪初,当社交媒体网站首次出现时,许多公司都禁止使用它们,因为担心它们会分散员工对工作的注意力。一旦社交媒体变得更加主流,这些限制基本上就消失了。在接下来的十年里,公司担心将公司数据放在云服务器上,但现在这种做法已经变得普遍。

  据路透社报道,谷歌作为一家在生成式人工智能辩论双方都很突出的公司——这家科技巨头正在向ChatGPT推销自己的竞争对手巴德,同时也提醒员工不要与聊天机器人分享机密信息。谷歌高级副总裁詹姆斯·马尼卡(James Manyika)在与《华盛顿邮报》(the Washington Post)分享的一篇关于巴德的综述中警告称,尽管大型语言模型可以成为新想法的起点,也可以节省时间,但它在准确性和偏见方面存在局限性。“像所有基于法学硕士的经验一样,巴德仍然会犯错误,”指南中写道,使用了“大型语言模型”的缩写。

  “我们一直告诉员工不要分享机密信息,并有严格的内部政策来保护这些信息,”谷歌公关经理罗伯特·费拉拉(Robert Ferrara)在给《华盛顿邮报》的一份声明中说。

  今年2月,Verizon高管警告员工:不要在工作中使用ChatGPT。

  该公司首席法律官凡达纳·文卡特什(Vandana Venkatesh)在一段面向员工的视频中说,禁令的原因很简单。她说,威瑞森有义务不与ChatGPT或类似的人工智能工具共享客户信息、公司内部软件代码和其他威瑞森知识产权等内容,因为一旦这些信息被输入这些平台,公司就无法控制会发生什么。

  威瑞森没有回应《华盛顿邮报》的置评请求。

  哈佛商学院(Harvard Business School)教授、未来工作计划(future of work initiative)的联合负责人约瑟夫·b·富勒(Joseph B. Fuller)说,高管们不愿意将聊天机器人应用到实际操作中,因为它的能力仍然存在很多问题。

  他说:“两家公司都没有牢牢把握让个人员工参与到如此强大的技术中会产生什么影响,他们也不太相信员工对所涉及问题的理解。”

  Fuller说,公司可能会暂时禁止ChatGPT,因为他们更多地了解了它的工作原理,并评估了它对公司数据构成的风险。

  富勒预测,公司最终将把生成式人工智能集成到他们的运营中,因为他们很快就会与直接建立在这些工具上的初创企业竞争。如果他们等待太久,他们的业务可能会被新生的竞争对手抢走。

  研究公司高德纳(Gartner)的高级分析师Eser Rizaoglu表示,人力资源主管越来越多地制定如何使用ChatGPT的指导。

  “随着时间的推移,”他说,人力资源主管们已经看到“人工智能聊天机器人仍然存在。”

  公司正在采取一系列方法来生成人工智能。包括国防公司诺斯罗普·格鲁曼(Northrop Grumman)和媒体公司iHeartMedia在内的一些公司选择了直接禁止,认为允许员工进行试验的风险太大。这种方法在金融服务等面向客户的行业很常见,最近几个月,德意志银行(deutsche Bank)和摩根大通(JPMorgan Chase)就禁止了ChatGPT的使用。

  包括律师事务所Steptoe & Johnson在内的其他公司正在制定政策,告诉员工何时可以部署生成式人工智能,何时不可以。据该公司首席创新官唐纳德?斯特恩菲尔德(Donald Sternfeld)说,该公司并不想彻底禁止ChatGPT,但已经禁止员工在客户工作中使用它和类似的工具。

  斯特恩菲尔德指出了一些发人深思的故事,比如纽约的一些律师最近因提交了一份由chatgpt生成的法律简报而受到制裁,该简报引用了几个虚构的案例和法律意见。

  斯特恩菲尔德说,ChatGPT“经过训练,即使在它不知道的情况下,也会给你一个答案。”为了证明自己的观点,他问聊天机器人:谁是第一个步行横渡英吉利海峡的人?他得到一份令人信服的报告,说一个虚构的人完成了一项不可能完成的任务。

  伟凯律师事务所(White & Case)技术交易业务全球主管阿琳?奥林?哈恩(Arlene Arin Hahn)表示,目前,企业对人工智能工具的态度“有点幼稚”,尽管它们的发布给各个行业带来了“剧烈的颠覆”。她建议客户密切关注生成式人工智能的发展,并准备好不断修改他们的政策。

  “你必须确保自己保留改变政策的能力……所以你的组织足够敏捷和灵活,可以在不阻碍新技术采用的情况下进行创新。”

  贝内克说,贝克·麦凯时是最早批准在某些员工任务中使用ChatGPT的律师事务所之一,“几乎每一层员工都有兴趣”探索生成式人工智能工具如何减少繁重的工作。但任何由人工智能协助完成的工作都必须受到彻底的人类监督,因为这项技术往往会产生听起来令人信服但错误的反应。

  麻省理工学院机器学习专家、助理教授Yoon Kim表示,企业的担忧是有道理的,但它们可能会加剧对ChatGPT会泄露企业机密的担忧。

  Kim说,从技术上讲,聊天机器人可以使用输入的敏感提示来训练数据,但他也说OpenAI已经建立了护栏来防止这种情况的发生。

  他补充说,即使没有护栏,“恶意行为者”也很难访问输入聊天机器人的专有数据,因为ChatGPT需要学习大量数据。

  他说:“目前还不清楚(专有信息)是否只输入一次,是否可以通过简单的询问提取出来。”

  他说,如果贾斯汀的公司允许他再次使用ChatGPT,这将对他有很大帮助。

  “这确实减少了我查找资料的时间,”他说。“这绝对节省了很多时间。”

边互网声明:未经许可,不得转载。