一位使用ChatGPT的三星工程师意外泄露了机密源代码。
企业受到警告,如果允许员工在没有适当制衡的情况下使用人工智能,它们的知识产权将面临风险。
据报道,今年早些时候,全球科技巨头三星禁止员工使用生成式人工智能工具,原因是一名使用ChatGPT的工程师意外泄露了机密源代码。
电子商务整合公司Convergence的马克?普雷斯内尔(Mark Presnell)表示,向ChatGPT这样的平台提交查询,将使这些问题进入公共领域。
他表示,企业需要确保员工意识到这些风险。
“我个人认为,这些保障措施还没有到位。我认为这需要通过教育来解决。”
公司需要确定哪些是敏感的,哪些不是,哪些是知识产权。
普雷斯内尔说:“也许公司应该更新雇佣协议,特别是与保密信息以及如何处理有关的条款。”
他说,人们需要了解ChatGPT或其他人工智能平台等工具是开放的。
“这是一种工具,就像早期的手机一样,旨在提高我们的效率。然而,正如我们曾经在工作场所从公司监控的电话通话过渡到个人手机一样,我们现在正经历着人工智能的类似转变。
普雷斯内尔说:“随着这种转变,界限变得模糊,使我们公司最宝贵的资产——我们的知识产权——处于危险之中。”