一群哈佛学生对ai - 1进行了实验这让我们有机会一窥2025年IT行业将面临的人工智能噩梦。

2025-04-10 00:30来源:本站

  

  leaking binary data pouring through one's hands

  由于几十年来最大的IT颠覆者:生成人工智能(genAI),数据泄露的概念——及其所有隐私、法律、合规性和网络安全影响——今天必须从根本上重新设想。

  数据泄露过去是直截了当的。要么是员工或承包商粗心大意(将笔记本电脑落在未上锁的汽车里,将高度敏感的打印结果遗忘在飞机座位上,不小心将内部财务预测发送给错误的电子邮件收件人),要么是因为攻击者在数据保存或传输过程中窃取了数据。

  现在看来,这些担忧显得有些古怪,令人欣喜。企业环境完全是无定形的,数据泄露很容易来自企业云站点、SaaS合作伙伴,或者来自每个人最喜欢的新问题:合作伙伴的大型语言模型(LLM)环境。

  你的企业要对你的团队从客户和潜在客户那里收集到的每一点数据负责。当新的应用程序以新的方式使用旧数据时会发生什么?当客户反对时又会发生什么呢?如果监管者或出庭作证的律师提出异议怎么办?

  当墙壁如此无定形时,IT应该如何精确地控制?

  想想这个可怕的花边新闻。一群哈佛大学的学生开始玩数字眼镜来利用实时数据访问。从他们的实验中最明显的收获是,它可以成为小偷(实际上是骗子)的一个非常有效的工具。它可以让人们走到陌生人面前,并立即了解他们的一些情况。这是绑架别人或偷钱的完美方法。

  想象一下,一个小偷用这个工具来说服他/她进入你办公室的一个高度敏感的部分?想想它对网络钓鱼攻击有多有说服力。

  尽管这一切都很糟糕,但这并不是最糟糕的it噩梦——最糟糕的噩梦是受害者后来发现被滥用的数据来自您的企业数据库,这是通过合作伙伴的法学硕士绕道而行。

  让我们远离眼镜噩梦吧。如果保险公司利用你的数据拒绝贷款,或者你的人力资源部门利用你的数据拒绝某人的工作,会发生什么?让我们进一步假设是人工智能合作伙伴的软件犯了错误。幻觉吗?这个错误导致了一个毁灭性的决定。然后会发生什么?

  底层数据来自你的机密数据库。你的团队和基因人工智能搭档1234共用。你的团队雇佣了1234,并愿意把数据交给他们。他们的软件搞砸了。这其中有多少是你们IT部门的错?

  诉讼有一种可怕的倾向,即把过错分成若干百分比,并把更健康的百分比留给财力最雄厚的实体。(你好,企业IT——你的公司很可能是最有钱的。)

  有几种方法可以处理这些情况,但并非所有方法都特别受欢迎。

  1. 合同——把它写下来。制定严格的法律条款,让你的人工智能合作伙伴对你的数据或任何后果负责。这不会阻止人们看到法庭的内部,但至少他们会有同伴。

  2. 不要共享数据。这可能是最不受欢迎的选择。严格限制哪些业务单位可以与LLM合作伙伴合作,并审查和批准允许他们共享的数据级别。

  当业务部门主管抱怨时——这几乎肯定会发生——告诉这位老板,这一切都是为了保护该集团的知识产权,进而保护该业务部门主管的奖金。说这样可以保留他们的奖金,然后看着反对意见逐渐消失。

  3. 对影子AI违规行为施加严厉惩罚。理论上,你可以控制与你的关键基因合作伙伴的联系和数据访问。但如果你的员工开始向ChatGPT、Perplexity或他们自己在CoPilot上的账户提供数据,他们需要知道自己会被发现,两次违规就意味着被解雇。

  首先,你需要把这个要求写得尽可能高,以确保它会发生。因为,相信我,如果你说第二次违规就会被解雇,然后某个顶级销售人员违规却没有被解雇,那你的信誉就完了。有了这个,人们才有可能认真对待你的规则。在你确定可以解雇某人之前,不要威胁他。

  也许同样有效的方法是取消他们接下来的两次奖金/佣金支付。不管怎样,找一些能引起员工注意的东西。

  4. anti-contract。律师们喜欢写出200页的服务条款,但没人会去读。我只需要提醒你法庭陪审团不会理会这些条款。别以为你真的可以用鼠标右键把你的法律风险去掉。

  当你的客户不在美国时,这种情况会增加三倍。加拿大、欧洲、澳大利亚和日本等国关注的是有意义和知情的同意。有时,如果您选择使用产品/服务,您将被禁止强制接受条款。

  5. 遵从性。你是否有法律许可与法学硕士合作伙伴分享所有这些数据?在美国以外,大多数监管机构都被告知,自己的数据属于客户,而不是企业。数据被滥用——比如哈佛眼镜事件——是一回事。但是,如果你的基因伴侣犯了一个错误,或者出现了幻觉,向外界发送了有缺陷的数据,你可能会面临痛苦,而不仅仅是分享过多的信息。

  您永远不会有太多的人工循环过程来监视数据故障。是的,它绝对会稀释基因效率的收益。相信我:在接下来的几年里,它将提供比genAI本身更好的投资回报率。

一物网声明:未经许可,不得转载。