忘记那些反乌托邦的场景吧——人工智能如今无处不在,而且风险往往是隐藏的

   日期:2024-09-01     来源:本站    作者:admin    浏览:58    

  

  

  11月17日,chatgpt制造商OpenAI的董事会解雇了备受瞩目的首席执行官萨姆·奥特曼,引发了该公司的动荡,这使得人工智能的安全性以及对人工通用智能(AGI)快速发展的担忧成为人们关注的焦点。AGI被粗略地定义为跨越一系列任务的人类水平的智能。

  OpenAI董事会表示,奥特曼被解雇是由于缺乏坦诚,但外界猜测主要集中在奥特曼和董事会成员之间的分歧上,因为他们担心OpenAI的显著增长——ChatGPT和Dall-E等产品已经在全球获得了数亿用户——阻碍了公司专注于AGI带来的灾难性风险的能力。

  OpenAI开发AGI的目标已经与人工智能获得超级智能能力的想法以及防止技术被滥用或失控的需要交织在一起。但就目前而言,AGI及其伴随的风险都是投机性的。与此同时,特定任务形式的人工智能是非常真实的,已经变得普遍,而且经常不受关注。

  作为一名信息系统和负责任的人工智能研究员,我研究这些日常算法是如何工作的,以及它们是如何伤害人类的。

  人工智能无处不在

  人工智能在许多人的日常生活中发挥着可见的作用,从人脸识别解锁手机到语音识别为数字助理提供动力。它还扮演着你可能模糊意识到的角色——例如,塑造你的社交媒体和在线购物会话,指导你的视频观看选择,以及在拼车服务中为你匹配司机。

  人工智能也会以你可能完全没有注意到的方式影响你的生活。如果你正在申请一份工作,许多雇主会在招聘过程中使用人工智能。你的老板可能会用它来识别可能辞职的员工。如果你正在申请贷款,你的银行很可能正在使用人工智能来决定是否发放贷款。如果你正在接受某种医疗条件的治疗,你的医疗保健提供者可能会用它来评估你的医学图像。如果你知道有人在刑事司法系统中被捕,人工智能很可能在决定他们的生活过程中发挥作用。

  算法的危害

  许多不受关注的人工智能系统都有可能造成伤害的偏见。例如,机器学习方法使用归纳逻辑,从一组前提开始,从训练数据中概括模式。一项基于机器学习的简历筛选工具被发现对女性有偏见,因为培训数据反映了过去的做法,即大多数简历都是由男性提交的。

  在从卫生保健到儿童福利等领域使用预测方法可能会出现诸如队列偏见等偏见,从而导致社会中不同群体之间的风险评估不平等。即使法律惯例禁止基于种族和性别等属性的歧视——例如,在消费贷款领域——代理歧视仍然可能发生。当算法决策模型不使用受法律保护的特征(如种族),而是使用与受法律保护的特征(如社区)高度相关或相关的特征时,就会发生这种情况。研究发现,与白人借款人相比,风险相等的黑人和拉丁裔借款人在政府支持的企业证券化和联邦住房管理局担保贷款上支付的利率要高得多。

  当决策者使用的算法与算法设计者的意图不同时,就会出现另一种形式的偏见。在一个众所周知的例子中,神经网络学会了将哮喘与较低的肺炎死亡风险联系起来。这是因为与总体人群相比,哮喘肺炎患者通常会接受更积极的治疗,从而降低他们的死亡风险。然而,如果这种神经网络的结果被用于医院床位分配,那么那些患有哮喘和肺炎的患者将被危险地剥夺优先权。

  来自算法的偏见也可能来自复杂的社会反馈循环。例如,在预测累犯时,当局试图预测哪些被判有罪的人有可能再次犯罪。但用于训练预测算法的数据实际上是关于谁有可能再次被捕。

  此时此刻的人工智能安全

  拜登政府最近的行政命令和联邦贸易委员会等联邦机构的执法努力是认识和防范算法危害的第一步。

  尽管大型语言模型(如支持ChatGPT的GPT-3)和多模态大型语言模型(如GPT-4)都是在通用人工智能的道路上迈出的一步,但它们也是人们在学校、工作和日常生活中越来越多地使用的算法。考虑由于广泛使用大型语言模型而产生的偏差是很重要的。

  例如,这些模型可能表现出涉及性别、种族或宗教的负面陈规定型观念造成的偏见,以及在代表少数民族和残疾人方面的偏见。由于这些模型显示出在律师资格考试等测试中超越人类的能力,我认为它们需要更严格的审查,以确保人工智能增强的工作符合透明度、准确性和来源信用的标准,并且利益相关者有权执行这些标准。

  最终,大规模部署人工智能的输赢可能不是关于流氓超级智能,而是关于理解当算法决策无处不在时谁是脆弱的。

  Anjana Susarla是Respo的Omura Saxena教授密歇根州立大学会计与信息系统系的隐形人工智能。

  的有限公司谈话是一种独立而不存在的非营利来源的新闻,分析和评论的学术专家。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行