内容审核的心理代价:照顾“网络警察”

2025-04-17 03:01来源:本站

  

  随着专家和马来西亚政府越来越多地呼吁对社交媒体进行更严格的监管,人们很容易忽视那些负责筛选含有有害和极端主义内容的无数帖子的人所付出的代价。

  许多人哀叹社交媒体平台上的内容审核状况,尽管有报告强调,接触此类内容会给审核员造成心理创伤。

  《卫报》(The Guardian)去年的一篇报道指出,审查员通常必须筛选含有明确描述谋杀、酷刑和儿童性虐待(简称CSAM)等内容的内容,这让他们承受着巨大的精神压力。

  安妮(Anne)就是这样,她今年26岁,来自吉隆坡,在一家视频分享平台做了两年多的内容版主,后来转到了另一个行业。

  虽然她觉得这份工作很有意义,感觉就像“网络警察”,但她个人也在不断面对令人不安的内容而付出的情感代价中挣扎。

  “对我来说,最具挑战性的内容绝对是与剥削儿童有关的内容。这让人深感不安,难以接受,”她说。

  在她工作期间,她被安排在一个专注于仇恨言论、成人内容和暴力极端主义材料的团队中,但这并不能完全保护她不经常接触儿童色情等内容。

  “它会留在你的脑海里,”她说。“在主持的时候,我也要听视频,检查是否违反了政策,这意味着我不仅要看内容,还要听到人们在暴力事件中的尖叫和挣扎。”

  另一位版主、25岁的汉娜(Hana)来自塞隆班(Seremban),她说,在审核工作中,她经常接触到各种类型的违规内容,“从图像暴力到自杀、自残、虐待动物,还有成人性内容。”

  和安妮一样,哈娜在采访中要求匿名。

  触发警告

  安妮说,当她离开内容管理员的角色时,她所面临的挑战并没有结束。她不断回想起她遇到的令人不安的内容,并说这种经历让她变得更加偏执。

  亚太科技创新大学(APU)心理学院副院长维诺拉·沙克说,长时间如此频繁地接触电子烟会对个人的心理健康产生严重影响。

  Vinorra believes that social media companies are vital to their moderator mental health. — APU

  这是因为大脑的应激反应系统会因持续接触创伤性内容而不堪重负。负责处理情绪的杏仁核会变得过度活跃,导致焦虑和恐惧加剧。

  这可能会导致诸如闪回、噩梦、注意力难以集中和逃避诱因等症状。

  她说:“此外,不断接触令人痛苦的内容会导致绝望、无助和毫无价值的感觉,增加患抑郁症的风险。”

  她把人类大脑的功能比作海绵,从周围世界吸收信息,就像海绵吸水一样。

  在心理学中,这个过程被称为神经可塑性,即大脑改变和适应的能力。大脑可以根据新的经历重组其结构,就像海绵可以改变形状一样。

  “这种适应性使大脑能够在一生中学习和成长,就像海绵可以吸收不同类型的液体一样。当你经常看到或听到暴力或令人不安的事件时,你的大脑会吸收这些图像、声音和经历。

  她说:“这可能对你的心理健康产生重大影响,无论是短期还是长期。”

  这些影响包括焦虑和压力增加、睡眠困难、情绪波动、同理心减少,甚至发展成创伤后应激障碍(PTSD)、脱敏,甚至攻击性行为。

  这种频繁接触有害物质的影响可以在多年的过程中积累起来,并且比短期接触造成的影响严重得多。

  “随着时间的推移,反复接触暴力会使个人对暴力不敏感,使有害行为正常化,并导致扭曲的世界观。

  “它可以使有害的事情看起来很正常,甚至可以接受。这就像你的大脑习惯了看到不好的东西,它不再被它震惊,但这并不意味着它不再受到它们的影响,”她说。

  确实注意到反复接触极端或有害内容的影响可能因人而异,并且可以根据个人历史、应对机制和支持系统的存在来减轻。

  “某些类型的内容更有可能造成创伤。例如,个人的、图形化的或现实主义的内容可能特别有害。

  她说:“这包括现实生活中的暴力视频、关于创伤性事件的新闻报道或个人虐待记录。”她进一步补充说,“个人的个人经历也可能会增加他们因消费某些类型的内容而经历的创伤。”

  “例如,一个经历过童年虐待的人可能会因为观看媒体对虐待的描述而受到特别的创伤。内容可能会引发痛苦的记忆和情绪,导致强烈的痛苦和焦虑。

  “已有的精神健康状况,如抑郁或焦虑,会使个人更容易受到内容消费的负面影响。”

  哈娜说,虐待动物的内容对她影响最深,对她来说,这种影响尤其个人化。

  “对我来说,这就是虐待动物。我是一个爱狗人士,每当我看到这样的内容,甚至是动物屠杀,我就会受到影响,”她说。

  然而,她已经找到了应对的方法。“在流了几滴眼泪之后,我设法恢复并继续缓和,并提醒自己这些都是过去事件的记录,超出了我的控制。”

  哈娜强调了自我照顾的必要性,以减轻这类工作的负面影响。

  她说:“如果有什么事情影响到你,了解你自己,满足你的需求是很重要的。”

  她的其他应对策略包括瑜伽、健身房锻炼、冥想和呼吸练习等体育活动。

  支持系统

  对于那些从事内容审核工作的人,维诺拉强调需要在工作场所之外的支持系统来引导他们的角色带来的情感挑战,并确保他们的心理健康和适应能力。

  强大的支持系统的存在,例如,朋友和家人,可以对抗可能因工作性质而加剧的孤立感和孤独感。

  “内容版主在工作之外的支持系统对于减轻他们工作的心理影响至关重要。

  “有朋友和家人可以交谈,为版主提供了一个安全的空间,让他们表达自己的感受,分享经历,并处理他们工作中的情感负担。

  她指出:“与工作之外的人接触可以帮助版主获得新的视角,提醒他们在日常生活中遇到的内容之外,还能看到更广阔的生活背景。”她补充说,爱好和娱乐活动可以作为缓解压力和疏离感的渠道,同时也能促进健康的应对策略,以管理情绪损失。

  维诺拉认为,社交媒体公司在支持其审核人员的心理健康方面发挥着重要作用,这应该以培训和心理支持的形式出现。

  “适当的培训可以显著帮助减少作为内容版主的情绪影响。

  “鉴于这份工作的性质,它经常涉及到令人痛苦或有害的内容,有效的培训可以为主持人提供工具和策略,以管理他们的心理健康和情绪弹性。”

  她说:“如果调整者感到孤立无援,他们的情感负担就会变得更重。”

  这方面的一些例子包括情绪恢复力训练、创伤知情训练,以及定期汇报会议和基于场景的培训。

  “提供强大的心理健康支持、培训和定期汇报的组织可以帮助减轻工作的负面影响,使其更具可持续性。”

  她说:“积极的工作文化,开放的沟通,对主持人面临的挑战的认可,可以显著影响工作满意度和寿命。”

  根据安妮的经验,虽然公司确实提供心理健康支持,并提供模糊工具来模糊图像视频,以及黑白滤镜来减少血液等令人不安的视觉效果的影响,但应对这个角色的心理影响仍然是一个挑战。

  她说:“虽然有一些支持,但考虑到工作的性质,往往感觉不够。”她指出,尽管公司提供了健康课程和咨询,但情感上的损失仍然存在。

  人情味

  虽然有些人可能希望引入人工智能(AI)来减轻版主必须处理的极端内容的负担,但到目前为止,它获得了好坏参半的结果。

  《福布斯》10月份的一份报告对社交媒体平台X(前身为Twitter)在内容审核过程中越来越依赖人工智能表示担忧,并提出了他们是否有能力管理敏感和微妙问题的问题。

  路透社同月报道称,短视频分享平台TikTok解雇了数百名员工,这是其转向利用人工智能进行内容审核的一部分。

  从维诺拉的角度来看,人工智能本身并不是一个完美的解决方案,但可以减轻他们面临的一些心理负担。

  “通过快速处理大量内容并识别明显的违规行为,人工智能当然可以帮助减轻人类版主的心理负担。

  自动化系统可以标记不合适的材料,让人类版主专注于需要人类判断和同理心的更细微的情况。

  她说:“这可能会给主持人带来更容易管理的工作量,潜在地减少情绪压力。”

  尽管如此,语境、细微差别和更微妙的人类表达的问题仍然存在,这可能导致错误或误判。

  “敏感内容通常需要人来准确地解释意图和上下文,这使得人工审核员对有效的内容审核至关重要。

  “此外,某些内容的情感和心理复杂性——比如暴力图片或仇恨言论——得益于人类的同理心和理解,”她说。

  她认为人工智能可以减少版主遇到的有害内容的总量,这与Hana等人类内容版主的立场类似,后者希望人工智能在他们的工作中发挥更大的补充作用。

  虽然人工智能有可能处理更明显的违规行为,减少对人工审查的需求,但它仍然缺乏人性化。

  哈纳说:“事实仍然是,人工智能在评估视频等内容的所有复杂性方面还不能与人类思维相提并论,因此,正是出于这个原因,我们仍然需要(人类)内容审核员。”

  ×

一物网声明:未经许可,不得转载。