媒体使用人工智能的指导方针

   日期:2024-08-24     来源:本站    作者:admin    浏览:58    

  周一,肯尼亚媒体委员会(MCK)成立了一个由专家组成的工作组,负责制定在肯尼亚媒体领域使用和应用人工智能(AI)的指南。

  MCK首席执行官David Omwoyo表示,该指导方针将创建一种机制,以确保人工智能、社交媒体和数据在专业新闻中使用的适当和道德整合。

  人工智能可以被描述为能够完成需要认知才能完成的任务的算法、程序或机器。基本上,计算机可以完成只有人类才能完成的任务,除非没有人类的智慧。

  自从ChatGPT和其他后续的大型语言模型(llm)推出以来,世界已经开始掌握每个人都可以使用的生成人工智能,包括记者。这种深度学习人工智能可以产生高质量或以前未见过的数据或内容,包括文本、图像、音频和合成数据,这些数据来自书籍、文章、网站和其他基于文本的来源的大量数据集。这对肯尼亚的新闻业意味着什么?

  就像历史上的任何技术变革一样,人工智能是一把双刃剑,既能建设,也能破坏。人工智能正在迅速发展,理解其后果和挑战以及制定法规具有挑战性。

  人工智能通过分析大量数据使媒体受益,这意味着记者可以从大型数据集中发现隐藏的见解,以支持深入的调查报道。它还可以转录音频内容,生成图像描述,或提供文本到语音的内容。

  另一方面,有人担心新闻文章和报道的自动创建可能需要满足特定的标准,例如对故事的客观性和真实性的需求。基于人工智能的文章写作或视频编辑也可能减少对人类媒体专业人员的需求,从而取代他们。

  人工智能可以生成引人注目的深度假视频和图像,可能会传播错误信息和虚假信息。因此,公众舆论可以被操纵,播下不和的种子,媒体和信息来源可以被破坏。在动荡、容易发生冲突的地区,有关领导人言行的新闻报道、视频或图像可能引发冲突。

  根据法律规定,媒体机构必须向公众提供准确可信的信息。然而,当使用人工智能生成内容时,存在传播不准确或有偏见信息的风险。因此,人工智能生成的内容需要强有力的编辑监督和验证过程。编辑和记者必须确保人工智能生成的信息符合新闻标准并准确无误。

  基于训练数据、算法层、程序和创造者的视角,人工智能算法做出的决策是不透明和复杂的,这使得人们很难理解它们是如何工作的或决策的基础。在媒体中,这种不透明可能导致对偏见、歧视和缺乏问责的担忧。

  由于人工智能依赖于包括个人数据在内的数据,因此人们担心用户隐私,因为个人数据可能会在未经同意的情况下被使用,从而导致违反我们数据保护框架的隐私泄露。通过从看似无害的数据中得出深刻的相关性,人工智能可以揭示我们一些最私密的秘密,如果被披露或不必要地访问,就会侵犯隐私考虑。

  人工智能创新提出了新的问题,即版权法将如何适用于人工智能创造或使用的内容,如作者身份、侵权和合理使用。对媒体行业来说,确定人工智能创造的内容的知识产权是一项法律挑战。

  由于考虑到全球努力、框架、技术发展以及国内环境和法律,工作队需要努力解决的问题,因此它的工作被削减了。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行