深度造假:新的“营养标签”来打击人工智能的错误信息

2025-03-30 07:14来源:本站

  

  

  随着人们对深度造假和人工智能产生的错误信息的担忧日益加剧,科技巨头Adobe正在推出新工具,该工具将为图像和视频生成“营养标签”,以显示其来源,包括内容是否使用人工智能工具生成。

  像Midjourney, DALL-E, Adobe Firefly, Leonardo等生成式AI工具。人工智能和Canva Magic Design在过去一年里大受欢迎,因此人们也担心这些工具被用来侵犯版权和传播错误信息。

  An AI generated image from Adobe Firefly using the prom<em></em>pt: ‘A world created by AI’.

  在美国大选和明年澳大利亚联邦大选期间,这种担忧达到了白热化程度,一些专家警告称,被操纵的内容可能会影响选民,并可能对民主产生负面影响。

  Adobe自己对2000名内容创作者的研究发现,尽管他们相信人工智能工具可以帮助他们节省时间和金钱,但他们也担心自己的内容在未经他们同意的情况下被不道德地用于训练生成式人工智能模型。

  他们还担心失去对工作的控制,包括担心别人窃取或抢走他们的功劳。近一半的受访者表示,他们在网上遇到过与自己类似的工作,并认为这些工作是由生成式人工智能创造的。

  根据Adobe的报告,一位创作者说:“我最近有一次经历,一家公司创造了一个人工智能模型,以我的风格制作插图。”

  “我的作品一直在网上被转卖。我真的没有时间再处理所有的撤下请求了。”

  Adobe的新工具将于明年年初发布,它将允许创作者轻松地为他们的图像、视频、音频和其他数字作品附加安全的“内容凭证”。这些凭证包括元数据,可以传达创作者的身份、网站、社交媒体链接,以及关于内容是否可用于训练人工智能模型的偏好。

  Adobe数字媒体业务首席技术官伊利·格林菲尔德(Ely Greenfield)在接受采访时表示:“这是为了赋予创作者权力,让他们在内容在互联网上传播时,能够保护自己的作品,并保持作品的归属。”

  “随着人工智能的兴起,对于创作者来说,有一种方式来维护自己对内容使用方式的权利和偏好变得至关重要。”

  这些工具将在2025年初以免费网络应用的形式向公众推出,允许内容创作者对数字内容建立所有权,即使这些内容不是用Adobe的产品创建的。谷歌浏览器的扩展还将允许用户检查与内容相关的任何内容凭据,包括其编辑历史。

  例如,一段内容的元数据可能会显示“该内容是使用人工智能工具编辑的”,以及使用了哪个人工智能工具。

  至关重要的是,Adobe的“内容真实性倡议”赢得了3700多个成员组织的支持,其中包括chatgpt制造商OpenAI、meta、谷歌、微软、TikTok和英伟达。

  格林菲尔德表示,Adobe的目标是让内容凭证像网页浏览器中的锁图标一样无处不在,表明透明度和可信度。

  “正如HTTPS已成为安全网络连接的标准,我们希望内容凭证成为数字内容真实性的标准,”他说。“我们的希望和期望是,它能与你看到的每一条内容相关联。”

  在对深度造假和选举公正性的担忧中,艺术界也在密切关注。乔治·哈特利(George Hartley)是澳大利亚最大的在线艺术画廊blueththumb的联合创始人。

  George Hartley, co-founder and chief marketing and chief product officer of Bluethumb.

  哈特利说,澳大利亚人更喜欢原创的手工艺术,而不是人工智能生成的作品,并且强烈要求在艺术创作中使用人工智能的透明度。blueththumb近90%的艺术品收藏家表示,他们不倾向于购买人工智能生成的艺术品——即使价格较低——并相信手工艺术品具有人工智能无法复制的内在价值。

  blueththumb调查的绝大多数艺术家(91%)认为,披露何时使用人工智能工具进行艺术创作是至关重要的,70%的艺术家表示他们从未使用过人工智能,尽管许多人承认,人工智能在未来可能变得不可避免。

  他说:“澳大利亚人意识到人工智能重塑艺术世界的潜力,这种潜力会对那些用传统媒介手工创作的艺术家产生不利影响。”“在未来,关键将是在创新和真实性之间取得平衡,以保持人类艺术表达的完整性,保护我们的视觉艺术社区。”

  墨尔本的艺术收藏家弗雷迪·格兰特说,在他看来,人工智能艺术有些没有灵魂的地方。

  “对我来说,重要的是与艺术家建立联系并支持他们。我更愿意知道我是从一个自己创作作品的艺术家那里购买的,而不是使用人工智能。

  澳大利亚政府提议在高风险环境中引入欧盟式的人工智能强制护栏。政府上个月发布了一份提案文件,正在寻求进一步的反馈。

  “这可能是世界各国政府面临的最复杂的政策挑战之一,”工业和科学部长Ed Husic在9月的新闻发布会上说。

  Minister for Industry and Science Ed Husic.

  “澳大利亚政府决心采取措施,确保在该国安全、负责任地使用人工智能。”

  Husic表示,澳大利亚目前的监管体系不适合应对人工智能带来的风险。根据Husic的说法,可以自动生成图像、视频、音频和计算机代码的生成式人工智能更有可能是“高风险”的。

  Adobe发言人表示,该公司支持政府提出的专注于高风险人工智能用例的方法。

  这位发言人说:“政府的建议文件正确地考虑了人工智能对民主和选举的影响,我们同意他们的发现,即透明度是民主的关键支柱。”

  今年早些时候,Adobe改变了服务条款,暗示它允许自己访问用户的作品,以训练其生成式人工智能模型,甚至是受保密协议保护的作品,这引发了一波用户投诉。

  据格林菲尔德说,那是个误会。他说,Adobe并没有根据客户内容训练Firefly模型,也从来没有。

  “那真的很不幸,”他说。

  “我们对我们的使用条款做了一个非常小的、无害的改变。这是一个两个字的更改,触发了用户接受它们的自动要求。由于公司使用内容的方式越来越严格,很多人说,‘哦,Adobe正在修改使用条款。让我比以往任何时候都更仔细地阅读它们。”

  每周五在我们的技术通讯中获取关于技术,小工具和游戏的新闻和评论。在这里注册。

一物网声明:未经许可,不得转载。