2024年1月30日
随著AI生成的泰勒·斯威夫特色情图片在X(原Twitter)上恶性传播,我们不禁要问:这对AI的未来意味著什么?
在最近的一次令人不安的事件中,AI生成的在X上迅速蔓延,显示了AI能力的阴暗面。这些图片被认为是透过MicrosoftDesigner制作的,吸引了广泛的关注,突显了虚假色情内容日益加剧的挑战。
随著这些图片迅速传播,此事件引发了粉丝和隐私维护者的愤怒,同时也提出了有关AI在媒体创作中伦理使用的重大问题。
Avast威胁情报总监米哈尔·萨拉特(MichalSalát)在这场即时的讨论中带来了丰富的知识和专业见解。萨拉特对于技术、安全和伦理的交叉领域有著敏锐的洞察力,为AI生成内容的影响提供了细致的视角。
在接下来的几节中,我们将深入探讨他的见解,回顾图像操控的历史类比、AI技术所带来的伦理困境,以及在我们日益依赖AI的世界中,数字信任和安全的更广泛影响。
假色情内容不是新问题
萨拉特将目前AI生成逼真图片的能力与过去Photoshop的使用进行了对比。正如Photoshop在几年前革命性的改变了图像操控方式,AI现在更容易创造出逼真的图片。然而,操控图像的概念并不新鲜;AI只是成为了这场持续剧的最新工具。
“从某种意义上说,这只是一种不同的照片编辑软件,”他解释道,强调了图像操控的概念已经存在超过十年。现在的关键区别在于AI技术带来的便利性和可及性。这一转变引发了有关社会如何适应和规范这些新工具的重要问题,这些工具使得创造逼真的图片变得比以往任何时候都更容易。
AI与露骨内容的伦理困境
最迫切的担忧之一是使用AI生成露骨图片的伦理含义,特别是针对特定个体且未获得其同意。虽然生成一般的裸体图片可能不会引发太多伦理问题,但真正的问题在于轻易地创建可识别人的露骨图片。
“AI生成的色情内容本身并没有什么根本错误或伦理问题,”萨拉特表示。“但对我而言,伦理问题在于,你可以相对轻松地生成一张带有已知或特定面孔的图片。”
这一能力不仅限于像泰勒·斯威夫特这样的名人,还可能延伸到任何人,强调了制定伦理准则和立法的必要性:虽然所谓的“报复色情”(或非自愿分享裸体照)在,但目前仅。这一明显的差异突显了立法需要跟上技术的步伐。
AI公司如何防止深伪色情的创作?
或许因为生成性AI的使用相对较新,对于未经当事人同意的露骨内容的创作几乎没有保护措施。不过,萨拉特认为,对AI公司来说,实施这些措施并不会太困难:只需不允许针对特定人的图片生成,或者不使用客户提交的图片作为素材,就能为大多数人提供足够的防范。
“当然,有些人能够绕过这些限制,迫使模型做一些它不应该做的事情,”萨拉特说。“我认为,目前几乎不可能完全避免这种情况——我们只能让它变得更困难。我想强调的是,提供这些服务的公司应该更努力地避免这种情况。”
另外,也可能有些人会创建自己的无限制色情生成模型。但萨拉特指出,尽管这是可能的,但这需要大量的技术知识和计算能力才能实现。
“能够自己创建AI来生成裸体图片的人并不多,”萨拉特说。“所以,这更像是使用Photoshop,需要一定的技能水平才能做到。”
萨拉特将当前AI发展的状态与安全行业的演变进行了对比。他观察到,我们正见证著安全行业“在AI面前重头再来”。这一比较强调了将AI发展视为一个持续过程的重要性,在这个过程中,识别和修复漏洞是技术成熟的关键。
泰勒·斯威夫特在X上出现的AI生成图片强调了负责任使用AI的重要性。随著AI的不断进步,在技术能力与伦理考量和安全措施之间保持平衡将至关重要。透过向米哈尔·萨拉特等专家学习并反思过去的挑战,我们可以以更加知情和谨慎的方式导航这一复杂的领域。