OpenAI的报告:AI模型已被用于干扰选举活动,严重影响美国大选
编辑:Yuki | ID:YukiYuki1108
OpenAI 在一份报告中提到,该公司持续观察到一些威胁行为者试图利用 ChatGPT 来影响选举结果。自今年 1 月以来,OpenAI 已成功阻止了“全球超过 20 起试图利用我们模型的行动和虚假网络”。
今年是全球选举的重要年份,影响到 40 多个国家的 40 多亿人。ChatGPT 逐渐成为一些网络势力影响全球民主选举的工具之一。
在周三发布的一份长达 54 页的报告中,ChatGPT 的开发者表示,已经破坏了“超过 20 起全球范围内试图利用我们模型的行动和虚假网络”。这些威胁行为包括使用人工智能生成的文章及虚假社交媒体账号发布的内容。
该公司解释,发布此份“影响力和网络行动”的更新是为了提供其发现的“快照”,并识别“可为讨论人工智能如何融入更广泛的威胁场景提供依据的一些初步趋势”。
OpenAI 的这份报告恰逢美国总统大选前一个月发布。此外,今年也是全球选举的重要一年,影响着 40 多个国家和 40 亿人口。机器学习公司 Clarity 提供的数据表明,随着人工智能生成内容的兴起,与选举相关的虚假信息显著增加,深度伪造的数量同比增长了 900%。
虽然虚假信息在选举中并非新问题,但早在 2016 年美国总统选举期间,俄罗斯就曾利用廉价且简单的方法在社交媒体上传播虚假信息。到了 2020 年,大量关于新冠疫苗和选举舞弊的虚假信息充斥社交平台。
如今,立法者更加关注生成式人工智能的发展。这一技术自 2022 年底 ChatGPT 推出以来飞速发展,并被各类企业广泛使用。
OpenAI 在报告中提到,与选举相关的人工智能应用有不同的复杂程度,从简单的内容生成请求到多阶段的社交媒体分析和回复。大部分生成的社交媒体内容与美国和卢旺达的选举有关,其次是印度和欧盟。
今年 8 月,OpenAI 揭露伊朗的一个项目利用其产品生成有关美国大选和其他话题的长篇文章及社交媒体评论,但这些帖子的互动量非常有限,几乎没有获得点赞、分享或评论。7 月,OpenAI 禁止了卢旺达的一些与选举相关的 ChatGPT 账号在 X 平台上发布评论。5 月,一家以色列公司利用 ChatGPT 生成了与印度选举相关的社交媒体评论。OpenAI 在不到 24 小时内就处理了这一问题。
今年 6 月,OpenAI 还披露了一项秘密行动,使用其产品评论法国欧洲议会选举以及美国、德国、意大利和波兰的政治局势。虽然大多数帖子几乎没有得到点赞或分享,但部分帖子确实得到了真人回复。
OpenAI 强调,所有与选举相关的操作都未能通过使用 ChatGPT 和其他工具实现“病毒式传播”或建立“持续的受众”。
原文标题 : OpenAI的报告:AI模型已被用于干扰选举活动,严重影响美国大选
最新活动更多
-
11月22日立即报名>> 【线下论坛】华邦电子与莱迪思联合技术论坛
-
12月19日立即报名>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
7.30-8.1马上报名>>> 【展会】全数会 2025先进激光及工业光电展
-
精彩回顾立即查看>> 【线下论坛】华邦电子与恩智浦联合技术论坛
-
精彩回顾立即查看>> 【线下巡回】2024 STM32 全球巡回研讨会
-
精彩回顾立即查看>> 2024先进激光技术博览展
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论