FBI 警告 AI Deepfake 勒索诈骗

生成式人工智能创建栩栩如生的图像的能力令人印象深刻,但美国联邦调查局表示,犯罪分子正在利用深度伪造技术来针对受害者进行勒索。

“联邦调查局继续收到受害者的报告,其中包括未成年儿童和未经同意的成年人,他们的照片或视频被修改为露骨内容,”该机构在周一的 PSA 警报中表示。

FBI 表示,执法机构去年收到了 7,000 多份针对未成年人的在线勒索报告,自 XNUMX 月份以来,使用深度伪造品进行所谓“性勒索诈骗”的受害者数量有所增加。

深度伪造是一种越来越常见的使用人工智能创建的视频或音频内容类型,它描述了越来越难以辨别为假的虚假事件,这要归功于 Midjourney 5.1 和 OpenAI 的 DALL-E 2 等生成式 AI 平台。

今年 5 月,特斯拉和 Twitter 首席执行官埃隆·马斯克(Elon Musk)为了欺骗加密货币投资者而制作的深度伪造品在网上疯传。社交媒体上分享的视频包含马斯克之前采访的片段,经过编辑以适应骗局。

Deepfakes 并不都是恶意的,今年早些时候,身穿白色 Balenciaga 夹克的弗朗西斯教皇的 Deepfakes 病毒在网上疯传,最近,人工智能生成的 Deepfakes 也被用来让谋杀受害者起死回生。

联邦调查局在其建议中警告不要支付任何赎金,因为这样做并不能保证犯罪分子无论如何都不会发布深度伪造内容。

联邦调查局还建议在网上分享个人信息和内容时要谨慎,包括使用隐私功能,例如将帐户设为私密、监控儿童的在线活动以及留意您过去互动过的人的异常行为。该机构还建议经常在线搜索个人和家庭成员信息。

其他发出警报的机构包括美国联邦贸易委员会,该委员会警告称,犯罪分子在制作朋友或家人声称自己被绑架的音频深度伪造品后,一直在使用深度伪造品欺骗毫无戒心的受害者汇款。

“人工智能不再是科幻电影中遥不可及的想法。我们此时此地正与它共存。诈骗者可以利用人工智能来克隆你所爱之人的声音,”联邦贸易委员会在三月份的消费者警报中表示,并补充说所有犯罪分子的需求都是家庭成员声音的简短音频片段,以使录音听起来真实。

FBI尚未回应 解密的 请求评论。

随时了解加密新闻,在您的收件箱中获取每日更新。

来源:https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams