美国联邦调查局(FBI)近日发布一项新警告,指出一种日益猖獗的网络犯罪手法:不法分子正利用人工智能(AI)技术生成高度逼真的“深度伪造”(deepfake)视频,用于实施绑架勒索诈骗。犯罪分子通过 AI 生成的视频冒充人质“活着的证据”,以此向受害者家属施压,迫使其迅速支付赎金。据称,这些犯罪团伙会从互联网上搜集目标家庭成员的照片和视频素材,用来制作伪造内容。
根据 FBI 最新发布的安全通告,犯罪分子首先锁定潜在受害者,随后在社交媒体及其他数字平台上搜寻其公开发布的图像与视频资料。一旦收集到足够信息,他们便将这些素材输入生成式 AI 工具,模拟出受害者被劫持的场景,并将伪造的音视频作为所谓“人质尚在”的证据发送给家属,要求立即付款,不给受害者留出核实真伪的时间。
FBI 指出,随着 AI 技术以前所未有的速度发展,辨别此类视频真伪正变得愈发困难。此外,犯罪分子还利用具有定时销毁功能的通信工具发送信息,进一步压缩受害者核查内容的时间窗口。
该机构强调,尽管伪造视频日益逼真,但仍可能存在一些破绽,例如身体比例失真、面部特征异常或缺少特定身份标识等细节问题,可作为判断内容是否是伪造的线索。FBI 强烈建议公众切勿向不明身份者转账付款,并采取多项预防措施以降低遭遇此类 AI 驱动型绑架诈骗的风险。
IT之家注意到,具体防范建议包括:限制在互联网上分享个人及家庭信息,尤其是在旅行期间;谨慎设置社交媒体隐私权限,仅允许可信人员查看家庭照片和视频;最重要的是,在收到任何涉及赎金的要求后,务必先通过可靠渠道直接联系所谓“被绑架者”本人,确认其安全状况,再决定是否采取进一步行动。