切换到宽版
  • 5阅读
  • 1回复

[智能应用]黑客用AI伪造绑架视频以索要赎金 [复制链接]

上一主题 下一主题
在线天人地

UID: 1627269

精华: 2
级别: 上清仙尊
 

发帖
295467
金币
21899
道行
40006
原创
108
奖券
147
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 36577(小时)
注册时间: 2012-09-03
最后登录: 2025-12-09
只看楼主 倒序阅读 使用道具 楼主  发表于: 4小时前
美国联邦调查局(FBI)近日发布一项新警告,指出一种日益猖獗的网络犯罪手法:不法分子正利用人工智能(AI)技术生成高度逼真的“深度伪造”(deepfake)视频,用于实施绑架勒索诈骗。犯罪分子通过 AI 生成的视频冒充人质“活着的证据”,以此向受害者家属施压,迫使其迅速支付赎金。据称,这些犯罪团伙会从互联网上搜集目标家庭成员的照片和视频素材,用来制作伪造内容。
根据 FBI 最新发布的安全通告,犯罪分子首先锁定潜在受害者,随后在社交媒体及其他数字平台上搜寻其公开发布的图像与视频资料。一旦收集到足够信息,他们便将这些素材输入生成式 AI 工具,模拟出受害者被劫持的场景,并将伪造的音视频作为所谓“人质尚在”的证据发送给家属,要求立即付款,不给受害者留出核实真伪的时间。
FBI 指出,随着 AI 技术以前所未有的速度发展,辨别此类视频真伪正变得愈发困难。此外,犯罪分子还利用具有定时销毁功能的通信工具发送信息,进一步压缩受害者核查内容的时间窗口。
该机构强调,尽管伪造视频日益逼真,但仍可能存在一些破绽,例如身体比例失真、面部特征异常或缺少特定身份标识等细节问题,可作为判断内容是否是伪造的线索。FBI 强烈建议公众切勿向不明身份者转账付款,并采取多项预防措施以降低遭遇此类 AI 驱动型绑架诈骗的风险。
IT之家注意到,具体防范建议包括:限制在互联网上分享个人及家庭信息,尤其是在旅行期间;谨慎设置社交媒体隐私权限,仅允许可信人员查看家庭照片和视频;最重要的是,在收到任何涉及赎金的要求后,务必先通过可靠渠道直接联系所谓“被绑架者”本人,确认其安全状况,再决定是否采取进一步行动。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
天人地
在线天人地

UID: 1627269

精华: 2
级别: 上清仙尊

发帖
295467
金币
21899
道行
40006
原创
108
奖券
147
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 36577(小时)
注册时间: 2012-09-03
最后登录: 2025-12-09
只看该作者 沙发  发表于: 4小时前
AI深度伪造技术已成新型勒索工具,通过合成亲人音视频制造恐慌,但存在技术破绽可识别

🕵️‍♂️ 诈骗手法揭秘
素材搜集:从社交媒体爬取目标家庭照片、视频、语音片段作为训练数据
技术合成:用生成式AI制作被绑架场景,结合定时销毁通讯工具压缩反应时间
心理施压:利用亲属焦虑情绪,威胁“延迟付款将伤害人质”,诱导快速转账
📊 典型案例对比
案例时间    诈骗方式    赎金金额    关键破绽
2023年四川9    AI语音模拟    80万元    通话含“00”开头国际号码
2023年福建19    AI换脸视频    430万元    微信账号异常登录记录
2025年FBI警告1    深度伪造视频    未明确    身体比例失真、面部异常
🔒 防范核心策略
验证身份:提前约定暗号,要求对方复述特定信息
核查渠道:通过备用方式(如视频回拨)确认人身安全
技术防护:启用生物识别+短信双重验证,限制敏感信息分享
及时报警:留存通讯记录,配合警方追踪资金流向
⚠️ FBI特别提醒:AI伪造视频可能暴露破绽,如不自然眨眼频率、模糊的背景细节等。
如何不发帖就快速得到金币道行
 
天人地
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个