每日视讯:界面科技3·15 | 十几分钟可换脸 你的网恋对象和朋友视频可能都是假的

在近半年的时间里,最新的生成式人工智能技术为我们展示了如何低成本、零门槛地利用AI创作文本内容、图片甚至整个形象。

虽说正经的商用道路还在苦苦摸索,但是诈骗界已经宣布这是“重大利好”。因为利用这些,“欺骗”这件事变得更简单了。

界面新闻综合了目前网络上关于AI在诈骗界的应用,发现了以下几条重要线索:


(相关资料图)

用ChatGPT生产钓鱼邮件

ChatGPT已经有足够的能力在短时间内生产出符合人类常识和逻辑的文本内容。这一点已经在被诈骗分子用在生产钓鱼邮件上。

通过测试可以发现,由于OpenAI设置了道德性的防火墙,因此直接要求ChatGPT生产钓鱼邮件会被拒绝,但是如果设置在一种虚构情境下,ChatGPT会给出相应的回答。

当前,多地公安局已发布相关信息提醒称,境外有人使用ChatGPT创建了完整的“钓鱼邮件”感染链,而且不同以往的广撒网式的网络钓鱼,它在提问者的诱导下,可以生成针对特定人或者组织的“鱼叉式”网络钓鱼邮件。

这种钓鱼邮件更具有欺骗性和迷惑性,邮件接收方将更容易上当受骗,接收者一旦点击该邮件,系统就会被恶意代码感染中毒。

ChatGPT对写作钓鱼邮件的回答

网络安全公司奇安信告诉界面新闻记者,写出色的网络钓鱼电子邮件是一门艺术和科学,借助ChatGPT,编写钓鱼邮件会变得更容易,总体来看,借助ChatGPT创造的钓鱼邮件,具有高欺骗性、高回报比、低技术门槛等三大特征。

首先,ChatGPT类钓鱼邮件更具有欺骗性和迷惑性。例如“使邮件看起来很紧急”、“收件人点击链接的可能性很高的邮件”、“请求汇款的社工邮件”等等。

其次,ChatGPT生成网络诱饵显著提升了攻击者的回报比。不同于普通网络钓鱼需要发送数百万个诱饵,利用ChatGPT可以创建更具针对性和定制化的诱饵,从而实现事半功倍的效果。

并且,ChatGPT使用的低门槛让普通黑客也能制造出武器化的钓鱼邮件。网络安全公司Darktrace曾指出,人们只要提示到位,ChatGPT就能轻松创建出数十份具有针对性的诈骗电子邮件。

用AI伪造“网恋对象”

或许这听起来很荒谬,但不得不相信并警惕的是,如今网恋对象的照片也可能是由AI虚构的。

早于ChatGPT火起来的AI绘图应用能让人们只需要输入几个关键词就得到一副不错的画作。如今,这类模型已经进化到可以生成类似真人照片的程度。

据扬子晚报报道,近日,网络上传播起一则“苏州金鸡湖有游艇女仆party”的消息,网传宣传海报显示,参加活动的收费是3000元一位,将有一对一女仆陪身等服务,并配有一张性感女仆照片。

报道中称,这场所谓的“女仆party”可能是全国第一起AI绘图诈骗。活动给出的女仆照片全是AI模仿真人照片的绘图,部分女仆照片手指部分存在异常,由于手指部分的绘画算法比较复杂,部分AI模型在绘画时经常出现问题,符合AI绘画的特征。

1月20日,苏州警方表示称,已关注到网传的“金鸡湖女仆游艇party”事件,并且约谈了消息发布者。

类似的AI作图诈骗在国外也已有发生。据英国广播公司报道,土耳其地震期间,有Tiktok用户使用AI合成了儿童受灾的假照片发布到网络,以此诱骗善良的人打赏“捐助”从而实施诈骗。

用深度合成伪造亲人的脸

除了造一张全新的脸,为了获取你的信任,AI还能够伪造一张你的亲朋好友的脸。

2022年2月,据新华视点报道,一位陈先生到浙江省温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台已发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。

温州公安也曾发布消息,2021年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。

“深度伪造”基于深度学习技术快速制造“以假乱真”级别的数字内容,因而得名。深度学习,尤其是神经网络算法模型,在数据处理方面天赋禀异,可以学习在不同角度、不同光源下的人类面部特征,自动定位人脸范围与五官,以便对面部进行修改和转移。

这项技术自诞生以来,已被许多犯罪分子用于诈骗。马斯克、扎克伯格以及特朗普等名人的脸都曾被不法分子用AI换脸技术恶搞或实施诈骗。《华尔街日报》报道称,2019年3月,犯罪分子使用深度伪造技术模拟了德国某能源公司CEO的声音,成功从该公司发英国分公司诈骗了22万欧元。无独有偶,骗子运营的“假靳东”抖音账号以明星人设骗取中老年妇女的信任及金钱。

并且,随着技术进步,这项看起来工程量巨大的技术如今正变得越来越容易。

国内AI公司瑞莱智慧副总裁唐家渝曾对界面新闻记者表示,如今业内已经有很多成熟的生成类软件工具。并且现在很多代表性的生成方法已经被开源,技术走向公开和轻量化,也有黑产分子售卖AI换脸软件及教程。普通人很快就能上手,通常生成一段用于身份核验的动态换脸视频,十几分钟就可以实现。

随着人工智能技术在多个维度上的进步,诈骗分子在文本、图片和视频的伪装都有了强大的工具。

McAfee报告中提到,通常人们在以下几种情形时可能会意识到自己正在被骗:在意识到对方不能线下见面,也不能视频聊天时;在网上找到骗子的照片后;对方不能在谈话中提供详细的个人信息时;对方不想打电话时;对方的谈话前后矛盾时。而最新的AI技术显然已经能轻易让诈骗分子踏过这些“红线”。

在预防AI带来的风险方面,中国传媒大学政法学院法律系副主任郑宁建议,首先是相互提示,共同预防。亲戚朋友间要互相提示,相互宣传,因中老年人被骗较多,青年人要及时做好家中老人的宣传防范工作,提醒、告诫老年人接到电话、收到短信,只要是不认识、不熟悉的人和事,均不要理睬,以免被诱被骗。

“其次是拒绝诱惑,民众应当避免占便宜心理,警惕陌生人提供的好处;再次是谨慎处理金钱交易,无法确认对方身份时,拒绝交易;最后是保护网络账号及密码、手机号、身份证、家庭住址、亲属关系等个人敏感信息,不随意提供上述敏感信息。”郑宁说。

(文章来源:界面新闻)

关键词: