□宋鹏伟
和你视频对话的,或许并不是其本人……数字化浪潮席卷社会的方方面面,诈骗手段也随之更新迭代。近期,有不法分子盯上了AI技术,通过AI换脸、AI换声等虚假音视频实施诈骗,在保险金融领域此类案件也时有发生。对此,山西省保险行业协会近日发布提醒,广大保险金融消费者,要提高警惕,加强防范。(《太原晚报》10月9日)
“耳听为虚,眼见为实”正随着科技的发展土崩瓦解。科技是把双刃剑,AI技术也不例外。通过利用这一技术,犯罪分子可以营造出一个充分可信的场景,进而利用对方的信任进行诈骗。你不相信对面是真警察?那就演给你看:小到警徽警服,大到公安局内部环境,都可以呈现在面前。对于很多缺乏警惕心理的人而言,如此逼真的场景,辅之以掌握到的个人信息和周密的话术,很容易被“攻陷”。更为可怕的是,这种技术当下既非高科技,也无高成本,犯罪分子通过广撒网,一定会让不少人成为这种新型电诈的受害者。
“魔高一尺,道高一丈”,骗局花样翻新,依然可以防范。首先,在心理上要树立反诈意识,资金转账也好,投资理财也罢,做决定前一定要留个心眼儿——万一是骗子呢?现在的骗术在持续打击下不断迭代升级,千万不可麻痹大意;其次,避免上当并非没有诀窍——多重验证。譬如,视频通话后,再打个电话确认,或是致电亲友当面确认;还是没有底,那就问对方几个“你知我知”的问题,看能否答得上来;倘若仍不放心,还可以寻求民警帮助。毫无疑问,这增加了人与人之间的信任和沟通成本,但相比轻信带来的巨额损失,多几次验证核实还是完全必要的。
治本之策,一方面要通过加强宣传提升公民自我防范意识,尤其是日常做好个人信息保护,切勿将个人隐私、亲友关系等内容泄露在互联网上;另一方面,有关部门要加大监管力度,对新型电诈保持高压之势,对过度收集个人信息、保护个人信息不力的公司严厉惩处,共同守护信息安全。