随着人工智能生成内容(AIGC)和大型语言模型(LLMs)的快速发展,技术已经深刻地改变了我们的日常生活和工作方式,极大地提高了我们在编程、数据分析和内容创作等领域的效率。然而,这些技术的进步也滋生了新型科技犯罪的苗头,比如Deepfake技术,它能够合成逼真的人脸和声音,进行人脸认证等。现在,随着技术的发展,诈骗团伙能够以更低成本实施更为智商更高、利润更高的诈骗活动,如恶意黑客盗取资金、以及盗取虚拟货币等。此外,使用区块链技术使得这些犯罪团伙的行踪更加难以追踪和识别。
在这一背景下,我们可能会听到一些似乎耳熟又不耳熟的名词,如”WormGPT”和”FraudGPT”。这些是和ChatGPT同时或者相近时间开发出的AIGC,但它们象征着那些被设计用于恶意目的的人工智能系统。例如,”WormGPT”可能指的是一种能够自我复制和传播的恶意软件,它可能利用了类似于大型语言模型的技术来识别和利用系统中的漏洞。而”FraudGPT”则可能代表一种专门用于进行欺诈活动的人工智能系统,它能够模仿人类的交流方式来诱骗受害者。因此,随着技术的发展,我们必须更加警惕和防范潜在的滥用和犯罪行为。
01
大模型技术滋生的新型犯罪
钓鱼邮件(phishing)是通过此技术延申出的相对普遍且成本较低的诈骗方式。今年年初,一家跨国公司的香港办事处遭遇了一起高端电汇欺诈骗局,黑客利用基于最新人工智能深度伪造技术的诈骗手段,从该公司骗走了高达2亿港元(约合2560万美元)。受害公司的一名财务部员工收到了一条看似来自公司驻英国首席财务官的网络钓鱼邮件,指示其执行一项秘密交易。尽管该员工起初有所怀疑,但在一次集体视频通话会议中,”首席财务官”和其他”同事”的出现使他放下了戒心,导致他向五个不同的香港银行账户进行了15笔转账,总计2亿港元,然而这些视频均是通过Deepfake深度合成的技术,生成的影像和声音。大约一周后,公司员工才意识到这是一个精心策划的骗局。
抛开诈骗以外,黑客也乘上了大模型的浪潮,兴风作浪。黑客攻击者们已经意识到,控制了AI算力,就相当于掌握了未来技术发展的钥匙。因此高价值的GPU集群成为了他们眼中的”香饽饽”,因为这些资源对于执行复杂的机器学习和深度学习任务至关重要。而击破AI的还得是AI,在短短一年的时间里,攻击者通过大模型已经开发出数十种不同的攻击手段,这些手段可能包括但不限于网络钓鱼、恶意软件、DDoS攻击、供应链攻击等,目的都是为了渗透和控制AI算力基础设施。例如今年年初,美国某公司数千台服务器被攻破,其算力集群被黑客用来挖取比特币,而其占用的算力则大大影响了用户对服务器正常请求信息的速率。
02
新型犯罪的预防
个人和企业在面对大模型犯罪时,必须采取一系列切实可行的措施来提高自身的防范能力。对于个人来说,首先应该提高对网络安全的意识,对任何要求提供个人信息或财务操作的请求保持警惕,避免在不安全的网络环境下进行敏感操作,并且不要轻易提供例如面孔、指纹、虹膜信息、声纹等可以追溯锁定到个人的信息。上周,名为Worldcoin的加密货币项目在香港引发了隐私权的争议。该项目由OpenAI的创始人之一Sam Altman参与发起,旨在通过虹膜扫描技术为全球未银行化人群提供金融服务。然而,香港私隐专员公署发现Worldcoin在收集个人资料时违反了《私隐条例》,包括未经充分告知参与者信息收集的目的和风险,以及未提供中文版的私隐声明和生物辨识资料同意书等。最终,Worldcoin被要求停止在香港使用虹膜扫描设备收集市民的虹膜及面容影像。个人应更加审慎地处理自己的敏感信息,避免在不了解隐私政策的情况下参与可能侵犯个人隐私的项目。同时,企业在设计和实施涉及个人信息收集的系统或服务时,必须依照《个人信息保护法》等收集个人信息,确保透明度和合规性。
对于企业来说,可以建立全面的网络安全策略,包括但不限于数据加密、访问控制、网络安全监控等措施。然而随着大模型发展、诈骗技术日益炉火纯青,肉眼辨别诈骗会将变得更难。因此,企业可以考虑利用魔法打败魔法,利用AI技术进行安全监控,比如采用类似于上海电信的“反诈大模型”进行实时分析和预警,以快速识别并响应潜在的安全威胁。同时,定期对员工进行网络安全培训,提高他们识别和应对网络诈骗的能力,也是企业防范大模型犯罪的重要一环。
03
写在最后
AI和区块链的发展,使得诈骗团伙和恶意黑客能够在更隐秘、要求更低的情况下,获得更多的非法利益。对于个人来说,在网络世界的谨慎能够一定程度上避免被诈骗的风险,而对于企业来说,高精度的狙击诈骗和骇入会更加难以防范。在实际操作中,个人和企业都需要持续关注网络安全动态,不断更新和完善防范策略,必要时可以通过AI进行反诈操作。通过这些综合性措施,个人和企业可以显著提高对大模型犯罪的防范能力,减少潜在的安全风险,确保信息资产的安全。
以上是今天的分享,感恩读者!