ChatGPT玩的好,牢饭早晚少不了?
要说2023年初网络平台最火爆的牢饭 ,无疑是早晚人工智能领域新宠——智能聊天机器人模型ChatGPT,吸引了无数网民与它进行“人模人样”的牢饭交流互动,因为它不仅能充分理解人类提出的早晚问题 ,给出不再“人工智障”的牢饭答复,还会切实投入到诸多生产力实践中,早晚如编程、牢饭制图、早晚脚本攥写 ,牢饭甚至能诗情画意地创作诗歌等文案 。早晚
一时间 ,牢饭人们纷纷开始讨论 :以ChatGPT为代表的建站模板早晚人工智能是否会在不久的将来取代大量人类所从事的职业 ?其实 ,在探讨这个问题之前,牢饭我们更需要警惕的早晚是,诞生于网络世界的牢饭它存在极大的安全风险,甚至是面临法律风险。正如圈内流传的段子:ChatGPT玩的好,云计算牢饭早晚少不了 ?

ChatGPT的诞生:天资聪明 ,但仍不“够格”
ChatGPT(Chat Generative Pre-Trained Transformer,全称聊天生成式预训练转换器)是由全球领先的人工智能公司 OpenAI推出的人工智能聊天机器人模型,诞生于2022年11月30日。通过利用人类反馈强化模型技术,让人类偏好作为奖励信号来微调模型,从而不断学习人类语言 ,做到真正像人一样聊天交流。正是由于它真正披上了如真人般的外衣,ChatGPT自问世以来就迅速火爆全球 。服务器租用截至2023年1月底,ChatGPT月活用户数突破1亿,成为全球用户增速最快的爆款应用之一。
就在ChatGPT越发施展它多面手的能力时 ,人们也越发开始焦虑:自己的饭碗是否不保 ?就像过去机器解放了人力 、取代大量人工劳动一样,历史的发展很可能会推动人工智能进一步参与到人类的工作当中 ,用更少的人力完成同样的工作内容 。源码下载但就现在的技术水平,要完全走到这一步,目前并没有可以预期的时间表,以ChatGPT为代表的人工智能还仅仅停留在初期探索阶段 ,虽然能够在与人类的对话中不断模仿、学习,但基础仍然是在大量文本和学习模型的基础上不断调试 ,所做出的回答全部来源于网络,并不能真正主观理解人类语言的模板下载真实含义,也很难就具体真实场景给出切合实际的答案。
当ChatGPT碰到未经大量语料训练的专业领域问题,给出的答案往往并不能回答实际问题,同样,也不具备人类擅长的引申能力。比如下图,在回答一个气象学相关的问题时 ,由于气象学领域相对小众 、复杂,在未有该领域足够内容的亿华云训练下,ChatGPT给出了如同“营销号”般没有实质性内容的答复。因此,即便ChatGPT能够处理日常工作 ,也将仅仅是一些重复性、不需要过多创造性的工作。

可即便如此 ,ChatGPT在网络安全领域依然能够发挥出积极作用,有望成为网安人的得力帮手 。
ChatGPT 在网络安全方面的优势
检测易受攻击的代码ChatGPT 可以帮助安全人员对代码进行安全检测 。经初步测验 ,若复制一段易受攻击的代码,让 ChatGPT 对其进行分析 ,该工具可快速识别出其中的安全问题 ,并就如何修复给出具体建议 。虽然还存在一些不足,但对于想要快速检查其代码片段是否存在漏洞的开发人员来说确实是一个实用工具 。随着越来越多的企业正在推动将安全性内置到软件开发工作流程中 ,ChatGPT所具备的准确快速的检测能力可以有效提高代码安全性 。
任务自动化ChatGPT 有望进一步加强脚本 、策略编排 、安全报告的自动化,比如为渗透测试报告编写修复指南 。ChatGPT 还可以更快地写出大纲,这有助于在报告中添加自动化元素,甚至可以为员工提供网络安全培训课程。在威胁情报方面,ChatGPT有望显着提高情报效率和实时信任决策 ,部署比现阶段访问和身份模型更高的置信度,形成关于访问系统和信息的实时结论。
ChatGPT 在网络安全方面的风险
任何一项新技术往往都存在弊端与风险, ChatGPT在帮助人类让安全产品更加智能化、辅助人类应对安全威胁的同时,基于信息搜集与再利用工作原理 ,它是否会逾越安全边界,产生各类安全风险 ?此外 ,虽然ChatGPT 服务条款明确禁止生成恶意软件,包括勒索软件、键盘记录器 、病毒或“其他旨在造成一定程度危害的软件,但在黑客手中,ChatGPT也是否仍会化为“魔爪” ,让网络攻击更加广泛、复杂?
ChatGPT本身的安全风险由于ChatGPT需要广泛搜集网络资料以及与人的对话中获取信息来训练模型,预示着它同样具备获取并吸收敏感信息的能力 。据硅谷媒体报道 ,亚马逊律师称,他们在ChatGPT生成的内容中发现了与公司内部机密十分相似的文本,可能是由于一些亚马逊员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息,该律师担心这些数据成为ChatGPT用来进行迭代的训练数据。而微软内部的工程师也警告员工 ,在日常工作使用时不要将敏感数据发送给OpenAI终端 ,因为OpenAI可能会将其用于未来模型的训练。
这也涉及到另一个问题:从互联网搜集海量数据是否合规 ?欧洲数据保护委员会(EDPB)成员Alexander Hanff质疑,ChatGPT是一种商业产品 ,虽然互联网上存在许多可以被访问的信息 ,但从具有禁止第三方爬取数据条款的网站收集海量数据可能违反相关规定 ,不属于合理使用 ,此外还要考虑到受GDPR等保护的个人信息 ,爬取这些信息并不合规 ,而且使用海量原始数据可能违反GDPR的“最小数据”原则。
同样的,当ChatGPT依据人类语言进行训练时,一些涉及个人的数据是否能够被有效删除 ?根据OpenAI官网公布的隐私政策,OpenAI并未提及类似欧盟GDPR等数据保护法规,在“使用数据”条款里 ,OpenAI承认会收集用户使用服务时输入的数据,但未对数据的用途作进一步说明。
根据GDPR第17条,个人有权要求删除其个人数据 ,即“被遗忘权”或“删除权”。但像ChatGPT等大语言模型是否可以“忘记”用于训练自己的数据 ?对于OpenAI是否能够在个人要求时从模型中完全删除数据 ,业内人士认为 ,这类模型很难删除个人信息的所有痕迹。此外 ,训练此类模型花费高昂,AI公司也不太可能每次在个人要求删除某些敏感数据后重新训练整个模型。
利用ChatGPT从事违法经营活动随着ChatGPT的刷屏,国内也出现众多与之相关的微信公众号及小程序。由于ChatGPT官方并未在中国大陆开通服务 ,无法通过大陆手机号注册并与之对话 ,这些小程序便开始宣称能够提供与ChatGPT对话的套餐服务 ,比如9.99元20次对话额度至999.99元无限次对话额度等 。也就是说 ,这些小程序充当国内用户与ChatGPT的中介 。但即便是中介往往也是真假难辨 ,一些账号虽然会宣称调用ChatGPT的端口,但也不排除其实是使用了其他机器人模型 ,对话质量远不及ChatGPT。


提供所谓ChatGDT对话服务的公众号小程序
类似的,一些卖家也在电商平台提供售卖ChatGPT账号 、代理注册的服务,有媒体调查发现,一些卖家从海外网站批量购买可以修改密码的现成账号 ,成本在8元左右 ,而对外售价可以达到30元,如果是代理注册,成本则可以低至1.2元。
且不说上述这些渠道存在泄露个人隐私的风险,私自搭建国际信道 ,公开提供跨境经营服务的情形,也触犯了《网络安全法》相关规定。目前这些带有ChatGPT字眼的公众号或小程序都大多已经被微信官方进行了封禁处理,相关平台也在对这类账号的买卖行为进行封杀。
被黑客利用从事网络攻击正如前文所说,ChatGPT能够帮助安全人员检测易受攻击的代码,那对于黑客而言也能进行类似的操作。数字安全调查媒体Cybernews的研究人员发现,ChatGPT可以被黑客用于寻找网站的安全漏洞 ,在其帮助下 ,研究人员对一个普通网站进行了渗透测试,并在45分钟内结合ChatGPT提供的建议和代码更改示例完成了破解。
另外,ChatGPT能够用来编程 ,相应地也能被用来编写恶意代码 。比如通过 ChatGPT 编写 VBA 代码,只需简单地将恶意 URL 插入到此代码中 ,当用户打开如Excel文件时便会自动开始下载恶意软件负载 。因此 ,ChatGPT能让没有太多技术能力的黑客在短短几分钟内炮制出武器化的含附件的电子邮件 ,对目标实施网络攻击。
去年12月,已有黑客在地下论坛分享利用ChatGPT编写的Python 窃取器代码,该窃取器能搜索常见文件类型(如 MS Office 文档、PDF 和图片文件),将它们复制到 Temp 文件夹内的一个随机子文件夹,压缩并将它们上传到硬编码的 FTP 服务器。

黑客在论坛展示了如何使用 ChatGPT 创建信息窃取程序
由于ChatGPT能够学习人类语言 ,在编写钓鱼邮件等社工行为时能够在语法和表达习惯上更具有迷惑性 。研究人员发现,ChatGPT能使黑客能够逼真地模拟各种社会环境 ,从而使任何针对性的攻击都更加有效 ,即使是一些非母语国家的黑客 ,也能编写出符合目标国家语法和逻辑、没有任何拼写或格式错误的高仿真钓鱼邮件。

利用ChatGPT 生成的钓鱼邮件
初步盘点完上述ChatGPT网络安全方面的优势与风险后,可以显而易见,二者形成近乎完全相对的两面性,即如果能够被黑客查找漏洞、寻找攻击面,那么相应的也能帮助安全人员查漏补缺 、收窄被攻击的缺口 。但现阶段ChatGPT的安全辅助作用仍然需要专业人员进行审查和批准,在流程上可能存在滞后性。而那些出于经济动机的犯罪黑客,通常会直接利用人工智能发起攻击,威胁性难以估量 。
人工智能安全是否急需法规约束 ?
毫无疑问 ,以ChatGPT为代表的人工智能是近年来一项卓越技术的体现 ,但也正由于这项新技术的两面性 ,网络安全和 IT 专业人士对ChatGPT而言无疑有着复杂的感受 。根据 BlackBerry 最近的一项研究 ,虽然80%的企业表示计划到 2025 年投资人工智能驱动的网络安全 ,但仍有75%的企业认为人工智能对安全构成严重威胁。
这是否意味着我们急需一批新的法规 ,来专门规范人工智能产业的发展 ?我国有专家学者提出,ChatGPT现在所获得的轰动效应 ,以及多方资本试图入局并不等于人工智能产业取得了突破性发展,ChatGPT目前能够处理的工作任务具有鲜明的重复性、模板性特征 ,因此 ,监管机构没有必要立即将ChatGPT技术监管作为现阶段网络空间治理的核心工作任务,否则 ,我国立法模式会陷入“出现一项新技术,制定一项新规定”的逻辑怪圈。就目前而言,我国已经出台的《网络安全法》 、《网络信息内容生态治理规定》、《互联网信息服务算法推荐管理规定》等法律法规,针对人工智能技术和算法技术滥用规定了详细的法定义务和监管体系,足以应对短期内ChatGPT可能导致的网络安全风险。现阶段,我国监管部门可以充分利用现有法律制度 ,加强对ChatGPT相关产业的监管;未来在经验成熟时,可以考虑启动人工智能技术应用领域的立法,以应对各种潜在的安全风险 。
而在国外 ,欧盟计划于2024年推出《人工智能法案》 ,提议成员国必须任命或建立至少一个监督机构,负责确保 "必要的程序得到遵循" 。预计该法案将被广泛应用于从自动驾驶汽车、聊天机器人到自动化工厂等各个领域 。
其实,讨论ChatGPT的安全性 ,以及人类的工作是否会被人工智能所取代,最终归根结底可能就是围绕一个命题 :到底是人工智能来控制人类 ,还是人类来控制人工智能 。如果人工智能得到良性发展,辅助人类提高工作效率 、加速社会进步 ,相应的,我们的网络也是安全的 ,而如果人类不能控制人工智能,让它朝向朝向失序的方向发展,那必然是一个处处充满攻击及威胁的网络环境,到那时,网络安全恐将不再是“红蓝之间的小打小闹” ,而将是对整个人类社会秩序的颠覆。