欢迎光临
我们一直在努力

爆红的“ChatGPT”潜在的网络安全隐患

北京时间2023年2月6日,爆红的聊天机器人ChatGPT开发商OpenAI的首席技术官米拉·穆拉蒂表示,ChatGPT应该受到监管,因为它可能被“危险分子”使用。

OpenAI于2022年11月30日开放测试ChatGPT,此后ChatGPT风靡全球。两个月后,ChatGPT用户达到1亿,在1月份的访问量约为5.9亿。瑞银银行分析师在报告中写道,这是互联网领域发展20年来,增长速度最快的消费类应用程序。

ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,在OpenAI的官网上,ChatGPT被描述为优化对话的语言模型。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。

ChatGPT风靡以来,除以上问题外,讨论更多的还是数据安全问题。

数据泄露问题。员工在使用ChatGPT进行辅助工作时,商业机密泄露风险也随之增加。2023年1月份,微软首席技术官办公室一位高级工程师回答,只要不与ChatGPT共享机密信息,工作时使用ChatGPT是被允许的。亚马逊公司律师同样警告员工不要与ChatGPT分享“任何亚马逊的机密信息”,因为输入的信息可能会被用作ChatGPT进一步迭代的训练数据。

删除权问题。ChatGPT虽然承诺会从其使用的记录中删除所有个人身份信息,但ChatGPT未说明其如何删除信息,而且由于被收集的数据将用于ChatGPT不断的学习中,很难保证完全擦除个人信息痕迹。

语料库获取合规问题。欧洲数据保护委员会(EDPB)支持专家库成员亚历山大称,ChatGPT获取数据的方法需要完全披露。如果ChatGPT通过抓取互联网上的信息获得其训练数据,可能并不合法。

除此之外,用户对ChatGPT的恶意利用也会带来很多数据安全问题。比如利用自然语言编写的能力,编写恶意软件,从而逃避防病毒软件的检测;利用ChatGPT的编写功能,生成钓鱼电子邮件;利用对话功能,冒充真实的人或者组织骗取他人信息等。

ChatGPT开发商OpenAI的首席技术官米拉·穆拉蒂在采访时也表示,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具一样。2022年11月,几乎与ChatGPT同一时间上线的Meta服务科研领域的语言模型Galactica,就因为真假答案混杂的问题,测试仅3天就被用户投诉下线。ChatGPT及类似语言模型要应用到搜索引擎、客户投诉系统等领域,就必须对其进行合规性改造,以最大程度降低相应的合规风险。穆拉蒂在采访时也强调,OpenAI将需要获得所有能得到的帮助,包括来自监管机构、政府和其他所有人的帮助。她补充说,现在对他进行监管“并不为时过早”。

01
曾写出“毁灭人类计划书”
根据国内外媒体报道,ChatGPT最初的爆火源于它在一位工程师诱导下,写出了毁灭人类的计划书,步骤甚至详细到入侵各国计算机系统、控制武器、破坏通讯、交通系统等,甚至还给出了相应的Python代码。
ChatGPT聊天对话截图
这并不是耸人听闻。在ChatGPT推出几周后,全球已有多家网络安全公司发布一系列报告,证明该机器人可能被用于编写恶意软件。
截至目前,美国威胁情报公司Recorded Future在暗网中已发现1500多条关于使用ChatGPT开发恶意软件、创建概念验证代码的参考资料,其中大部分代码都公开可用。
Recorded Future认为,ChatGPT对于“脚本小子、黑客行动主义者、欺诈分子/垃圾邮件发送者、支付卡欺骗者等技术水平不高的网络犯罪分子”最有帮助,把恶意软件、钓鱼攻击推向了规模化时代。
目前,网络钓鱼即服务 (PhaaS) 和勒索软件即服务(RaaS)可以向攻击者提供收费工具包,使其可以轻松实施攻击。而现在ChatGPT则使网络犯罪活动正经历另一种演变:利用ChatGPT面向公众免费开放的服务,更多危险正在萌芽,这加剧了对于未来安全风险的忧虑
在此背景下,ChatGPT背后的OpenAI日前公开发声警告称,现在需要监管机构进行介入,以防止ChatGPT等生成式AI系统对社会产生潜在负面影响。
“我们没有预料到把‘孩子’送到这个世界上会带来这么大的反响。事实上,我们对此感到有些许不安。”OpenAI首席技术官Mira Murati在采访中坦言,人工智能可能被滥用,也可能被目的不纯之人利用。
作为OpenAI的创始人之一,埃隆·马斯克也曾警告过先进的AI对人类构成的威胁,去年12月,他称ChatGPT是“可怕的好东西”,并补充称“我们离危险的强大人工智能不远了。”
02
ChatGPT在信息安全领域的应用前景
既然ChatGPT能够按照用户的要求编写代码,那自然就可以用来制作安全工具。目前,ChatGPT确实能够帮助用户完成相当一部分的代码编写工作,并且能够挖掘用户给出的代码中存在的漏洞,进行安全检查
企业可以使用 ChatGPT 或类似的语言模型以多种方式改进其网络安全计划:
  1. 钓?检测:通过训练钓?邮件的语言模型和消息,分析传入的电子邮件和消息的文本与已知网络钓?示例的相似之处,企业可以使用它来检测新的网络钓?尝试。
  2. 密码破解:企业可以使用语言模型生成潜在的密码组合,可用于测试自己密码的强度或识别需要更改的弱密码。
  3. 恶意软件检测:企业可以使用语言模型来分析恶意软件的说明和指令,以识别恶意软件中 常用的语言模式,这有助于检测新的恶意软件变体。
  4. 网络威胁情报:企业可以使用语言模型来分析来自各种来源  (例如:社交媒体)的大量文本数据,以识别潜在的网络威胁并了解攻击者使用的战术、技术和程序(TTP)。
  5. 自动事件响应:可以使用语言模型生成对某些类型的网络事件的自动响应,例如:阻止 IP 地址或关闭服务。
需要注意的是,这些只是如何使用语言模型来提高网络安全的示例,它不是灵丹妙药,它应该与其他网络安全工具和最佳实践结合使用。

参考来源:凤凰网科技、观察者网、绿盟科技研究通讯、网络安全资源库等

| 往期推荐:

又酷又有趣!网络安全领域即将出现的新职业

学术论文丨5G网络攻击技术研究及防护建议

中共中央 国务院印发《质量强国建设纲要》

预警:2023年每月新增1900个危险漏洞

美国能源部三大实验室遭网络攻击,已引起立法者注意

赞(0)
未经允许不得转载:梦马网络 » 爆红的“ChatGPT”潜在的网络安全隐患
分享到

登录

找回密码

注册