北京时间2023年2月6日,爆红的聊天机器人ChatGPT开发商OpenAI的首席技术官米拉·穆拉蒂表示,ChatGPT应该受到监管,因为它可能被“危险分子”使用。
OpenAI于2022年11月30日开放测试ChatGPT,此后ChatGPT风靡全球。两个月后,ChatGPT用户达到1亿,在1月份的访问量约为5.9亿。瑞银银行分析师在报告中写道,这是互联网领域发展20年来,增长速度最快的消费类应用程序。
ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,在OpenAI的官网上,ChatGPT被描述为优化对话的语言模型。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。
不过,随着ChatGPT聊天机器人在商业领域使用量快速增长,Alphabet(谷歌)、Meta等全球科技巨头开始提心吊胆,并试图采取全新的战略措施。由于ChatGPT具备检索功能,可以用清晰、简单的句子提供信息,而不仅仅是互联网链接列表,这使得谷歌可能面临对其主要搜索业务的严重威胁。微软公司积极拥抱OpenAI,正计划推出新版必应搜索引擎,使用聊天机器人ChatGPT背后的人工智能(AI)技术。Meta则在紧张备战,加快人工智能新兴技术的融入。
在学术专业领域,纽约市教育部发言人Jenna Lyle认为,ChatGPT的负面影响超过了积极因素。Lyle表示,“虽然该AI工具可能能够提供快速简便的问题答案,但它并不能培养批判性思维和解决问题的能力,而这些技能对于学术和终身成功至关重要”。一项调查显示,截止2023年1月,美国89%的大学生都是用ChatGPT做作业。德国图宾根大学也在一封内部邮件中宣布:出于担心ChatGPT的使用正变得不可控,学校决定严格限制这款人工智能的使用,由ChatGPT生成的文本不得用于学习和考试。
ChatGPT风靡以来,除以上问题外,讨论更多的还是数据安全问题。
数据泄露问题。员工在使用ChatGPT进行辅助工作时,商业机密泄露风险也随之增加。2023年1月份,微软首席技术官办公室一位高级工程师回答,只要不与ChatGPT共享机密信息,工作时使用ChatGPT是被允许的。亚马逊公司律师同样警告员工不要与ChatGPT分享“任何亚马逊的机密信息”,因为输入的信息可能会被用作ChatGPT进一步迭代的训练数据。
删除权问题。ChatGPT虽然承诺会从其使用的记录中删除所有个人身份信息,但ChatGPT未说明其如何删除信息,而且由于被收集的数据将用于ChatGPT不断的学习中,很难保证完全擦除个人信息痕迹。
语料库获取合规问题。欧洲数据保护委员会(EDPB)支持专家库成员亚历山大称,ChatGPT获取数据的方法需要完全披露。如果ChatGPT通过抓取互联网上的信息获得其训练数据,可能并不合法。
除此之外,用户对ChatGPT的恶意利用也会带来很多数据安全问题。比如利用自然语言编写的能力,编写恶意软件,从而逃避防病毒软件的检测;利用ChatGPT的编写功能,生成钓鱼电子邮件;利用对话功能,冒充真实的人或者组织骗取他人信息等。
ChatGPT开发商OpenAI的首席技术官米拉·穆拉蒂在采访时也表示,ChatGPT可能会“编造事实”,这与其他基于语言模型的人工智能工具一样。2022年11月,几乎与ChatGPT同一时间上线的Meta服务科研领域的语言模型Galactica,就因为真假答案混杂的问题,测试仅3天就被用户投诉下线。ChatGPT及类似语言模型要应用到搜索引擎、客户投诉系统等领域,就必须对其进行合规性改造,以最大程度降低相应的合规风险。穆拉蒂在采访时也强调,OpenAI将需要获得所有能得到的帮助,包括来自监管机构、政府和其他所有人的帮助。她补充说,现在对他进行监管“并不为时过早”。