加载中...
您的位置:首页 >热点 > 正文

骑象人圆桌|如何防止GPT变“坏”?听听10位嘉宾怎么说

2023-04-11 23:22:02 来源:凯迪网

R I D I N G Y O U R M I N D

开栏语


(资料图)

讨论,是思想的碰撞,也是观点的交锋;带来启发与启示,也带来灵魂深处的快感。于是,我们支起一张圆桌,不定期的邀请来自各个领域的精英、学者围坐于此,对经济热点展开酣畅淋漓的讨论。当下,经济是新的,格局是新的,变化是新的,这给未来增加了些许不确定性和想象空间,也给我们的讨论赋予了更多的时代意义。总之,我们认为,这是一件很美妙的事情。

第 2 期 | 字数 5720

ChatGPT正走进大众的视线。它极大提升了生产力、便利了大众的生活,但其也是一柄双刃剑,不久前甚至还出现诱导人类自杀的事件,由此产生的科技伦理问题也引发了全球的关注与担忧。

令人欣慰的是,我国已开始筹谋提前化解人工智能的科技伦理风险。日前,科技部公开征求对《科技伦理审查办法(试行)》的意见。我们该如何防止AI“变坏”?本期骑象人圆桌邀请了10位学者及从业者,一起来聊聊如何筑牢护城河,守住AI“科技伦理”这条红线。

本期出场嘉宾(按姓氏拼音首字母排序 ):

郭 兵 /浙江理工大学数据法治研究院副院长

郭 涛 /天使投资人、资深人工智能专家

洪 勇 /中国数实融合50人论坛智库专家、商务部研究院电子商务研究所副研究员

盘和林 /浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员

宋向清 /北京师范大学政府管理研究院副院长、产业经济中心主任

孙 博 /北京海百川科技有限公司CEO

孙志峰 /卓纬律师事务所律师

熊 辉 /香港科技大学(广州)协理副校长、人工智能学域主任

王 鹏 /北京社科院研究员、中国人民大学智能社会治理研究中心研究员

周 迪 /科技部国家科技专家库专家

秒懂

ChatGPT :美国OpenAI研发的聊天机器人程序,于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。

科技伦理 :指科技创新活动中人与社会、人与自然和人与人关系的思想与行为准则,它规定了科技工作者及其共同体应恪守的价值观念、社会责任和行为规范。

1 ChatGPT和之前的AI助手有何不同?突破在哪?

盘和林:是强智能,是生产力工具

此次的人工智能是生成式、大模型,其和过去人工智能最大的区别,就是当前生成式AI是强智能,是生产力工具,而过去的AI只是助手和玩具。

宋向清:更高级的智能助手

以往的智能助手,是基于资料、数据的直线思维助手,没有对相关信息的整合能力和逻辑思维。而ChatGPT不但可以提供相关的资料数据信息,还可以将这些数据信息进行融合,根据不同的问题进行深入加工,可以对语言进行处理,可以根据上下文进行互动,整合相关数据信息,可以理解人类的意思,和人类的思想同频共振、拥有无限的扩展性和逻辑思维,因而是更高级的智能助手。

郭涛:更好地模拟人类行为

ChatGPT通过语料库进行自然语言处理的训练,采用“从人类反馈中强化学习技术”(RLHF)进行不断地强化训练。相较于以往的智能助手,可以更好模拟人类聊天行为,理解能力和交互能力也更强,可以更加精准的回答用户提问,大幅提升用户体验。

王鹏:以大模型为基础,可以涵盖很多应用

以ChatGPT为代表的人工智能与以往的智能助手最大的差别在于其核心是以大模型为基础的,这种大模型就是在通用算法的基础上,可以涵盖很多应用,如音视频、绘画,甚至科研工作,都可以应用这个大模型。

周迪:不次于智能手机带来的影响

ChatGPT最主要的突破在于其背后架构中使用小样本和用户反馈的技术。根据人类已有撰写内容的规律,来推测接下来可能出现的内容。使用几个特定的任务示例来简化微调的过程,使之具备了辅助和替代人类创作的能力。这将是一场革命性的变化,可能不次于计算机、智能手机等带来的影响。

孙博:沟通方式的突破

ChatGPT已经从1.0到就快推出4.0了,当下引发关注的一个点在于“沟通方式的突破”。以往ChatGPT在人工智能领域的关注度也很高,它可以交流和创作一些东西,但在任一行业使用的时候,都需要进行很复杂的参数调整和驯化,才可以让其为人工提供助力。而现在的突破在于,任何一个行业任何一个人都能很顺利地与其进行交流互动,并让ChatGPT为自己的工作,如写论文、查数据、搜索结果、写程序等提供辅助,这种破圈引发了大家的关注。

2 如何看待ChatGPT未来发展前景 ?

盘和林:已具赋能千行百业的能力

我认为ChatGPT将会与互联网一样对各行业都来变化,ChatGPT已经体现出这种赋能千行百业的能力。

宋向清:许可领域和抵制领域是两大关注点

ChatGPT未来的发展我认为需要关注两个层面:第一个层面是可以应用在一些与人类活动无关的领域,可以提升劳动效率,提高工作的精准性;第二个层面是从安全角度考虑,由于ChatGPT具有了对数据的整合分析能力,且具有众多的传播路径,因而需要在全球层面建立一个关于ChatGPT的安全联盟,共同抵制其在某些领域的应用,减少在人类生命安全、数据安全、经济社会等方面的威胁和隐患。

郭涛:有望形成万亿级市场规模

ChatGPT具有广泛的商业前景,将推动众多行业的快速变革,加速在AIGC、客户服务、在线教育、信息查询、在线翻译、家庭陪护等领域快速落地,并有望形成万亿级市场规模。

孙志峰:将给法律行业带来巨大变化

一方面,利用ChatGPT可以轻松造成检索、分析、生成部分法律文件等,较大程度地解放双手,减轻人工压力和成本,也会促进高度依赖人脑主观分析判断的裁判尺度越来越趋向统一;但与此同时,也会给相关岗位带来被越来越成熟的人工智能替代的风险。法律咨询、律师函等简单法律文书撰写方面可能会较为突出。

孙博:有望成为第五次工业革命主要推力

孙博 :我认为ChatGPT对各个行业都会带来很大的影响,它的出现和几大领域的技术突破有关联,未来很可能集合各种人工智能技术成为第五次工业革命的主要推力之一。

3 ChatGPT给人们生活带来哪些改变?可能取代哪些职业?

盘和林:会替代简单脑力劳动,也会带来就业

ChatGPT会替代的反而不是体力劳动,是脑力劳动,是那种套路式,简单式的脑力劳动,但同时ChatGPT也会带来就业。以ChatGPT为代表的AIGC技术会取代大量就业,但实际上AIGC也在创造就业。比如AIGC让算力、数据产业成为新兴产业,诸如数据收集、清晰、存储、预标注、整理、传输、交易等都需要大量人才,诸如通信产业、光芯片、GPU、服务器等产业也将进入新的扩张期。

宋向清:在科学实验、医学等领域具有广阔应用空间

在确保安全性的基础上,ChatGPT未来可应用于生产生活、社会管理、文案创作等领域。ChatGPT带来人们最大的便利主要还是信息抓取、文案处理、翻译、代码合成等,未来在生产领域、科学实验、医学方面都具有广阔的应用空间。但同时,无限制无约束地发展ChatGPT并不是未来一个正确的取向,应当设置防护栏等约束规则,不能让它超过人类的管理和管束。

熊辉:新技术对人的知识结构提出了新要求

我们拥有这种新型的AI工具,可以提升我们的生产力,这是一个整体的发展趋势。我是站在一个相对比较正面的角度来看待这个问题。但是新的技术对人就提出了新的要求。就像纺织工业革命,如果当时没有及时从传统的手工业转移到工业革命时代的知识结构,那么有可能会失业。

孙博:推动新旧职业更替,不必过分担心

一方面,越是需要知识积累的、逻辑性的行业越容易被人工智能取代,比如律师、医生、老师、艺术家等。另一方面,类似于汽车出来后骑马相关的很多职业消失了,但汽车制造商、汽车维修工、司机等很多新的职业应运而。ChatGPT的发展同样也会带动很多职业的产生和发展,大家不必过于担心。

4 我国目前发展ChatGPT这类AI大模型主要面临哪些限制和困难?

盘和林:首先要奠定规则基础

我国首要做的是在规则方面为ChatGPT的发展奠定基础,当然,需要强调我国的规则制定应该在ChatGPT等AI产品引进和应用方面,要先能用,再考虑其他。

郭涛:核心技术发展还不成熟

当前,我国发展ChatGPT这类AI大模型处于发展的早期探索阶段,存在核心技术发展不成熟、算法模型不完善、理解能力不足、对语料库依赖过度、法律发挥和道德伦理等突出问题,距离大规模的商业化应用还需很长一段时间。

周迪:训练数据不足和芯片都存不足

我国目前发展chatGPT这类AI大模型,首先面临的就是训练数据不足的问题。ChatGPT拥有千亿级别参数规模,使其能够捕获更复杂的语言模式。其次,计算芯片硬件存在差距。高性能GPU是人工智能的基石。谷歌、微软等搜索行业巨头可能需要百万级别的GPU。中国面临着底层硬件局限和差距的问题。

孙博:此前不愿投入太大成本,今后应多一些耐性和想象性

我国在发展ChatGPT大模型所遇到的限制和困难主要有两点。首先,此次研发ChatGPT的OpenAI公司事实上从2018年就开始了这项研究,对比之下由于对大模型未来收益的不确定性,我国业界各方此前都不愿意投入太大的成本对这个领域进行研究,导致我国目前在这一领域比较落后,希望今后对科研的投入能多一些耐性和想象性。其次,我国面临的芯片代工的掣肘还需要逐步突破。

5 如何看待千余名专家联名建议暂停训练更强大的AI系统?AI存在哪些不可控的风险?

盘和林:要反其道而行之,积极研发

要反其道而行之,要了解科技的发展从来不以人为意愿决定,科技还是会发展,如果我们不发展,别人就会发展,如果好人不发展,坏人就会去发展。实际上,叠加灰色数据信息产业链,黑暗中产生强大AI的可能性更大。所以要积极研发。

宋向清:存诸多法律风险,应对其使用进行设限

对于多名专家建议暂停训练更强大的AI系统的观点持支持态度。AI存在的不可控风险有很多,比如信息的泄露、人类的智力能力的退化、大量工人的失业、知识产权等法律风险隐患,阻碍社会的稳定和谐,因而需要对其使用进行设限。

郭涛:网络安全威胁和风险日益突出

随着ChatGPT、AIGC等为代表的人工智能技术的大规模快速落地应用,相关网络安全威胁和风险日益突出,临时暂停训练更强大的AI模型,期间加速建立或完善相关法律法规和监管体系,减少AI技术不当滥用风险,有助于行业健康可持续发展。

郭兵:要规避利用“算法暗箱”谋一时之利

从社会和经济层面来看,企业一般是利益至上的,如果各家科技巨头通过研发的大型语言模型,利用“算法暗箱”,谋一时之利,就有可能有损整个社会利益和国家利益,给国家安全带来风险。人工智能还可能引发劳动者权益方面的争议,引发劳动者的“饭碗焦虑”。从个人的角度来看,人工智能的应用还可能会侵犯人格尊严。例如,算法所引发的歧视风险,还包括公民隐私和个人信息泄露的风险,同时还可能危及个人的生命与健康,例如人工智能诱导自杀事件的发生。

周迪:技术革命迫在眉睫,不是暂停就可以解决问题

我们必须清醒地认识到,技术革命已经迫在眉睫,不是命令一个特定群体暂停训练就可以解决的事情。这可能有积极的一面也有消极的一面,但是,我们已经进入了人工智能时代,这种科技进步是时代发展的洪流,不以我们的意志为转移的。

孙博:人为限制可能反而锁死人类科技

AI系统作为一种新兴工具对就业或许存在一定威胁,但技术的发展和人类的进步是不可能被限制的,就像科幻小说《三体》里的故事,人为的限制可能反而锁死了人类科技,不如努力研发将主动权掌握在自己手上。

6 ChatGPT会不会泄露个人隐私?有哪些潜在的道德、法律风险?

郭涛:存在数据安全、歧视与偏见等风险

当前,人工智能研发与应用相关法律法规、标准体系和伦理规范还不健全,存在数据安全风险、著作侵权风险、深度伪造风险、商业秘密泄露风险、违法信息传播风险、歧视与偏见风险等问题。

孙志峰:与人伦和道德冲突是重大法律挑战

人工智能由于依赖软件和数据库算法实现信息和内容的分析、生成、再现和传播,会产生诸多法律和社会问题。比如,利用人工智能生成内容知识产权权属、侵犯他人权利的认定、编造传播虚假信息或进行商业诋毁、甚至实施诈骗等违法行为的责任追究等。人工智能与人伦和道德冲突,比如生成和传播违反人伦、违反道德,如生成人类灭绝方案之类的,也应引起高度重视。而利用人工智能非法窃取、利用和泄露个人信息、个人隐私等行为,已经在现实生活中频繁出现,高级人工智能时代只会愈演愈烈。这些都是人类社会将要面临的重大法律挑战。

孙博:泄露隐私风险是所有数字技术都存在的

数据化时代,潜在的泄露隐私的风险几乎是所有数字技术都存在的,而不仅仅是ChatGPT。所有的App、摄像头、智能手环等软硬件主体都有可能知道我们在做什么,重要的是如何更好地进行监管以及跟进、完善相关法律,而不是仅仅针对ChatGPT谈隐私。

周迪:个人隐私泄露是比较基础层面的问题

个人隐私的泄露相对来说还是比较基础层面的问题,毕竟目前的人类系统中就已经存在个人信息泄露的问题,更多的是制度上的完善和法律法规的保护。

7 人工智能时代来临,如何做好人工智能伦理审查?

盘和林:监管AI的最终只能是AI

我认为人工智能传统伦理审查是很难发现问题的,打败魔法的只有魔法,监管AI的最终只能是AI。

宋向清:对可抓取的信息范围设限

首先可以限定其可以服务的领域;其次,对其可抓取的信息范围设限,有些数据禁止其获得;最后是要在服务对象上加以限定,避免知识产权等信息的泄漏,包括学术伦理等方面也需要考虑到位。

郭涛:建立或完善审查制度,搭建多方治理平台

政府相关部门应尽快建立健全人工智能研发与相关法律法规和标准体系,建立或完善伦理审查制度和监管体系,加强对科技企业、应用场景、使用者的监管,搭建多方治理平台。

孙博:加强国产研发和训练,使其更接近我国文化

首先,当前国内禁止ChatGPT的很大一部分原因是当前的ChatGPT模型是由国外公司研发,所具备的伦理倾向也更接近国外文化,这种情况下我们更要加强国产ChatGPT的研发和训练,使其数据上的伦理倾向与我国伦理更贴合。另一方面,人工智能和人类文化不同,不一定“我”研发了某个模型或“数字人”就跟它产生了亲子关系,不同文明体系有不同的适配伦理,人工智能的伦理也还需要进一步探讨。

洪勇:可借鉴互联网领域隐私嵌入设计理念

要做好人工智能伦理审查,可以从以下几个方面入手。第一,应遵循《新一代人工智能伦理规范》中的基本伦理规范,增进人类福祉,促进公平公正,保护隐私安全。第二,可以借鉴互联网领域的隐私嵌入设计理念,将隐私保护融入到人工智能产品和服务的设计和开发中。另外,政府相关部门应该对自然语言处理等技术的本质安全性问题进行深入研究,并制定相应的政策。第三,还需要建立专门的伦理审查机构或委员会,负责审查人工智能产品和服务的伦理合规性,及时发现和解决潜在的伦理问题。第四,应加强对相关从业人员的伦理培训,提高他们的伦理意识和责任感。

E

N

D

编辑:和岳 张茜琦

记者:陆珊珊 冉黎黎 袁泽睿 张晗

图 | 壹图网

原 创 声 明

转 载 请 注

关键词:

推荐内容