2022年世界互联网大会乌镇峰会——人工智能与数字伦理分论坛
- 中国网络空间安全协会秘书长 李欲晓:
尊敬的各位领导、各位来宾,女士们、先生们,大家下午好。欢迎莅临2022年世界互联网大会人工智能与数字伦理论坛。本次论坛由中央网信办指导,清华大学与中国网络空间安全协会联合主办,之江实验室、特斯拉公司、东软集团、中国(温州)数安港等单位协办。论坛的主题是“人工智能的产业方向与伦理取向”。我们希望通过论坛的讨论,聚焦人工智能的技术、应用和产业发展过程当中的安全风险治理与数字伦理建设。为此我们设立了三个分主题,第一个分主题是人工智能伦理的技术逻辑与人类的选择空间;第二个分主题是数字伦理的法理与道理,现实世界与数字世界交融的秩序与规则;第三个分主题是人工智能及其产业模式优化对未来人类社会生产生活形态的影响。
今天下午的论坛采取演讲+圆桌形式开展交流,目的是为了加深国内外的学者、研究领域、业界相互之间的对话,推动人工智能的伦理研究和治理体系的探索构建,促进安全可信可控的人工智能技术研发与应用场景,确保人工智能始终朝着以人为本、科技向善的方向健康发展。
我是中国网络空间安全协会秘书长,也是今天下午本次论坛的主持。
下面请允许我介绍今天主席论坛的各位领导和嘉宾:
世界互联网大会秘书长,第十三届全国人民代表大会社会建设委员会副主任委员 任贤良;
全国人大宪法和法律委员会副主任委员 江必新;
浙江省委网信办副主任 马晓军先生;
北京冬奥组委技术部部长 喻红;
中国美术学院院长 高世名;
中国互联网络信息中心主任 曾宇;
浙江大学党委副书记,之江实验室主任,中国人工智能产业联盟副理事长 朱世强;
中国网络空间安全协会副理事长 黄澄清;
中国网络空间安全协会副理事长 刘东;
世界互联网大会组委会副秘书长 张辉;
东软集团联席总裁兼首席运营官 盖龙佳;
蚂蚁集团首席技术官 倪行军;
出席今天论坛的还有清华大学的校长王希勤,还有中国网络空间安全协会理事长王秀军,都是以视频的方式和大家进行交流。
今天我们还有中国新一代人工智能发展战略研究院、美国布鲁基斯协会、中欧数字协会等国内外高等学府、科研院所、政府间的国际组织专家学者,以及微软卡巴斯基、红杉中国、科大讯飞等国内外知名企业共同参与。
首先我想让我们以热烈的掌声向各位领导、专家学者、企业届代表的到来表示热烈的欢迎和感谢。
特别需要说明,因为进入秋冬季以来,疫情防控形式非常严峻,所以近一段时间部分地区的疫情有所反弹,有一些专家学者原定现场参会,现在也是有一些采取线上的方式,代表他们表示歉意。与此同时,我们今天下午的整体的安排当中,我们在主旨演讲环节之后,圆桌对话环节还将有央视进行现场的直播,因为大家对这个人工智能相关的问题非常关注,也有社会广泛的热情,所以在这一方面也希望大家在整个的研讨交流当中,能碰撞出思想的火花。
2022-11-10 14:27:53
- 中国网络空间安全协会秘书长 李欲晓:
下面,有请清华大学校长王希勤先生作视频致辞。大家欢迎。
2022-11-10 14:28:13
- 清华大学校长 王希勤:
尊敬的各位来宾、女士们、先生们,朋友们大家好。今天我们以线上线下相结合的方式相聚在美丽的乌镇,出席由清华大学、中国网络空间安全协会共同举办的2022年世界互联网大会人工智能与数字伦理论坛。首先请允许我代表清华大学对各位嘉宾的到来表示热烈的欢迎,对给予本次论坛大力支持的各界合作伙伴表示中心地感谢。
当前世界之变、时代之变、历史之变正以前所未有的方式展开,以人工智能为代表的新一轮科技改变和产业变革正在重构全球创新版图,重塑全球经济结构,既为世界各国创造了更加广阔的发展机遇,也带来了安全伦理时等方面的风险挑战。身处这一史无前例大变局之中,如何顺应信息化、数字化、网络化、智能化发展趋势,塑造健康的伦理价值,探索数字文明新形态、我们共同面对的紧迫课题,需要我们共同付出努力。
党的二十大勾划了中国式现代化的宏伟蓝图,把教育、科技、人才作为全面建设社会主义现代化国家的基础性战略性支撑。对于深入实施科教兴国战略,人才强国战略、创新驱动发展战略做出重要部署。大学是科技第一生产力人才第一资源创新第一动力的结合点,是创新要素活跃、创新动能聚集的地方。大学要充分发挥自身优势,积极推动科技与人文深度交融,学术与产业协同创新,不仅在基础研究、科技公关方面勇闯前沿,也在要价值引领,伦理规范方面走在前列。
清华大学高度重视人工智能领域的科学研究、技术创新、科技治理、伦理教育。 在人工智能研究领域,引创新之流,先后成立了人工智能研究院,智能产业研究院和人工智能国际治理研究院,形成了人工智能研发、产业治理、科研矩阵。
在人工智能治理领域,兴开放之资,打造人工智能合作与治理国际论坛等高水平交流平台,汇聚全球智慧,推动构建公正合理的人工智能国际治理体系与治理规则。
在人工智能伦理领域,兴人文之风,受教育部委托牵头组建高校科技伦理教育专项工作专家组和工作组,成立科技发展与治理研究中心,人工智能治理研究中心,在全国高校中率先成立科技伦理委员会,积极推动科技伦理教育课程建设和教材开发。
在人工智能领域,筑教育之基,举办AI促进可持续发展青年创造营、首届新智杯全国人工智能创新应用大赛、AI+可持续发展赛道等活动,汇聚挖掘培养人工智能领域优秀人才,引导青年人才赋能全球可持续发展目标。
科学技术是人类共同的财富,推动完善全球科技治理是我们共同的责任,让我们秉持科技向善理念,坚持以人民为中心的思想,以更加开放的胸怀推动全球科技创新合作,让数字文明更好造福人类,为构建人类命运共同体,建设持久和平,普遍安全,共同繁荣、开放包容清洁美丽的世界,做出新的更大的贡献。
2022-11-10 14:34:48
- 中国网络空间安全协会秘书长 李欲晓:
下面开始论坛的第一个议题,人工智能伦理的技术逻辑与人类的选择空间。我们将有五位嘉宾进行主旨演讲,首先是清华大学人工智能研究院名誉院长、中国科学院院士张钹先生做主旨演讲。演讲的题目是《做负责任的人工智能》。
2022-11-10 14:47:24
- 清华大学人工智能研究院名誉院长、中国科学院院士 张钹:
女士们、先生们,大家好,我今天演讲的主题是做负责任的人工智能。最早提出机器人发展中可能存在伦理风险的是美国科幻小说家阿西莫夫在他的小说提出的,时间是1942年。早在人工智能诞生之前,为此他还提出规避风险的方法,这就是大家知道的“机器人三定律”,应该说这些问题的提出具有前瞻性。后来物理学家霍金等也不断地提出类似警告,但是这些警告并没有引起大家特别是人工智能界的重视。原因在于他们的立论依据不够充分,因为机器的不断进步和发展,有朝一日当智力超过人类,特别是机器具有主观意识的时候,也就是出现所谓超级智能的时候,人类将会失去对机器的控制,从而带来灾难性后果。这种技术逻辑对于大多数人工智能研究者来说,并不具有说服力,因为大家清楚地知道,人工智能研究目前还处于探索的阶段,进展缓慢,还受到很多问题的困扰,难以解决。制造超人类的机器人谈何容易,而且能不能通过所谓的通用人工智能达到超智能的目标,也一直存在争议。
因此我们认为,这些风险只不过是未来的远虑而已,不考虑。可是到了本世纪初,基于大数据的深度学习,在人工智能中崛起的时候,人们认识上有很大的变化,深刻地感觉人工智能的伦理风险就在眼前,治理迫于眉睫。
这是为什么呢?大家知道本世纪初,基于大数据的深度学习被广泛地应用在各个领域,用来完成决策、预测和推荐等任务,给人类社会带来很大的影响,但是人们很快发现,基于大数据的深度学习算法,具有不透明、不可控和不可靠等缺陷,导致人工智能技术很容易被无意误用,可能给人类社会带来严重的后果。
根据目前人工智能的技术,我们可以通过深层次神经网络,根据使用者的要求生成符合要求并且质量良好的文本和图像,但同样的,神经网络也可以违背用户的要求,生成充满种族、性别等偏见、不公正和错误百出的文本和图像,完全不受使用者的控制。可以设想,如果根据这些生成的错误文本做决策和预测,可能带来破坏公正性和公平性的严重后果。
我们以为只有当机器人的智能接近或者超过人类之后,我们才会失去对它的控制,没有想到的是,在机器智能还是如此低下的时候,我们已经失去对它的控制。时间居然来得这么快,这是摆在我们面前很严峻的现实。阿西莫夫在“机器人三定律”中曾经提出规避伦理危机的方案。内容是:一机器人不得伤害人类,或因不作为让人类受到伤害。第二机器人必须服从人类的命令,除非这些命令与第一定律相冲突。第三机器人必须保护自己的存在,只要这样的保护不违背第一和第二定律。总之一句话,人类应该牢牢把握机器人的控制权,让机器做人类的奴隶,这种办法能否解决机器的伦理问题呢?答案显然是否定的。
实际上让机器完全听从人类的指挥,在早期无智能的机器中我们就是这样做的,如果我们想让机器向智能化方向发展,就不能让机器完全听从人类的摆布。需要赋予它一定的自由度和自主权。深层次神经网络就是根据这个原理,利用概率这个数据工具,使机器能够生成丰富多样的文本和图像。但也因为这个原因,就一定存在生成不合格和有害文本和图像的概率。这是我们在赋予机器智能的时候,所必须付出的代价,难以避免。
那么我们有没有可能通过给机器规定严格的伦理准则,来限制它的错误行为呢?实际上这也很困难。不仅因为伦理的准则很难准确描述,即便是可以定义,但也很难执行。可以举一个简单的例子,比如说自动驾驶车或者无人车行驶在普通的马路上,如果我们规定自动驾驶车必须严格遵守交通规则,这个规则应该很明确,如果路上同时还有有意无意的违反交通规则的有人车和行人,自动驾驶车是无法正常行驶完成自己的任务。比如说,自动驾驶车需要左拐并线,但是因为左路车道上的车辆之间没有保持规定的车距,自动车就没有办法实现向左并线,这恰恰说明自动驾驶车一方面要严格遵守交通规则,另一方面又要完成达到目标的任务,在不确定性的交通环境下,这两项是难以兼顾的。
可见人工智能的发展必然带来对伦理和传统规范的冲击。深度学习算法的不安全、不可信和不可靠,同时给有意地滥用带来了机会。人们可以恶意地利用算法的脆弱性,对算法进行攻击,导致基于该算法的人工智能系统失效,甚至做出相反的破坏行为。深度学习还可以用来造假,即所谓的深度造假,通过人工智能的深度造假,可以制造出大量逼真的假新闻、假视频、假演说等,扰乱社会秩序,诬陷无辜的人。
人工智能无论是被有意滥用还是无意、误意都需要治理,不过这两者的治理性质完全不同。前者要靠法律约束和社会舆论的监督,是带有强制性的治理。后一种则不同,需要通过制定相应的评估准则和规则,对人工智能的研究开发和使用过程,进行严格的科学评估和全程监管,以及问题出现之后可能采取的补救措施等,帮助大家避免人工智能被误用。
从根本来讲,人工智能的研究、开发都需要以人为本,从公正公平的伦理原则出发做负责任的人工智能,为此,我们需要努力去建立可解释的鲁棒人工智能理论,在此基础上才有可能开发出安全、可信、可控、可靠和可扩展的人工智能技术,最终推动人工智能的公平、公正和有益于全人类的应用和发展。这就是我们发展第三代人工智能的思路。
人工智能的研究和治理都需要全世界不同领域的人员参与和合作,除从事人工智能的研发和使用人员之外,还需要法律、道德、伦理等不同领域人员的参与,我们需要明晰伦理道德的标准,什么是符合道德和伦理的?不同国家、民族团体和个人,都有不尽相同的认识,因此需要全球范围的合作,共同制定出一套符合全人类利益的标准。人类是命运的共同体,我们相信通过共同努力,一定会找到符合人类共同利益的标准。只有人工智能的研究开发和使用人员人人都遵守共同制定的原则,才能让人工智能健康发展,并造福于全人类。谢谢大家。
2022-11-10 15:02:12
- 中国网络空间安全协会秘书长 李欲晓:
感谢张钹院士,张院士是中国人工智能的重要奠基者和发展推动者,对我国人工智能科研技术发展作出了卓越贡献,张院士演讲中提出了对人工智能治理分类的设想,对我们后续研究都有很重要的价值。下面有请之江实验室主任,中国人工智能产业联盟副理事长朱世强上台演讲,题目是《张弛有度话伦理》。
2022-11-10 15:09:28
- 之江实验室主任,中国人工智能产业联盟副理事长 朱世强:
各位领导、各位嘉宾:下午好!
很高兴有机会跟大家做分享,今天的话题非常重要,而且在一定程度上也是有争议的,所以我认为一个开放的探讨对未来的发展至关重要。那么关于人工智能和数字的伦理,我个人的观点是张弛有度来讨论这个话题,但是技术仍然是当务之急。
我们来看人类社会发展的历史,人类文明的发展过程中有一个非常重要的驱动力,那就是技术。技术的进步和它成熟之后的大量的应用会对现有的社会治理、生产关系构成挑战,如果说这样的一个技术是避免不了,是势在必行的,那么社会一定会需要一种变革,在变革之后社会又调整到一种新的平衡状态,所以我们说人类社会自身是一个具有自我调整修复功能和进化功能的有机体。
工业文明替代农业文明的时候,造成了大量的环境污染,农民失地,工人被剥削等等这样一些社会问题,在这些社会问题出现之后,社会必定是要经历一个变革,于是我们建立了普遍式的教育、法治化、民主化、优良的社会保障体系,然后调整到适应工业文明这样一种的时代,于是人类就进入到了一个新的文明阶段。
近些年来,人工智能的技术被广泛地应用,也形成了一个世界的热点。我们大量使用人工智能技术给我们的生产生活带来了极大的便利,也带来了很多负面的东西。这些负面的东西引起了广泛的关注,也引起了我们对人工智能的伦理等等方面的一些思虑,甚至是过度的担忧。
那么现实的情况怎么样呢?现在的人工智能是一个弱人工智能,但是弱人工智能它有超越人类能力的一方面,人工智能在某些单项领域,比如围棋、蛋白质测序这些领域远远高于人的个体能力,但是在另外的方面,就整体的综合智能而言,所谓强大的人工智能其实又是很弱的,机器人下楼梯可能就会摔倒,一个获奖演员喜及而泣,计算机可能判断他是悲伤哭泣,诸如此类的很多问题实际技术远远没有彻底解决,人工智能确确实实处在一个初级发展的阶段。
从技术的角度上来说,智能是相对比较容易得到的,而智慧用机器复现是非常难的事情。古人说行而上谓之道,行而下谓之器,我坚信,人工智能是人类智能在机器领域的一个延伸,真正的主动权仍然是掌握在人的身上。现在任何一项技术只要是人开发出来的,总有人能够控制它,这是我的观点。所以我说技术并没有原罪,但是技术的应用是有正邪的,我们要谨慎地思考这些问题,然后在正确的道路上敏捷地前行,这才是我们至关重要的事情。所以现阶段我个人认为,我们最重要的任务仍然是发展我们的技术,让我们的技术做得更加强大,但是千万别忘了因为技术自身的问题,以及技术的滥用给我们人类带来的困难,伦理的问题,甚至是灾难性的东西,这必须预防。
之江实验室作为人工智能研究领域里的一个很重要的力量,人工智能、数字技术是我们非常重要的发展方向,我们也在做负责任的科研。所以我们面对着未来人工智能可能对我们产生的一些负面的东西,我们在做梳理。我们形成了之江实验室AI伦理图谱,从三方面(研发主体、使用者、管理主体)进行分门别类。从研发角度上说,我们要努力克服技术既有的缺陷,比如数字的偏见、安全的问题等等。从使用者的角度说,我们要开发一些重要的工具、功能,限定使用的一些错误的方向,来避免数字鸿沟、马太效应、社会偏见等等。当然,我们也期待管理者从管理的角度上也要采取一定的法律措施、规范等等来限定人工智能的一些恶意的应用,恶意的犯罪。所以这是我们之江实验室勾画的人工智能的伦理图谱。
我们的逻辑是什么呢?我们的逻辑是菜刀是用来切菜的,当然菜刀也很多次被用来杀人。但是菜刀本身是没有原罪的,我们的技术逻辑是希望以道制魔,用技术的手段把菜刀打造成锋利的,但是让它永远砍不到人头上去的菜刀,这个听起来有点天方夜谭,但是这至少应该是我们努力的一个方向,而且在这个方向上我认为我们有很多的事情可以做。于是之江实验室围绕着我们这样一种逻辑,围绕着前面形成的AI伦理的图谱,我们在构建之江实验室预防人工智能危害社会的技术图谱,我们试图用一种先进的技术来阻止人工智能的滥用和恶意的违法应用。以道制魔的技术图谱涵盖了一个是弥补技术的缺陷,保护个人的隐私,促进社会的公平等等,当然我们还有非常具体的一些技术领域,比如说我们要做可知、可控的人工智能。刚才张院士讲我们现在的人工智能是超大模型的人工智能,输入一组数据,输出一个结果,中间的过程我们完全不可理解,于是我们做可解释、透明的人工智能。再比方说安全可信方面,我们围绕数据安全、算法安全、系统安全布局了一系列相关技术。再比如说维护公平正义方面,我们围绕着数据的平均性增强,算法的平均性保障等等诸如此类的技术在开发相应的工具。还包括在社会治理方面的浙江省在推进数字治理方面是走在全国前列,之江实验室也深度参与,而且我们提供了各种各样的工具来支撑社会治理的更加科学、合理和规范。(图 见PPT)之江实验室目前有的已经做好,有的正在做的一系列的图,形成了我们预防AI危害社会的技术图谱。
以技术的标准框定未来的方向,这点前面几位领导和专家都谈到了。在标准的制定方面,之江实验室积极参与各类标准的制定,我们已经主导参与制定智能计算领域的国际和国家标准总共22项,比如我们在国际上牵头制定首个隐私保护机器学习的技术框架已经颁布。
我们围绕新一代的人工智能,要改变人工智能的不透明的现状,我们在人工智能的发展赛道上实施了双轮驱动:数据驱动、知识驱动。数据有时候我们看不懂,知识是可以让我们理解的,如果未来可以切换到纯知识驱动的人工智能,那我们很多东西就不是不透明的,不是黑箱,而是完全可以预测它的结果。所以这方面我们正在构建一个非常庞大的综合知识库,我们现在建了大概十来个领域里的专业知识库,在这些专业知识库的推动下,我们的人工智能的技术、结果它是可以预见的。
再比如我们开发了一系列的工具来遏制不良的应用,比如后量子密码关键技术平台,密码被破解会造成灾难性后果,如果量子计算机真正投入使用,目前所有的密码都可能在几秒内甚至更短时间内被破解,假如量子计算机真正出现了怎么办?我们现在正在做后量子时代的密码技术,现在已经有非常成熟的技术投入应用。再比如数据隐私平台等等一系列的工具来保障很多技术不至于被滥用或者被一些恶意的做一些攻击。
我们在突破一些关键技术来保障网络的安全,互联网大会大家广泛关注的网络的安全问题,我们研制具备可演进的基础构架,灵活可定义的全维可定义网络。我们研制并建设了具有测试验证、数字孪生、监控、评估等功能的国家级的工业控制安全测试系统,诸如此类的一些东西从硬件设备的角度来支持网络的安全。
总体我自己认为,人工智能技术目前处在初级发展阶段,我们要用更大的耐心去支持技术本身的发展,但同时又要高度关注人工智能的一些被滥用,我们更期待在法律、技术等综合的举措之下,我们来保障一个先进、合理、开放、包容、安全、稳定,富有生机活力的数字文明在中国茁壮成长。
谢谢大家!
2022-11-10 15:20:08
- 中国网络空间安全协会秘书长 李欲晓:
感谢朱世强主任刚才以道制魔的精彩演讲,特别是设立了隐私保护机器学习的框架,这个非常值得研究,我觉得会后我们可以专门就这个事情做专题的讨论。
下面,我们有请蚂蚁集团首席技术官倪行军先生演讲。题目是《蚂蚁关于科技伦理系统性建设的思考与实践》。大家欢迎。
2022-11-10 15:24:07
- 蚂蚁集团首席技术官 倪行军:
尊敬的各位领导、各位专家、嘉宾,大家下午好。
18年前我是一个工程师,从我加入支付宝初创团队的第一天起,怎么用代码写出让更多人使用的产品,从而切实的去解决社会需求,就是团队的初心。实际上支付宝的诞生,就源于这份为社会解决信任问题的初心,这也是我们的起点。
今天,蚂蚁的技术研发团队在公司员工总数的占比已超过63%,我们长期重点投入的分布式数据库、隐私计算、区块链、图计算、绿色计算等,是支撑AI大规模应用的关键基础性技术。在蚂蚁技术人的日常工作中,也经常讨论一些和“科技伦理”相关的问题。我们不断提醒自己,路走得再远,也不能忘了从哪里出发。
数字技术的发展,正在让科技服务更深、更远、更有效地触达用户,但在数字技术普及到一定阶段,一些存在的问题也正在引起全社会的广泛关注。
比如,不同群体、区域以及不同规模企业,在使用和用好数字技术方面,仍不平衡、不充分,数字鸿沟仍有待弥合。以老年人为例,我国60岁以上的网民已经达到了1.2亿,但这些老人中,仍有30%的人无法独立完成健康码、行程卡出示,仍有接近一半的人无法独立在网上购买生活用品,仍有三分之二的人不会叫车、订票、挂号。
在数据价值日益凸显的同时,保护用户隐私,保障用户知情权、选择权,也成为社会重要关切。蚂蚁集团研究院和人民大学、对外经贸大学共同开展的一项大规模算法调研发现,八成用户希望有个性化推荐,但同时有六成用户担心个性化推荐侵犯个人隐私,多数用户表示希望有关闭选项,可以自己确定或者排除某些标签。这表明,智能服务虽好,但目前用户用得不够放心、不够安心。未来,需要进一步回应用户关切,更好地保护用户隐私,并让用户更便捷地行使知情权和自主权。
此外,随着智能化的发展,人工智能等科技系统的可信安全问题,成为了新的议题。新一代人工智能是数据驱动的,是机器的自我学习,而不只是依赖于人为信息和知识的输入,这就可能带来系统的不够鲁棒、不可解释、不够可靠等问题。特别在诸如医疗、制造、金融等与社会生活息息相关的领域,机器学习模型做出错误预测的后果往往是难以接受的。
针对这些问题,蚂蚁已经在无障碍和适老化改造、保证算法公平性、增强算法普惠等方面做了一些工作,未来会持续和伙伴们一起,不断提升科技服务的可得性、可用性、公平性。从2015年起。蚂蚁开始积极投入可信AI的技术研究,我们集成1000多件可信AI专利能力,打造了业内首个面向工业场景全数据类型的AI安全检测平台“蚁鉴”,帮助开发者实现不同场景下AI算法的系统化和自动化评测,这将有助于行业打造更安全可靠的AI产品。未来,我们将和行业继续一起努力,从算法技术、知识体系、可信评估等多个维度,系统性地去保障AI的可信安全问题。
尽管蚂蚁在这方面做了一些努力,但是如何更好地回应政府和社会的关切,如何更好地实践科技向实、技术向善,我们还有很长的路要走。 我们认识到,碎片化的思考和行动不足以回应时代的要求。 作为一家受益于科技创新成长起来的企业,我们认为,应该把科技伦理融入到公司业务和产品生命周期中,始终秉持对用户、对行业、对社会负责任的态度,让科技服务有温度、更平等普惠、更可信安全、更便捷,更好的服务于数字经济高质量发展和高水平安全。
去年,蚂蚁和省内一些学术机构和同业一起发起成立了浙江金融科技伦理委员会。蚂蚁旗下的数字金融平台发布了平台自律准则,明确了在产品展示和营销等方面什么必须有所为,什么要坚定地有所不为。在产品上,我们上线了用户保护中心、消息刷子、额度管理等功能,进一步保障用户的知情权、选择权。
今年6月,蚂蚁集团正式启动了ESG可持续发展战略,并将“科技伦理建设”作为重要子议题,上升为集团重点工作。近期,我们在内部成立了由我和首席法务官担任联席主席的科技伦理委员会。接下来,我们也将成立顾问委员会,邀请业界资深的专家学者,参与和指导蚂蚁的科技伦理建设工作。
蚂蚁集团对于加强自身科技伦理建设的认识是在不断深化的。 认真聆听公众和用户的声音,积极回应政府和社会的期待,系统性地建立蚂蚁科技伦理体系,是我们的主动选择,是我们对用科技为社会解决问题这一初心的坚持,也是我们持续努力的方向。
我们坚信,科技能够让社会更美好,我们也期待,与各方一起努力,以负责任的态度,为数字经济高质量发展和高水平安全做出贡献。
谢谢大家。
2022-11-10 15:24:18
- 中国网络空间安全协会秘书长 李欲晓:
感谢倪总的精彩发言,蚂蚁集团是一家知名金融企业,也是知名的信息服务企业,谈到对企业全生命周期中建立科技伦理的治理机制,这是令人欣喜的。特别值得高兴的是我听到您讲到的是要开发面向老年人的适老化的服务和管理,今年12月初,联合国互联网治理论坛将在埃塞俄比亚首都亚的斯亚贝巴举行,我们今年申请设置一个专题,这个专题是网安协会牵头设立的,题目是老年人的个人信息保护和数据安全问题。我们希望将来有更多的企业面向老年人可以提供更多的安全的技术、产品和服务。
围绕着网络空间的发展和服务,围绕着数字化合作,特别围绕着数字经济新的发展在大湾区已经有很多的探索,下面有请香港特区政府数字经济发展委员会委员、大湾区国际科技协会香港会长、原香港特区政府资讯科技总监杨德斌先生作视频演讲。
2022-11-10 15:25:34
- 香港特区政府数字经济发展委员会委员、大湾区国际科技协会香港会长、原香港特区政府资讯科技总监 杨德斌:
随着电脑计算能力越来越强,它能为人类做的事情就越来越多。许多之前是靠人力做的,由于工作的重复性、危险性、成本问题,都逐渐被机器所替代,比如智能制造方面看到的“黑灯工厂”、无人机可以代替人类探测下水道,机器人可以代替保安做巡逻工作等。
由大数据引发的机器学习近几年来在各行各业百花齐放,早在2016年,Alpha Go先后击败职业九段围棋高手李世石和排名世界第一世界冠军柯洁。近几年来,机器学习在无人驾驶、医疗诊断,甚至在写作、画画、作诗方面都取得相当的进展。尽管如此,人工智能与人类智能还是相去甚远,其实人工智能与人类智能可以比喻为龟兔赛跑,当然人类是兔,机器是龟。随着人类越来越依赖机器,机器能为人类做的事情越来越多,情况将逐渐改变。当人类把事情交付给机器时,我们会不会变懒了?甚至变愚蠢了?我们举个例子,之前我们会记着几个经常联系的家人和朋友的电话号码,现在只要用手机语音自动拨打便可,我们就不用记着这些号码了,久而久之,人类的记性便会变差了。我比较担心的并不是机器学习会有一天超越人类,而是人类因过度依赖机器而变得不智慧。龟兔赛跑是寓言故事,它告诉我们不能因自满而输给竞争对手。在人类与机器智能方面我们可以教懂机器变得更智慧,而且可以适当约束机器的破坏能力,让其不危害人类,但人类应该更自我提升,避免逐渐退化。
最后,我想借这个机会向大家讲讲香港在人工智能方面的发展。
香港政府今年5月启动了一个创新平台,集中发展人工智能及科技,尤其是在金融服务、智慧城市和先进制造等领域,科研聚焦涵盖大数据分析,机器学习、认知系统、智能代理、医疗机器人及其他类型的机器人等。今年10月,施政报告里说在这个领域加大力度,力求吸引全球AI人才和公司落户香港,利用香港高度国际化和大学的先进研发资源,共同为国家打造数据强国。谢谢!
2022-11-10 15:29:29
- 中国网络空间安全协会秘书长 李欲晓:
感谢杨德斌会长,刚才的演讲言简意赅。下面,有请2007年图灵奖获得者、世界顶尖科学家协会会员约瑟夫·斯发基斯进行视频演讲。
2022-11-10 15:32:41
- 2007年图灵奖获得者、世界顶尖科学家协会会员 约瑟夫·斯发基斯:
我是约瑟夫·斯发基斯,2007年图灵奖获得者,很高兴能在2022年世界互联网大会乌镇峰会发表演讲。
首先,我想说的是人工智能的革命使得自动化系统转为自治系统。这实际上这也反映了从弱人工智能向通用人工智能转化的趋势。众所周知,自治系统是物联网愿景的核心,因为在现有组织中需要自主主体取代人类来进一步整合各类系统,所以自治系统应运而生。有很多例子,比如自动驾驶汽车、智能电网、医疗机器人等。自治系统和娱乐型机器人或智能助手有很大不同。自治系统也不同于自动系统,如飞行控制器和汽车中用于计算的ADAS系统。人工智能系统非常重要。它们应该表现出“广泛的智能”。但是开发和设计的难度很大。它们应该能够动态地管理相互冲突的目标,应对复杂环境中的不确定性,并能和与人类和谐合作。现今的挑战是,自治系统过于依赖人工智能赋能的组件。所以从另一方面来说,他们必须满足较高的可信度要求。这是一个问题。当我们制造人工制品,比如建造桥梁、或者制造飞机时,靠的是科学技术,也就是说靠的是被称之为基于模型的技术。科学提供模型和解释,预测和可解释性是可信的基础。它是通过分析和概念化实现的。
现在,当我们使用人工智能支持的技术,比如神经网络,它们的知识是基于数据的。它们会创造知识,也允许我们进行预测,我们可能听说过人工智能的知识能力,但我们不了解它们是如何工作的。所以为了更清楚地说明这一点,让我比较一下科学知识以及源于神经网络知识的产生过程。
这里有几个步骤。我想到一个物理实验,伽利略的一个著名实验让他知道力和下一个加速度之间的比例关系。因此他总结观察的现象,推理出了著名的公式,你看,这是对现象的解释。现在,当我们想要建立一个神经网络,使其可以区分图像和实物,会有一个实验阶段。首先,我们将图像展示给人类,然后用数字在神经网络内对图像进行标注。但问题是我们如何解释这个神经网络的行为?我们还不知道,目前没有任何相关理论。这是一个问题。
还有一个问题是我们是否会通过人工智能系统,或许我们知道为保证可靠性对于关键系统,其设计技术有相关国际标准严格把关。所以,如果你买一个烤面包机,或者建造桥梁或飞机时,它们会是可用并且足够安全的。
现在,建造这样的人工产品必须符合有独立机构监督实施的标准。现代社会的机构在向公众传递什么是公平、合法、安全这方面起着非常重要的作用。而数字系统的标准也需要基于模型的技术。现有的标准并不适用于人工智能。也因为这种可解释性的内在限制,在未来也将不适用。所以十分有趣的是,如今出现了一些与关键系统工程中传统做法相反的趋势。例如,有大型科技公司为自动驾驶平台开发实现机器学习的端到端解决方案。那么我们是否要使用自动驾驶平台?或者在某些情况下,关键软件可以通过不断的更新进行定制。比如说有些车的软件是每月更新一次的。此外,值得注意的是,美国联邦和州立法和法规机构允许使用自治系统的,我们称之为自我认证。这听起来有点奇怪,因为一个独立的组织是不能够保证系统的安全的,只有制造商才能保证。当然,你可以想象得到,这可能会引发一些伦理问题。现在,关于伦理问题,我大致地发表一下我的看法。我认为,正常的伦理就是要做出正确的决定。为了做出正确的决定,首先你应该有选择的意识。
我想到了信息通信技术,技术进步被认为是一种不考虑社会影响的目标。比如说我们知道广泛使用人工智能可能会意味着失业,可能会有一些社会和文化影响。今天在我看来,公共当局对信息和通信技术可能造成的社会不当行为的程度还是漠不关心,听之任之。
关于选择,另一个问题是,人们应该更好地了解选择和潜在的错误。这一点至关重要。因此,为了了解一些情况下真正的危险,有一些关于危险和威胁的方法论。他们的出现并不是一种我们无力控制的宿命,你们应该听过技术奇点吧?我还认为大型技术公司并未努力来告知公众。今天人们已经准备好接受错误的想法或自我审查和顺从,因为他们被合理使用人工智能的不同意见所困惑。所以有些人高估了潜在的危险,并通过使潜在的风险最小化来推动对新技术的接受和采用。因此,我认为社会必须要创造条件,进行冷静、知情和合理的辩论,这一点十分重要。当然,我们应该寻求一些平衡,就是在严格执行风险预防原则和接受创新以提高效率或质量等方面取得平衡。
在欧洲,我们有欧洲法律。有这些风险预防原则,所以我们不会在不了解其风险的情况下使用自动下载系统。现在,下载系统面临自由选择与性能之间的窘境。问题是,我们是否应该把决定权授予系统,计算机在不了解它们是如何做出决定的情况下,它们是否运用了真实以及无偏颇的知识。当然,我们也应该确保性能带来的好处值得我们去冒风险。
最后,我认为另一个重要的困境是我们应该怎样为人和机器进行分工。大家知道创新和技术进步可能意味着技能的损失,而这会随着新技术的发展而发生。问题是很难想象机器可以超越人类的智慧。尽管如此,如果我们贪图智力上的懒惰和安逸,人类的智慧也可以被驯服和征服。如果我们被机器的复杂性所击败,对人类来说是非常糟糕的。我的演讲就到这里,感谢聆听。谢谢大家。
2022-11-10 15:45:45
- 中国网络空间安全协会秘书长 李欲晓:
面对这个技术进步带来的伦理挑战,我们需要思考的东西非常多,但是刚才这个演讲让我们看到一切是面临着不同的选择带来的结果。当我们看待自治系统是基于模型和数据的培养,来形成今天的技术创新。而这个模型和数据本身的筛选就是由我们的选择来决定的。这种选择的基础是否正确,这始终伴随着技术的创新和我们的成长,在这个过程当中我们需要不断的思考,这里面非常重要的是保持这样一种平衡。只不过这个平衡本身也是选择,所以在这个里面当我们去思考人工智能伦理的技术逻辑,本身是需要进行选择的,思考人类的未来的空间的时候,我们需要看到我们必须要和人工智能共存,需要去考虑在这个共存当中是要有相互的帮助,互助而不是完全依赖于人,因为决定我们未来的是我们自己。今天我们是第一次探讨人工智能伦理的话题,第一阶段的话题就到这里。
下一个议题,是数字伦理的法理与道理——现实世界与数字世界交融的秩序与规则,我们探讨这样的话题,也是希望在今天的数字世界的快速发展进程当中,和我们现实世界的融合之中,很多运行的规则我们需要去发现,它的规律到底是什么?它的规则构成是什么,相互关系是什么,未来发展的空间到底在什么地方,我们需要去思考,而不是等待着下一代人去解决这个问题。所以在这个思考当中,首先有请全国人大宪法和法律委员会副主任委员江必新做演讲。
2022-11-10 15:53:32
- 全国人大宪法和法律委员会副主任委员 江必新:
尊敬的贤良秘书长,各位领导、各位专家、各位同仁和新闻界的朋友,大家下午好。非常感谢我们这个论坛的主办方邀请我来参加一个全新领域的论坛,对我来说是一个非常好的学习机会。
从昨天参加会议到今天,我一直在围绕这个主题不断的思考,原来有一个讲稿,但是后来我考虑结合最近几天的所见所听,我想谈谈个人的学习体会。
讲三点体会:
第一,我们为什么要建构数字伦理,建设一整套的规则秩序。简单归纳为“五个源于”。
第一源于数字技术和人工智能的二重性,带给我们很多利益,但是它带来风险,安全的风险等等,多方面的风险。这是源于它的本身的二重性。
第二源于数字网络的无边界性跨国性专业性非透明性,这样一个性质,为什么这种性质会需要一个伦理规则呢?因为外部的监管很难有效,很难完全有效所以需要有一套伦理规则,自我约束的一种伦理规则。
第三源于法律规范的局限性,和其他治理方式的局限性。治国理政的方式很多,有政治、德治、权治等很多种方式,法治是最基本的治国理政方式,法治本身也并不是完美无缺的,也是有局限性的,尤其是在跨国性,而且在模糊性非透明性专业性极强,有算法黑箱这种情况下,法治手段有时候鞭长莫及。所以德治伦理治理就显得非常重要。
第四源于伦理道德对于人性人类的不可或缺性。我们人类的终极目标是什么?为什么这么活?很多人类学家都回答这个问题,最终我认为有一点说服力的回答是人性的自主,人性的完善,这是我们最终的目的。正是因为这一点,我们需要有一个伦理,建构一个伦理秩序。
第五源于网络安全对于发展,对于人类道德的依赖性。我们要快速发展,我非常赞成朱书记的观点,我们不能因为这个去制约技术的发展。我们的目的还是要促进它高速的发展,但是越是高速发展,越是要有一个制度性,我们一个飞机,一个高速列车、高铁,如果没有一个很好的制度,反正我是不敢坐的,首先一定要有一个好制度,才能够速度高起来。这个伦理法律规则就是一种制度。我们制度的效果越好,就可以让它的速度飞得越快。
为什么要建构伦理呢?数字伦理、人工智能伦理呢?无外乎这么五个方面的源于。
第二,我们如何来建构一个伦理体系?直到昨天晚上我还是在想,怎么样系统的来建构一个能够概括覆盖我们所有的数字领域的一些伦理规则,后来我发现这个太难了,一个本身这个领域非常复杂,第二而且是不断的在变动之中,另外各个国家各个地区有它自己的特点和特有的价值观。怎么办?大道至简,怎么样建构这个体系?我觉得首先从人类的基本共识开始。
曾经参加过一个宗教大会,世界上所有的宗教共同能够形成共识的是什么呢?两句话,第一,己所不欲勿施于人,这句话是管作为的。第二,你希望别人怎样对待你,你就怎样对待别人,这是管不作为的,一个管作为,一个管不作为,这两句话构成了人类的基本共识,我们可以称为元规则。这是中国孔夫子讲的,恰恰是中国儒教的基本的一个理念,基本的一个规则,为人处事的规则。
基于这两个,可以分化为三条,三个方面的二级规则,可以把这两个规则作为元规则,作为一个顶层的一级规则,然后在这个规则的基础上深化出三个基本规则,三个基本规则我概括为:
一是拒绝自贱,要以人有福,能够增加人类的福祉,要尊重和捍卫所有人的自身的尊严和价值,不允许做出任何反人类、伤害人类的行为和设计。我觉得这就是之上我们刚才讲的科技向善、数字向善、人工智能、智慧向善。
二是拒绝虚假,透明互信,这个问题是求真,为什么把这个真的问题,为什么要纳入到善的问题,一个伦理的问题来看?因为现在我们面临着深度伪造等等一系列的问题。未来这个问题可能会更加显现和突出。
三是拒绝丑陋,美美与共,这是求美。
第二个层次的规则,三大规则就是求善、求真、求美,这也是人类的共识,大家都追求真善美。
第三个层次的规则,根据前两个层次的基本规则,我们根据不同的时期、不同的主题不同的环境不同的领域形成具体的规则,因为这些规则我觉得它既是多元的,应该是多元的,不要一刀切,也不可能一刀切。但同时又是变化的,根据情况不断的变化,因为我们现在还是初步阶段,人工智能是初步阶段,超强的人工智能将来用现在的规则显然不能约束未来的人工智能。所以它是变动的,不要指望毕其功于一役。
第三,怎样使规则从理念变为现实,因为这个东西靠内心,靠人的良知来约束的,所以它没有强制力,很难有国家的强制力保障,所以在这样一种情况下,建立什么样的机制才能使它变为现实?这是我们必须加以考虑的。我只是提出一个初步的想法,我概括为六全。
全理念,就是在理念上要处理好五类关系,第一规范和发展的关系,我们在不同时期不同的阶段,这个是要调整的,也时候以发展为主,也时候以规范为主。当前还在一个发展阶段,我们技术还有卡脖子的问题,必须要鼓励发展,但是要规范,但是我们要把手段和目的弄清楚。比如说规范与发展,要划定边界、底线,鼓励创新。第二要处理好问题导向和系统思维的关系,每一个时期都有一个热点,这里出来问题大家都在规范,那里出了问题要规范,问题导向是对的,但是不能完全跟着问题走,跟着问题走有时候缺乏系统思维,会带来一种倾向掩盖另一种倾向,治了个病,那个病又冒出来了一定要有系统思维。第三是要做到统筹运作,以分类分层分级分阶段相结合,一个要统筹,但是一定要分级分层分类分阶段,这不能说是一刀切,不能说越简单越好,大道至简,但是简和繁的关系,没有繁简不起来,所以只能是先简后繁,由繁返简,这个才是有效的。第四是宣传引领宣教引领与机制约束关系,一方面要宣传教育,更重要的是机制约束。第五,维护国家主权安全和发展利益,以构建人类命运网络数字科技命运共同体的关系,这个问题各个国家都面临,你不处理好,就不行,一方面中国特色,中国的价值观,但另一方面人类共同的价值,怎么样做到融合,这是我们建构这样一个伦理秩序必须要处理好的关系。
全主体,什么是全主体,每个人都有责任,对自己负责、对人类负责、对未来负责,这个主体包括设计者、生产者、应用者、消费者还有管理者,管理者、监管者也在其中,不能置身事外。全主体第一每个人都有责任,对自己负责,对人类负责,对未来负责。全主体还有一个含义,公平的对待每一个人。全主体的参与决策者使用者使用者,所以这叫全主体。
全链条,全链条就是要建立标准,要标准体系、评价体系,监测体系、问责体系、保障体系,所有的链条都要动起来、连接起来。
全要素,包括设计、算法、数据等等,与人工智能、与大数据所有的要素都要进行规范和设计。
全周期,包括设计、研发、供应、使用、监管等等,这是全周期的都要设计相关的问题。
全工具,就是建立行业标准、制定技术指南、伦理框架等等,还有政治引领,德治为本,设置辅佐机制支撑,尤其是解决这个伦理问题,约束机制问题还要最终靠人工智能技术本身,用技术问题来解决能力问题。怎么样通过技术来破解伦理问题,我觉得这是一个新的思维。
2022-11-10 15:56:36
- 中国网络空间安全协会秘书长 李欲晓:
感谢江必新主任刚才精彩的演讲,作为法学家,我们感谢他对网络安全的规则体系的贡献,在他担任最高院领导的时候,我们通过了《网络安全法》,在他担任全国人大宪法法律委员会领导的时候,我们通过了《数据安全法》,我们社会的规则体系在不断地完善中,但是一个法学学者确实站在技术逻辑的角度在思考人工智能和伦理的关系,这是值得我们思考。如果我们各领域,经济社会各方面认真思考这样的一些问题,追本溯源,想清楚各环节,包括全要素、全工具思考这些问题,我想我们的生活和工作一开始可能会累些,但是后来会越来越好。
2022-11-10 16:06:35
- 全球IPv6论坛主席 拉提夫·拉蒂德:
尊敬的阁下、女士们先生们,大家好!我是拉蒂夫•拉蒂德,森堡大学教授以及全球IPv6论坛主席。
中国已成为最有发展前景的国家,因为积极拥抱以IPv6为基础的新时代互联网,所以中国是一个很理想的地方来探讨人工智能以及对AGI(通用人工智能)的讨论。区分此两种人工智能的差别尤其重要,特别是涉及到伦理道德的时候。道德原则具体是指支配一个人的行为或进行一项活动时的道德原则。人工智能尤指计算机系统对人类智能过程的模拟,通用人工智能强调自动化,所以是更难版本的人工智能。我认为在一段时间后会变得很重要,虽然自动化人工智能从最初至今已经经过了很多的讨论。
了解两种人工智能的优劣很重要,通用人工智能一般适用于自动驾驶领域,而人工智能主要强调自动化来解决问题进行任务处理。中国是非常现代化的国家,根据历史追溯到公元1000年,中国是全世界最富有的国家,而今中国也是GDP排名第二的国家,位列美国之后。这些都说明中国的国力之强,是世界最成功的商业经济体之一。同样我们也看到中国在新型互联网技术方面取得的领先地位,特别是IPv6的部署与发展,目前印度IPv6用户数已经位列世界第一,拥有6亿9千1百万用户使用IPv6(互联网第六代协议)这一数据远超拥有76% IPv渗透率的印度,4亿4千3百万用户。所以我认为在技术革新的加持下,亚洲会成为互联网的中心,这其中就包括人工智能技术和通用人工智能,我的两位好友对IPv6的发展和部署,做出了长期的努力和卓越的贡献,一位是刘东先生,另外一位就是非常著名的邬贺栓院士。我们在2003年11月就开始不遗余力地推动IPv6事业,在产业界和学术界的发展,我们面临的一些主要人工智能伦理道德问题非常重要,值得我们深入的探讨。
首当其冲的就是失业率和财富分配不均的问题。根据麦肯锡咨询公司近期的研究表明,截止2030年将有8亿人失业,我们应当重新对教育体系从而修复这一问题,我们的研究表明全球有10%的人口拥有大学学历,这不足以让人们挑战更多的任务和进行更有创新性的工作。
所以我比较了全球不同教育体系,发现德国自二战后其教育体系建设相对较好,首先,大学教育是免费的,其次就是双元制职业教育模式,选择此方向可以直接跳过大学教育从事职业专业学习,所以不难看到很多优秀的企业家并没有博士学位,而是受益于双元制教育得以为社会做出贡献。所以教育承载的任务更多,更让那些不具备专业技能的人,且容易被机器替代掉的工作通过教育来完善,所以我们要重视这些问题。
其次,我们应该实施类似欧盟已经实施的GDPR法案用于人工智能的约束。可以是自愿性规则并产业支持。我已经看到一些公司在将伦理道德嵌入人工智能,所以人工智能应该是对社会有益的,应当避免造成偏见,做到公平、可靠和安全、隐私和保障,包容、透明、责任,设计规则支持科学追求。来自英国科学院的皇家社会规则中对使用数据的要求提到,保障个人和集体权益,确保数据管理和数据使用所影响的权衡以透明、负责和包容的方式进行,寻找好的做法,从成功和失败中学习,加强现有民主治理。各个国家都应该有类似的规则对人工智能的发展进行约束,避免对数据的滥用。这也是我们要仔细研究的部分。互联网很好,但也有问题,我们应该保护人工智能的发展,避免伦理道德的问题发生。
未来10年找到问题很关键,即探索人工智能和通用人工智能技术发展遇到的伦理道德问题。我们不必担心,如果我们一方面反思如何改善教育体系,另一方面让产业和政府知晓这些问题,齐心协力防止数据滥用问题,这些问题都会迎刃而解。人工智能极具价值,但必须小心其带来的问题。感谢大家聆听!预祝大会圆满成功!
2022-11-10 16:25:30
- 中国网络空间安全协会秘书长 李欲晓:
感谢拉提夫·拉蒂德的精彩发言,下面有请中国美术学院院长高世名先生进行分享。
2022-11-10 16:30:08
- 中国美术学院院长 高世名:
各位专家、各位同仁,2020年,新冠疫情开始肆虐全球,中国美院有三位本科生联合创作了一幅科幻作品叫《无限分之一》,这件作品目前已经入围了世界范围内数十个重要的国际节展。这个作品的设定是2020大疫之年,三个年轻人接受了生命冷冻实验,陷入长久的沉睡,几百年之后他们被唤醒,那个未来世界早已实现了人机接口和脑际接口,人类上传了所有的知识和记忆,无私分享,共同拥有所有的信息,形成了一个共脑。这个全体人类的智慧集合,正在汇集一切力量突破人类的极限。然而,随之而来的却不是新的突破,而是创新能力的丧失和永久的停滞。因为人类社会已经没有了差异性,甚至人类已经没有了社会。于是,人们只好唤醒数百年前冷冻的这几个差异性备份,重新来激活人类社会的创造力。这三位21世纪的来客刚刚苏醒就面临着命运的选择,是否要上传记忆,是否要融入共脑,这里涉及一系列关于自我与存在,永生和虚无,人性与伦理的终极性命题,与我们这场论坛的主题息息相关。
共脑状态下的存在是否还是人类?共脑之中我在哪里?创造性与差异性的关系为何?创造性是否只能以个体性作为基础?这一系列追问令我们反思,今天全球网络万物互联状态下的超级智能计算不就是共脑的一个雏形吗?这件作品提醒我们,各种各样微观和宏观的增强技术正在逐渐地、不断地把我们改造为非人或者新人,人的危机正以前所未有的压迫性逼到了我们面前。
在20世纪,广义相对论瓦解了“现在”,量子理论重新定义了“这里”,在21世纪下一个被重新定义的被更新的将是“人”这个概念,我们正在见证和经历有史以来最具颠覆性的技术变革,这些技术变革也正在重塑人的形象、我的意义。然而,在过去半个世纪,数字智能科技的主要成就基本上只是研制出无数中数码的物件,数码的客体,这些数码物件加速了社会的自动化,也加速了人的异化。
我一直呼吁的是除了Digital Object的研发,我们更要推出数码主体的探索,我们需要从中发展出一个数字智能时代的新的人学。就这种新的人学而言,最大的挑战、最大的启发莫过于人工智能。
其实与互联网猝不及防的大爆发不同,我们对人工智能已经有了几乎一个半世纪的心理准备,100年前人类没有想到过会有互联网这个东西,但是在19世纪以来人工智能就是科幻小说和各类预言最为钟爱的主题,以至于它占据了我们关于未来的主要的想象空间。那么我要说它窄化了我们对于未来的想象,似乎人类未来的主要内容就是与机器的斗争,就像电影《黑客帝国》所呈现的那样。在《黑客帝国》这类科幻影片中,人与机器的斗争掩盖了一个根本的事实,就是即使在未来决定人类命运的依然是人与人的斗争,如果那时我们还可以被称作人的话,因为通过新技术极少数人将把绝大多数人类变成无用之物,变成那个作为日常生活的消费者,变成一个虚拟世界的永远的沉浸者,也是沉沦者。同时,也就变成了现实荒原中的赤裸生命、肉身电池。
寻着《黑客帝国》的根本逻辑,未来人类的根本困境必然是身心的分离,这是人机复合体的副作用。在未来,或许只有那个操纵者,那个终极的主人才能做好身心合一,而其他的人类心在虚拟世界,身在现实的荒漠。这将是一种技术控制下永恒的新的“冻结状态”,身心分离状态下人的主体性的丧失。或者说,人之为主体的自由意志与行动力被从现实转移,置换到了虚拟现实。这才是真正意义上的历史终结,人的终结。打破这一冻结状态,将是极少数人对抗几乎全体人类的斗争,是人机合体的终极消费者对抗同样人机合体的终极控制者的斗争,是两种非人之间的斗争。
其实即使最终的那个主权者的梦想得以实现,它成为了终极的主人或者操控者,他也会发现,他陷入的主奴辩证法的噩梦,因为只有他一个人在系统之外控制这一点,那么所有人的主人也是一切人的奴隶,他不过是整个梦幻世界的系统维护者,是个网管。
AI窄化了我们对于未来的想象,过去100年的科幻文化也把AI窄化了,机器人只是AI的一种典型形式和一个发展的隐喻,也就是人工生命。它的早期是拉美特利的人式机器,第一个人工生命的隐喻出现在歌德的《浮士德》中。歌德的学生那个书呆子瓦格纳创造出一个人造人,那是一个诡异的生命。人工智能对我们的意义不只是它可以模拟延伸和人的思维,更重要的是AI技术的发展对我们理解人的语言,人的思维,以及智能本身有着巨大的推进作用,它有助于我们探索人类的思考、学习、分析、推理、规划和想象究竟是怎样的一个智力过程。
AI不只是研究和制造的工具,更是感知和思维的工具,它是人自我认知的镜子,也是人类社会意识的镜子。甚至它不只是工具,更是伙伴,AI是我们的一部分,是我们的未来的一部分。
其实,我们所谓人的本性并非纯粹自然,因为就连生物的捕食、求生、繁衍这些行为都是被编码在DNA中一代代遗传下来的,我们从来都不是自然人,我们是技术化的人,人工化的人,我们是Human Being和Artificial Being复合体,作为技术化的感官集成的存在,我们如何去制作、如何去创造,我们还是否保有我们的主体性,我们是不是还有那种制作、创造、斗争的欲望。欲望与意愿或许就是我们与人工智能的最大差异,人工智能可以写诗、画画、作曲,可以在棋盘上战胜人类,但是它必须要接受指令才会写诗、下棋、作画、作曲,它并不具备做这些所有行为的冲动、欲望和意愿,而人类不但也欲望,还有激情。
19世纪以来的机器人幻想,让我们时常忘记了人工智能其实是艺术作品,而不是艺术家。围棋少年柯洁败给了Alpha Go,一开始他非常地伤心,但是很快又变得很高兴、很兴奋,据说,许多围棋高手都像柯洁一样为此兴奋不已,因为人工智能帮助围棋界打开了许多的新思路,而围棋的魅力当然没有消失。正如在19世纪照相术并没有替代绘画,计算机和人工智能也同样如此,因为只有人才是一切的关键。人工智能必须建立一个可预测的世界模型以及反应修正机制,这都是建立在一个理性个体的行为假设之上。
问题在于世界上不只有一个个体,还有无数他者,无论是他人还是其他的AI,如何以算法去应对无数社会性个体之间复杂的充满非理性和偶然性的相互作用,这是AI技术的难点所在,因为心灵没有方程式,社会性的心灵更加无法用算法解决。
我们关于人工智能有很多的忧虑,其中一个忧虑就是人工智能通过运算和模拟正在逐渐地替代和置换我们的感受力,AI的无限算力也对人类的想象力产生了巨大的压力和推动力。但是,吊诡的是今天我们的算力已经如此地强大,人们却常常在感慨这是一个贫乏的时代。这其中有一个悖论,作为一个策展人,一个艺术工作者我愿意乐观地说这恰恰是艺术的机会,人工智能越发达我们越需要艺术。
我们关于人工智能讨论应该跳出人类生命的想象,进入到更广阔的天地。人工智能的发展不是为了吓人,更不是为了取代人,它有自己的未来,多种未来。人工智能的发展也反过来迫使我们重新来理解究竟什么是创造,创造是最富意义的可能性的生产。想象力只是创造力的一种必要条件,而非充分条件。除了想象力,创造还涉及许多东西,好奇、冲动、感兴、关怀、欲望、价值与目的,还有最重要的是对于未知、无名的爱。只要我们还保有这些,我们就可以大胆宣布那些可以被人工智能取代的都随它去吧,让我们随AI一起进化。
2022-11-10 16:39:25
- 中国网络空间安全协会秘书长 李欲晓:
下面有请阿里巴巴安全部智能算法负责人,阿里巴巴集团科技伦理治理委员会执行主席薛晖先生演讲。题目是《阿里巴巴在人工智能伦理、治理方面的实践和思考》。
2022-11-10 17:05:49
- 阿里巴巴安全部智能算法负责人,阿里巴巴集团科技伦理治理委员会执行主席 薛晖:
各位领导、各位嘉宾、各位朋友大家下午好,今天也非常荣幸能在这个场合做一个分享和汇报。题目是《阿里巴巴在科技伦理、人工智能伦理和治理方面的实践与思考》。
在过去几年间,人工智能取得了长足的发展和进步,我自己也作为一名工程师看到有很多硬核领域获得了冲破,例如在自动驾驶、城市大脑,AI+X这样非常硬核和科技协同的领域,我们取得了突破,也大幅提升了社会整体的运转效率。
然而,以深度学习为代表的人工智能技术当前依然存在瓶颈和局限,比如在2018年纽约大学的一名教授在发表论文中指出,深度学习有十个问题,包括可解释性问题、知识先验如何结合、工程挑战、运算复杂度以及最关键的对数据的依赖,有很多问题,直到今天仍未有效解决。头部的科技企业科技巨头,当然阿里也是投入大量在预处理深层次模型。今天我们的深度学习模型如果从参数量来看,它是无比的强大,毋庸置疑的强大。从过去的百亿、千亿、万亿甚至到了十万亿,某一些特定领域表现非常惊艳、强大。但是人无法区分一些在人类看来较为简单的基本概念,我们也很难说这就是我们心中真正的认知和智能。
接下来我想说,迈向更加强大的更大通用的人工智能,道路尚不明确。目前我们的工业界、学术界、科研界也有很多观点,并不一致,可能唯一明确的一点就是这条道路并不好走,也许会花上一代人甚至几代人的时间探索。我非常赞成张钹院士所讲的,人工智能有远虑也有近忧。但是当下人工智能所引发的问题和争议也足以引起我们的重视,治理此类问题也是迫于眉睫、刻不容缓。
第一个风险是智能系统存在安全隐患,可能会造成重大事故。例如自动驾驶的传感器可能无法因为区分白色的车箱与天空,本质是当前我们基于数据驱动的深度学习模型,可能无法较好处理完全未过的图像。第二个风险是对话模型可能会劝患者放弃治疗或进行自杀、失控状态,因为当前我们的训练过程是黑盒的,基于数据的,数据质量参差不齐,可能甚至有害,会导致今天出现各种失控的结果,导致我们,造成灾难性后果。当我们今天试图将人工智能用于一些重大决策时,带有偏见的数据或者是设计有缺陷的算法,会导致系统做出不公平的判决,甚至造成非常大的后果。
今天一些很强大的技术,包括人工智能技术,最早提出可能是出于善意的目的,希望社会有利,但因为缺少考虑,缺少规范或者不当使用就容易产生滥用问题。众所周知,像facebook在剑桥事件中8700万个人信息被泄露,甚至被用于政治竞选。今天我们叫深度伪造,真正的名字是深度合成,今天我们都称之为深度伪造,深度伪造技术通过克隆人脸和语音在全球范围内多次被曝光用于制作和产品虚假信息以及用于欺诈等目的。今天当我们把模型做的越来越大,今天我们的模型尺寸越来越大,很多人从性能转而去关注今天我们在训练和推理使用模式时所付出的代价,这里的代价不仅是今天我们的金钱或者经济上的成本,也包括今天我们对于能源和环境的影响。
更加长远的风险,今天我们身处第四次工业革命浪潮之中,我们也应充分考虑今天科技对于人类和对于社会所造成的长远影响。例如在现代社会生活中,我们在手机上花的时间越来越多,手机也在不断影响着我们。比如说对于信息的获取,还记得前两年有一篇文章是“外卖骑手困在系统里”核心反映的问题是由于一类高度自动化决策场景,特别当这类场景决策者是机器,而被决策者却是我们人类自身时,我们应如何平衡和处理两者之间的关系。今天我们看到非常多的人谈元宇宙、数字世界、平衡孪生网络、虚拟世界中不道德行为应该如何规制、我们是否可以适用于今天物理世界、真实世界的法律规范和伦理道德,这些问题,都应得到更加广泛的思考和关注。
也正是因为我们看到过去我们面临的问题,当下我们面临的问题,以及未来我们不得不面临的问题,阿里巴巴认为今天的科技活动,我们一定要遵循一些基本准则,所以今年阿里巴巴集团也提出了科技伦理治理六项基本原则:坚持以人为本的价值导向,践行隐私保护,安全可靠,普惠正直、科技原则,我们会借助可信、可靠和开放共治的科技方法,当然这些科技原则也不是今天提出的,事实上与我们过去几年所提出的好科技、科技工艺,负责任技术,以及今年重点强调的ESG战略,充分延续和传承。我们已有一些共建实践,将在未来继续坚持和加以完善。
第一我们特别强调坚持以人为本的价值导向,因为增进人类福祉,尊重生命权利,这应该是一切科技活动、经济活动的起点。
第二关于科技原则。今天我们的科技需要满足怎样的原则,其中第一条我提出是隐私保护,因为我认为隐私是数字时代人类的基本权利,是基本的人权。
第三关于安全可靠。作为一家平台企业,阿里巴巴无论是电商平台还是云计算平台,我们肩负着千万商家、十多亿全球消费者和数百万云计算客户、中小开发者的生意或者生活,安全可靠是所有平台企业的生命线。
第三关于正直普惠。从我进入公司第一天就知道第一条价值观就是客户第一,保护消费者的权益是我们的第一要务,创始之初使命就是让天下没有难做的生意,所以我们要保护商家进行正常的经济活动。
第四关于科技方法,我们今天需要通过什么样的科技方法实现我们的以人为本,实现科技原则?第一点我提到的是可信可控,人工智能的伦理、机器人的伦理很早涉及到了,我们今天需要确保科技最终掌握在人类,被人类所障碍和信赖的。第二是开放共治,我认为今天技术伦理治理本身是一门跨学科的智力密集的和需要多方协同的复杂问题。我们需要基础理论、计算机学、法学、伦理学和社会学,很难想象今天单凭一家企业,一个机构或者一所高校能够独立完成。对于阿里巴巴来说,我们希望有外部视角,希望自己的实践经验能够对社会企业同行有所帮助。
以人为本。以人为本是我们必须要坚持的价值观,之所以提以人为本,顾名思义以人为本就是我们希望营造今天我们的科技机器与人类和谐相处的环境,特别谈到这样一个问题,可能我们不希望能看到,但如果今天真的有一天当科技我们的机器与人类发生矛盾时,我们应坚定的去思考坚定不移在想,我们今天的整个社会的价值理论、科技价值理论,应该站在人类这一边,从人的出发点思考问题。这里我认为最有代表性的一点,就是数字服务发展不应该扩大数字鸿沟。例如在中国老龄化和数字化并线而行,我们关注老年群体,我们希望我们的数字化技术能够提升老年人的福祉,而不是反过来为他们带来困扰。
第五是隐私保护,隐私保护是我们首要的科技原则,因为我们认为隐私是数字时代人类的基本权利。针对消费者因素保护我们提出三项基本原则,一是数据采集,最小必要性,我们在数据采集时会充分告知用户采集范围和潜在用途,即使是在采集后也提供方便的隐私管理工具,方便用户查询、更改或删已授权的个人信息。第二数据使用用户知情和决定权最大化,我们会在隐私协议和政策中向用户充分解释算法使用数据的原理,当然作为一名算法工程师,我也做搜索推荐,我们认为在很多场景下,其实对用户来说,我们的个性化推荐是提供了更好的体验和更加高效的人活匹配效率,但我们仍坚持提供便捷的个性化关闭入口,我们希望这个决定权最终是掌握在用户手中。第三项是不断使用技术提升数据安全保障能力,以避免我们的个人隐私信息被黑产利用,对消费者构成伤害。
第六是关于安全可靠。这也是我们的承诺,包括今年的奥运会也是第一次数字奥运,云计算能力不仅为我们提供了更强大的计算能力,更稳定的保障能力,也为我们提供了更强大的安全能力。
同时,安全可靠也要求我们对于一些新发的潜在的风险做预备,对抗样本和深度伪造,我们AI安全团队做了积极的防御和布局,以避免未来我们陷入黑天鹅事件。
关于普惠正直的原则,正直是普惠的第一步,只有公正才能带来公平,我们也建立了完善的风控体系,对于互联网的不法行为,例如假货、欺诈、作弊等行为,联通线下公安进行打击,推动了互联网售假刷单案件的判决,核心目的是希望通过打击黑产不法行为,保障消费者利益,维护市场秩序公平。普惠正直可能也会看一下今天我们的普惠,也希望今天我们的音视频技术流畅的播放企业能够为消费者带来体验。我们希望疫情期间虚拟现实技术、数字人技术能够帮助商家度过疫情,或者经济的发展。
可信可控的治理方法,因为我们需要确保今天科技被人类所掌握,所以我们也成立了集团科技伦理治理委员会,主席是我们的CTO确保技术的可信可控。同时我们希望分享我们的经验给社会同行,希望外界能够监督我们的工作,也希望我们的技术能够帮助同行获得更好的治理。同时我们也开源相关的核心技术,联邦学习等技术,能够使得我们的中小企业能够快速建立起隐私学习能力。
2022-11-10 17:06:10