详情
搜索

发展人工智能,要装好刹车再上路

来源:人民邮电报 时间:2024-04-07

清华大学文科资深教授、公管学院学术委员会主任薛澜:

发展人工智能,要装好刹车再上路

  ·人工智能治理有两个核心内容:一是发展问题,即如何构建良好的制度规则,推动人工智能创新发展、科技向善;二是安全问题,包括保证安全底线和防范其他风险。

  ·未来人工智能安全可能也会形成一个市场,全社会也需要加大对人工智能安全领域的研发投入,使得有更多的技术公司参与监测和评估人工智能的安全性,政府监管部门也要有更加有效的工具来防范相关风险。

  在机器人“三大法则”的限制下,人类与机器人和谐相处,但在一起离奇的凶杀案发生后,警探调查发现机器人产生了自我意识,随时可能成为人类的“公敌”……近年来,随着通用人工智能迅速发展,20年前上映的电影《我,机器人》中的恐怖剧情成为现实的概率正逐渐增加。但对于人工智能国际治理的具体准则,国际社会仍未达成共识。

  3月7日,中共中央政治局委员、外交部部长王毅在全国两会记者会上表示,人工智能进入爆发式发展的关键阶段。我们主张发展与安全并重,既要拥抱新事物新机遇,也要装好刹车再上路,共同推进人工智能全球治理。

  实现人工智能全球治理难在何处?人类真的需要经历一场危机才能意识到人工智能的安全风险吗?怎样帮助发展中国家在人工智能发展中不掉队?近日,清华大学文科资深教授、苏世民书院院长、公管学院学术委员会主任薛澜在接受采访时就这些问题发表了见解。

  我们距离形成全球性人工智能治理共识还有多远?

  薛澜表示,一方面,各国对人工智能全球治理的宏观原则存在基本共识。中国、美国、欧盟提出的人工智能治理原则,都以负责、包容、平等、安全等理念为核心。另一方面,世界各主要经济体还没有进入就人工智能全球治理的具体措施进行充分、深入交流的阶段。各国各自出台了人工智能国内治理的法律或措施,但还没有把这些规则拿到桌面上进行对比,看看对共识性原则的理解在实践中是否有差异、是否可以协调形成全球性规则。

  薛澜表示,关于未来可能达成的全球性共识,首先要明确,人工智能治理有两个核心内容。一是发展问题,即如何构建良好的制度规则,推动人工智能创新发展、科技向善;二是安全问题,包括保证安全底线和防范其他风险。薛澜强调,这是所有治理逻辑都必须依托的出发点。

  在安全底线问题上,全球有明显的共同利益。大家都担心人工智能未来可能不受人类社会控制,所以,大家会寻找为了维护共同利益而必须遵守的规则。但在一般的社会应用层面的风险问题上,各国对不同风险的评判不同、价值观念不同等,会存在不同的立场。比如争议很大的人脸识别技术,有些社会反应比较强烈,担心会侵犯个人隐私及泄露个人信息;但有些社会感觉如果应用恰当并加上合理的规制,承担一些不高的风险可以换取更加方便的社会应用。

  考虑到种种分歧,各方最终能否形成治理人工智能的全球性规则,还要打一个问号。一个可能的结果是:各国在安全底线问题上达成共识并建立机制,但在其他问题上,各国会按照各自的治理逻辑进行规制,并在一定程度上协调。

  如何破解国际多边谈判速度跟不上技术发展速度的难题?

  薛澜表示,人工智能全球治理需要“敏捷性”,之前国际社会缺乏这种紧迫感。在ChatGPT发布之前,人们觉得通用人工智能距离我们还比较遥远。但现在,大家已经意识到通用人工智能实现的可能性已经越来越大,不受人类控制的、有自主意识的系统出现的可能性也越来越大。

  最近一两年,在ChatGPT等产品发布后,人工智能的全球治理特别是风险防控得到的关注已经越来越多。但现实情况是,由于一些全球治理问题非常复杂,很多治理机制会同时参与、介入对其治理,形成“机制复合体”。人工智能就有这种问题。从联合国到各个国际组织、各国政府、行业标准组织、非政府组织等都提出了不同的要求和规则。

  这种情况的特点是,不同治理机制之间存在重叠和冲突,彼此又没有清晰的从属关系。联合国不是“世界政府”,并非对所有参与者和社会主体都有普遍约束力。这使得问题的讨论和解决变得更加复杂。在这种情况下,各方需要特别注意包容性,尽可能容纳更多不同的社群和观点,以寻找真正的共识。

  薛澜表示,希望人类社会的智慧可以尽快找到建立国际机制的可行方案。同时,很多专家也在呼吁人工智能技术公司放慢发展步伐,在不能确保安全、缺乏规制的情况下不要轻易推进技术前沿。当然,未来人工智能安全本身可能也会形成一个市场,全社会也需要加大对人工智能安全领域的研发投入,使得有更多的技术公司参与监测和评估人工智能的安全性,政府监管部门也要有更加有效的工具来防范相关风险。