“人工智能(AI)让人类与技术的关系发生了变化。”近日,在未来论坛发起的“AI 向善的理论与实践”论坛上,清华大学苏世民书院院长薛澜说,“一般来说在人与技术的关系上,技术通常都是被动的。但AI技术不同,它似乎并不完全听从我们。”
薛澜在论坛上指出,对AI这样的技术,如果在技术发展前期不注意治理问题,消除可能产生的风险,一旦这些风险产生不良后果之后,就会导致市场对技术的应用产生强烈抵触,甚至可能导致技术难以发展,形成恶行循环。“避免这种情况的关键,就在于从AI技术明升m88周期的起始阶段就关注治理问题,防患于未然。”
2019年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了AI治理的框架和行动指南。
“这是很重要的一步。当然,未来我们怎么真正去落实这些准则,抑或去改善这里面依然存在的问题,需要研究和讨论的还有很多。”
薛澜指出,AI治理在执行上,天然就面临着更多的挑战。“其他技术的治理可以通过具体的技术指标调控来实现。比如汽车可以通过法定时速来限制开车的速度,从而取得社会收益和成本控制的平衡点。但对于AI技术来说,我们并不完全了解系统是怎么做决策的,难度就大大增加了。”
AI治理的另一大特殊性在于,由于技术发展很快,作为治理者的政府,反应速度很容易远远落后于作为被治理者的企业。往往规则还在制定之中,技术已经向前又走了很远。
如果由于技术和市场发展过快,导致以公众利益和安全为目标的政府管制无法跟上,此时一旦出现问题和事故,带来社会危害,就可能出现政府管制口袋瞬间扎紧,以致企业和技术难以发展的困境。
“要想打破这种一追再追(Catch up forever)的局面,一个比较好的模式是‘敏捷治理’,政府和企业都要改变观念。”薛澜说,“简单来说,就是从猫抓老鼠的关系转变成搭档的关系。在政府的基础性规制框架下,企业要有很强的自律机制,行业也要有相应的行规和标准,政府与企业互相沟通,共同讨论潜在风险,协商如何有意识地加以规避。这时尤其需要成熟企业与政府合作,建立合理的治理规制。”
一个常常被问到的问题是:如果AI犯了错,能不能像惩罚人类一样去惩罚它?围绕迅速发展的AI技术应用,我们需要建立一个怎样的责任体系?
薛澜表示,他倾向于建立一个系统性的保险制度。在这样的制度下,一旦出现了问题,有保险兜底,大家就不必再去担心是否要自己来承担损失,争论是否要追究开发者的责任,从而可以更为客观理性地去分析事故背后的原因,促进技术和应用的良性发展。
在论坛上,薛澜一再强调,AI技术可能带来巨大的好处,也随时可能出现一些潜在的问题,从而埋伏下巨大的风险。因此他在最后的发言中强调,AI治理关乎全球人类共同体的福祉,需要各国密切合作,制定并遵守共同的准则。
版权声明:凡本网注明“来源:明升中国app报、明升手机版(明升中国)、app手机版杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、明升头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。