世界卫生组织(WHO)警告称,引入基于人工智能(AI)的医疗保健技术可能对低收入国家人群是“危险的”。
据《自然》报道,WHO于1月18日发布了一份大型多模态模型(LMMs)新指南,指出技术的使用和开发不能只由科技公司和富裕国家决定,这一点至关重要。该机构表示,如果没有根据资源不足地区人们的数据对模型进行训练,那么这些算法很可能无法为人们提供良好的服务。
“作为技术飞跃的一部分,我们最不希望看到的是世界各国社会结构中的不平等和偏见被传播或放大。”WHO数字健康与创新总监Alain Labrique表示。
事实上,WHO首份关于AI医疗保健的指南发布于2021年。但在生成式人工智能浪潮的推动下,LMMs的威力和可用性迅速提高,这促使WHO在首份指南发布不到3年后就进行了更新。
WHO表示,LMMs是历史上被采用速度最快的消费应用程序,其中医疗保健是一个很受欢迎的目标。AI模型可以生成临床笔记、填写表格并帮助医生诊断和治疗患者,因此一些公司和医疗保健供应商正在开发特定的AI工具。
但LMMs在为人们带来便利的同时,又存在不少隐患,WHO更新指南的目的就是确保LMMs的爆发式增长能够促进和保护公众健康,而非破坏公众健康。
WHO警告在最坏的情况下,全球可能出现“恶性竞争”,即公司为了抢先发布,而忽视应用程序的无效性和不安全性。这甚至增加了模式坍塌的可能性,从而进入一个虚假信息循环,基于不准确或虚假信息训练出来的LMMs会污染互联网等公共信息来源。
“生成式AI有潜力改善医疗保健,但前提是开发、监管和使用这些技术的人能够识别并充分考虑相关风险。”WHO首席app家Jeremy Farrar表示。
在Labrique看来,这些强大工具的操作决不能只靠科技公司完成,各国政府必须合作,以有效监管AI技术的开发和使用。民间社会团体和接受医疗保健的人必须为LMMs开发和部署的各个阶段作出贡献,这包括监督和监管。
WHO强调,鉴于这些模型的训练、部署和维护成本高昂,LMMs开发有可能被行业主导,目前已经有令人信服的证据表明,在AI研究方面,大型公司正在排挤高校和政府,而博士生和教职员工以前所未有的规模离开学术界投身其中。
指南建议,从事医疗保健或app研究的LMMs开发人员应接受与医生相同水平的道德培训。此外,各国政府可以要求开发者注册早期算法,以鼓励公布负面结果,防止出现偏见和炒作。
版权声明:凡本网注明“来源:明升中国app报、明升手机版(明升中国)、app手机版杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、明升头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。