科技日报记者 张盖伦
世界卫生组织(WHO)于6月28日正式发布了“世界卫生组织卫生健康领域人工智能伦理与治理指南(Ethics and Governance of Artificial Intelligence for Health: WHO Guidance)”。这项指南依托世界卫生组织任命的卫生健康领域人工智能伦理与治理专家组编写,历时18个月。受国家卫健委和科技部推荐,中国科学院自动化研究所曾毅研究员作为世界卫生组织卫生健康领域人工智能伦理与治理专家组成员参与了报告编写发布的全过程。
世界卫生组织总干事谭德塞(Tedros Adhanom Ghebreyesus)在指南发布声明中指出:“就像所有其他的新技术一样,人工智能对于提升世界上数以亿计民众的健康潜力巨大。但也正如其他技术一样,也能够被误用和带来危害。这份重要的新报告为不同的国家最大化人工智能的益处和最小化其风险并避免危害提供了一份有价值的指南。”
报告概述了人工智能在医疗与卫生中的各种应用,指出人工智能在相对富裕的国家已经被用于提升治疗的速度和精准度以及疾病的筛查,协助临床护理,加强卫生研究与药物研发,支持疾病监测,疫情应对和卫生系统管理等多种公共卫生干预措施。
报告还指出人工智能可以使患者能够更好地掌控自身的健康情况,并更好地了解自身不断变化的需求。它还可以使资源贫乏的国家和农村社区能够弥合获得保健服务方面的差距,因为那里的病人接触到保健工作者或医疗专业人员的机会都是非常有限的。
世卫组织的新报告告诫,不能高估人工智能对健康的益处。机会与挑战和风险高度相关,包括不符合伦理地收集和使用健康数据、算法中的偏见,人工智能对患者安全的风险、网络安全和对环境产生的负面影响。
报告提出了确保人工智能符合所有国家公共利益的六项原则:
· 保护人类自主性:在卫生健康方面,这意味着人类自身应确保继续掌控医疗决策过程和对医疗系统的控制;隐私和保密应受到保护,患者必须通过适当的数据保护法律框架给予有效的知情同意。
· 促进人类福祉、安全以及公共利益:人工智能技术的设计者应确保满足对明确定义的使用案例或指示的安全性、准确性和有效性的监管要求。必须提供实践中的质量控制措施并对使用人工智能改进质量提供有效测度。
· 确保透明度、可解释性和可理解性。透明度要求在设计或部署人工智能技术之前发布或记录足够的信息。这些信息必须很容易获得,并对就技术的设计方式以及应如何使用或不应使用技术进行有意义的公众咨询和辩论提供便利。
· 促进责任和问责。虽然现有人工智能技术仍是执行特定的任务,但利益相关者有责任确保在恰当的条件下使用,并由受过恰当培训的人员使用。应提供有效的机制支持问询,并为受到基于算法决策不利影响的个人和团体提供补救措施。
· 确保包容性和公平性。包容性要求人工智能在健康领域的应用应鼓励尽可能广泛的公平使用和获取,而不论年龄、性别、收入、种族、性取向、能力或受人权法保护的其他特征如何。
· 促进负责任和可持续的人工智能。设计人员、研发人员和用户应在实际使用期间持续、透明地评估人工智能应用,以确定人工智能是否对应用期望和需求做出充分和适当的响应。还应设计人工智能系统,以尽量减少其环境负面影响并提高能源效率。政府和公司应积极应对工作场所中可预期的问题,包括培训卫生与健康领域工作者以适应人工智能系统的使用,以及由于使用自动化系统而可能产生的失业问题。
曾毅还记得,2019年10月在日内瓦召开的第一次会议期间,专家们就讨论到紧急公共卫生危机期间AI应用涉及到的相关方和可能带来的风险和伦理挑战。新冠对公共卫生的挑战是全球性的,也更凸显了世界卫生组织发布健康领域人工智能伦理与治理指南的意义。“下一步这些指南和原则在不同国家如何进行技术和社会落地,促进人类卫生健康共同体的形成,是与提出原则本身至少同样重要的问题。”曾毅强调。
(张盖伦)