• 官方微信公众号
  • 电子信息产业网
  • 微博
第01版:要闻

医疗健康AI大模型需遵循“人机对齐”法则

本报记者 卢梦琪

“医疗AI人机对齐问题不仅是一项技术挑战,更是一项关于‘AI如何服务人类’的价值思考。”4月19日,第十四届全国政协委员、工业和信息化部原副部长王江平在中国医学发展大会开幕式上表示,医疗健康AI应用必须通过全面体系化的渗透策略——让对齐法则深入技术架构、数据集建设、医院管理、患者知情、行业监管等环节,才能确保AI始终服务人类,实现从“高效工具”到“可信伙伴”的跨越。

人机对齐正在成为治理AI伦理问题的基本法则

近年来,AI技术如潮水般涌进各个领域,在带来效率革命的同时,也暴露出隐私泄露、歧视偏见、算法滥用等伦理挑战。我国高度重视该问题,提出《全球人工智能治理倡议》,出台《科技伦理审查办法(试行)》等一系列政策法规,进入体系化治理推进阶段。

王江平表示,从技术层面看,人机对齐正在成为治理AI伦理问题的基本法则。在医疗领域,人机对齐可从三个维度发挥作用,促进AI伦理治理。一是可解释性。清晰展现AI的决策逻辑,让医患理解“黑箱”背后的依据。欧盟《人工智能法案》明确要求高风险AI系统(医疗AI属此类别)必须提供“技术文件”和“透明度信息”,将可解释性从技术选项升级为合规标准。二是信任性。只有当AI的建议符合医学伦理,人类才能对其建立深度信任,才敢对其托付生命健康。医疗行业的特殊性对模型鲁棒性提出了极高要求。三是人类和谐性。AI在应用过程中可能偏离人类的真实需求,如医疗AI为“最大化患者生存率”可能忽视治疗痛苦,情感陪伴机器人可能导致用户过度依赖、人际疏离等。人机对齐要求在算法设计中加入人性考量、目标校准,确保技术真正服务于人类福祉,而非单一指标的“冰冷计算”。

王江平指出,有人担心人机对齐会束缚技术创新,其实恰恰相反——它是创新的催化剂。当前,人机对齐技术日益广泛地应用于模型训练,如基于人工反馈的强化学习(RLHF)、检索增强生成(RAG)技术等已经被大多数主流模型采用。基于AI反馈的强化学习方法(RLAIF)可有效解决人类专家标注耗时长、难以规模化等问题,OpenAI提出的弱到强泛化方法、阿里通义实验室提出的基于辩论驱动的弱监督对齐方法等,为解决未来的“超级对齐”问题提供了一种可能性。王江平表示:“人机对齐的前沿研究正从单一技术向多维度技术融合快速发展,既推动了AI伦理与安全治理,也极大促进了AI模型能力提升。”

医疗领域是AI应用的“高压地带”

在王江平看来,医疗领域是AI应用的“高压地带”,这源于其三大特殊性。一是数据敏感性。医疗数据包含生理指标、病史、诊疗记录等敏感信息,直接关联个人生命权和隐私权。二是结果不可逆性。生成式AI的“幻觉”问题在医疗场景中可能导致严重问题。王江平坦言,“我们必须清醒认识到,一次错误诊断可能直接危及生命,医疗AI应用必须追求‘零失误’。”三是责任主体复杂性。对于AI参与医疗决策导致损害问题,需以“权责清单”等形式清晰界定责任,避免出现“技术出错、操作失误、患者买单”的困局。

医疗健康AI应用必须实行全面体系化的渗透策略

如何让人机对齐贯穿医疗AI的“研发—应用—监管”全周期全链条?王江平提出一条路径——从技术架构、数据集建设、医院管理、患者知情、行业监管五大环节协同发力。

在技术架构环节,要从源头上注入伦理基因、实现价值观驱动。模型预训练阶段引入“医学伦理知识图谱”,让模型优先学习循证医学指南、临床诊疗规范等,确保模型“学的是正确的知识”。模型微调阶段通过人工反馈强化学习让模型适应具体场景伦理偏好,在给出方案时综合评估患者年龄、病情、经济状况等因素,避免“一刀切”决策。

在数据集建设环节,要充分考量医疗数据格式不统一、多模态混杂、小样本高维度数据并存、隐私问题突出等难题。运用隐私计算技术实现数据“可用不可见”,通过术语标准化打破数据孤岛,利用小样本增强技术解决标注数据不足问题。设立“数据过滤器”,自动屏蔽包含歧视、错误伦理导向的数据源。建设医疗可信数据空间,推动统一数据规则和技术标准,促进合规共享。

在医院管理环节,在诊断、手术等高风险场景应实施“双保险机制”,AI手术建议需医生实时复核并留存记录。在健康咨询、用药提醒等中低风险场景可允许AI自主决策,嵌入动态监控日志,记录交互细节供事后审计。开发可视化工具包,让医生快速理解模型逻辑。设立“人机协作绩效指标”,将AI使用规范纳入医生考核体系,避免“盲目信任”或“过度抵触”。

在患者知情环节,要向患者提供“可理解的AI决策报告”,用通俗语言解释推荐药物、治疗方案的理由。保障患者的否决权,建立“患者一票否决通道”,当患者对AI建议提出质疑时强制切换至人工服务。

在模型测评与行业监管环节,建立国家统一的医疗AI对齐认证标准体系,由第三方机构开展测评,通过者颁发“伦理合规标签”,作为市场准入前提。常态化开展“红蓝对抗演练”等对抗性测试,模拟罕见病误诊、数据投毒等极端场景,测试模型鲁棒性。设立多学科伦理委员会,由临床医生、AI工程师、伦理学家、患者代表共同参与,定期评估模型对齐度,避免“技术单边主义”。编制《医疗AI对齐白皮书》,为开发者、医疗机构提供操作指南。

王江平表示,“要通过这五大环节的协同发力、综合施策,确保医疗AI筑牢伦理合规防线”。

数据飞轮是医疗健康模型技术迭代的必要手段和对齐策略

“数据飞轮”是用户对AI输出进行标注、反馈,从而实现模型持续优化的闭环机制。在AI领域数据飞轮不仅是技术迭代的引擎,更是人机对齐的重要实现路径。王江平表示,“医疗AI有必要引入数据飞轮机制,通过‘模型输出评估—数据收集—应用反馈—模型优化’的闭环,使医疗AI模型得以持续贴近真实医疗需求”。

医疗AI的“数据飞轮”应建立准入和激励机制。准入机制目的是确保数据“干净合规”,医疗数据贡献者(医院、医生)需通过伦理审查和资质认证,避免噪声数据污染模型价值观。激励机制目的是让数据共享“双向受益”。医院通过数据共享可以获得AI模型优先使用权或定制化服务,医生标注高质量数据可积累学术积分、助力职称晋升,从而激发医院和医生参与人机对齐的积极性。

王江平表示,应在真实的医疗场景中持续收集高质量数据反馈,不断修正模型偏差,让对齐能力在迭代中持续进化,使对齐效果在实践中不断提升。当医疗AI解决对齐问题,真正成为人类可以信赖的医疗助手,必将成为千行百业AI应用的典范。

2025-04-22 本报记者 卢梦琪 1 1 中国电子报 content_13500.html 1 医疗健康AI大模型需遵循“人机对齐”法则 /enpproperty-->