许燕佳|手术机器人介入下医疗事故罪的认定——以“严重不负责任”的认定为核心

  诊断设备系列     |      2024-09-08 12:56

  手术机器人是医疗人工智能的前沿成果,其具备刑事主体地位的“奇点”界分是完备意识与自由意志的有无。“奇点”之前的手术机器人,由于缺乏悟识意识与感受意识而无责任能力与刑罚可罚性;“奇点”之后的全自主强机器意识型手术机器人可能对刑法人类中心主义造成冲击,不具有赋予其与人类平等主体地位的正当性。在手术机器人介入下,医务人员客观行为基准的不确定性与结果预见能力的差异性加强。对“严重不负责任”的认定可以根据手术机器人的成熟和普及程度采用不同的过失犯理论:在“实践上的医疗水准”参考依据欠缺、“一般人的预见能力”模糊的“过渡期”采用“修正的旧过失论”;期间不断完善配套规则,建立不同类别手术机器人辅助医疗活动场景下医务人员的分级注意制度;在“成熟期”采用“新过失论”,限缩医疗事故罪的犯罪圈,以此保证医患权益双向平衡的同时促进医疗科技的发展。

  2024年3月13日,欧盟议会通过了全球首部《人工智能法案》(AI Act),紧随其后,在3月16日,我国“AI善治论坛”亦发布了《人工智能法(学者建议稿)》,人工智能领域监管正迎来新时代。手术机器人作为最前沿的医疗人工智能技术,在医疗活动中的投入逐年攀升,在极大提升医疗水平的同时带来的安全风险也引起关注。例如,当前应用最广泛、技术最成熟的达芬奇手术机器人在2000年至2013年致死人数多达一百四十四人。而2015年“英国首例机器人心瓣手术失败致患者死亡”亦传递出手术机器人辅助诊疗的较高风险性与规制必要性的信号。手术机器人介入情形下医疗事故的刑事责任成为目前难以回避的重要理论课题。

  医疗事故罪属于轻罪,在“宽严相济”刑事政策下,刑法既要着眼于保障患者利益,也要注重医疗行业的长远健康发展和医务人员群体的权利保障。手术机器人应用场景下,医务人员在诊疗活动中的注意事项、注意能力等可能会因暂时“解放眼和手”而在一定程度和范围发生变化,该变化是否影响医疗过失的认定?这牵涉到手术机器人是否具有刑事主体地位、对过失认定采用何种路径等问题。对此,目前学界讨论较少。本文通过交叉学科研究和理论学说的梳理,在厘清手术机器人介入下医疗事故罪犯罪主体的基础上,围绕该情形下医疗事故罪中“严重不负责任”这一核心要件的认定困境及其完善对策展开探讨。

  有学者指出,在智能医疗技术环境下,医疗事故罪的责任主体可能涉及智能技术或智能机器人,导致责任归属变得模糊。因此,在手术机器人介入下适用医疗事故罪时,有必要先明确手术机器人是否具备刑事责任主体地位,即手术机器人能否成为医疗事故罪中“严重不负责任”的责任主体。而其中最关键的问题实为机器人的“奇点”界分,即手术机器人是否具有“自由意志”。

  雷·库兹韦尔首次将“奇点”(singularity)引入人工智能领域,根据他对“奇点”的阐释,除了具有人类水平的智力,“奇点”后的智能机器人还具有情商。有学者将其归纳为:奇点是指人类所创造的人工智能在某个时刻达到甚至超越人类自身智识水平的现象,此后的人工智能将超越单纯工具的范畴。该观点阐述了在“奇点”来临后人工智能的地位变化,但并未阐明该变化的本质,即人工智能超越工具主义的存在而成为自主体的条件是什么?在马克思主义的视野下,自然人和社会人共同构成“现实的人”,而“现实的人”之所以能够成为自主体,是因为自由意志作为高阶的功能“模块”存在,赋予了自主体在实践中能动的因果作用力。黑格尔主张,犯罪行为本质上是行为人自由意志的体现,若无自由意志,犯罪行为无从谈起,因而与刑罚相应的属性便不复存在。因此,欲完成向自主体地位的转变并取得犯罪主体地位,除了具备与人一样独立解决问题的操作能力,人工智能体还应当具备“自由意志”。虽然在论及人工智能的刑事主体地位时大多数学者也将“独立意识和意志”或者“自主意识”作为区分“强/弱人工智能”的标准进行讨论,但鲜有学者综合哲学、认知神经科学、计算机科学等学科视角对“自由意志”与“意识”深入阐述。故本部分从交叉学科的角度对“意识”和“自由意志”及二者关系进行梳理,并结合人工智能技术发展状况进一步分析机器人具备“意识”的可能性。

  目前,意识的定义在各学科如心理学、医学和脑科学中尚无统一共识。在心灵哲学领域,哲学家们探讨了意识的意向性问题、容易问题与困难问题、心-身问题和统一性问题等,并提出众多哲学理论。(详见表1)同时,科学家们基于大脑机制的研究提出了诸多意识科学理论。(详见表2)

  哲学家Chalmers将意识问题区分为“容易问题”和“困难问题”。“容易问题”指的是那些能够归结于物理过程,并通过脑科学的研究方法来探索的意识问题。这类问题通常涉及意识如何与脑的物理活动相联系,包括感知、思维、行为控制和信息处理等方面。困难问题则关注感受性(Qualia),即探讨大脑的物理活动是如何产生人类的内在且主观的体验或感觉,如感官体验和情绪体验等。尽管脑科学在研究意识方面已取得诸多成果,但它仍未能解答感受性问题,即大脑如何产生这些主观体验。周昌乐教授将意识归纳为三种基本类型:觉知意识(意向性),悟识意识(自明性)以及感受意识(主观性)。其中悟识意识包含自我意识,是指心智对自身过去意识行为的省察、审视和评判等的反思性意识活动,并根据其有无向对象分属容易问题和困难问题。

  20世纪末以来的神经科学研究表明人们的某些选择行为是神经运作的、未经意识参与决策的结果,形成了自由意志危机论。而后许多学者在此基础上对自由意志进行了解释,认为在被知觉到的原因和行为之间存在间隔,这个间隔就是自由意志。哈利·法兰克福的层序欲望理论提出,人类的意志结构具有其独特性,区别于动物。人类根据基本的喜好或欲求,形成做某事的“一阶欲望”,这种欲望也存在于动物中,能直接驱动行动。然而,人类除了“一阶欲望”,还形成了“二阶欲望”和“二阶意志”。所谓的“二阶欲望”是对“一阶欲望”的欲求进行反思和延伸,例如一个人可能本能地想要喝酒(一阶欲望),但经过反思后,可能产生戒酒的欲望(二阶欲望),这就构成了他的“二阶意志”的内容和动力来源。拉康认为“人的欲望就是他者的欲望”,人的欲望是获得他人之承认的欲望。这些理论实际上以人类本身同时具有觉知意识、感受意识、悟识意识(内省意识)为前提。欲望借由意识产生:通过觉知意识感知(非)本能需求、社会评价,通过感受意识体验情绪、进行“移情”,并通过悟识意识进行自我代入与分析。故而,欲望是产生自由意志的动力机制,理性是修正与达成欲望的手段,而意识的这种改写无意识心灵预置行为的能力,则是自由意志的基础。(详见图1)

  与意识的容易问题与困难问题相对应,Holland将机器意识分为弱机器意识和强机器意识。而弱机器意识的目标是根据人类意识机制建立起相关的模型,使机器具有感知、推理能力,能够语言交流、识别与表达情感等。强机器意识的目标是制造出具有与人一样的意识能力的机器,包括自我意识、主观体验、自由意志等。在机器意识研究中,感受意识由于具有主观性,涉及无意向性心理活动,且无法以意向对象为载体进行形式化表征和计算,因而最具挑战性。自我意识涵盖自我体验,涉及感受性问题,因此完全实现颇具难度。现阶段,机器意识的计算实现(详见表3)主要依赖于传统人工智能技术,如符号计算和人工神经网络。然而,这类基于预设编程的方法本质上难以实现机器意识。量子计算因其高计算能力和描述能力被认为有潜力突破现有限制,但成本高且无法完全解决意识问题,如意向性问题。此外,使用生物技术或脑机融合可能导致纯粹机器意识否定争议,并涉及伦理问题。

  根据手术机器人具有的人工智能层次,手术机器人的智能水平通常被划分为六个等级:在第0级,手术机器人并不具备智能特性;第1级手术机器人能够执行基础的辅助性操作;第2级时,机器人能够自动完成医生明确指定的手术任务;第3级,手术机器人可以在医生的规划指导下,自动执行手术步骤;第4级手术机器人,在人工监督下,能够实现全自动化手术操作并具备自主决策能力;第5级手术机器人则能够在没有人工干预的情况下,完全自主地进行手术。总体来看,目前关于手术机器人的分类,主要侧重于自动化程度的划分,而对于机器意识程度的探讨和细分则相对较少。本文依据机器的自动化程度和意识的发展程度将手术机器人分为非自主型(第0级、1级)、半自主型(第2级)、全自主无意识型(第3级)、全自主弱意识型(第4级)、全自主强意识型(第5级)手术机器人五类。当前,手术机器人系统的智能化程度还处于多数非自主型、少数半自主型的阶段,尚未研发出有意识的手术机器人,全自主无意识型手术机器人目前亦仍处于实验研究阶段。

  手术机器人能否具有“自由意志”,取决于机器意识的发展程度。当手术机器人具备“强机器意识”时,即意识程度发展到足以产生自我意识与感受意识时,则达到具备情绪智力和形成欲望的条件,从而有产生自由意志的可能。反之,则不具备真正意义上的“自由意志”(具体分析见后文)。换言之,只有当手术机器人达到前述分类中的“全自主强意识型(第5级)”才可能具有“真实心灵”和“自由意志”。

  辨认控制能力首先是犯罪主体的条件,也是刑事责任的承担主体的条件。其中辨认能力是指认识自己特定行为的内容、社会意义与结果的能力,也称认识能力,而控制能力是指支配自己实施或者不实施某种特定行为的能力。辨认能力是觉知意识、悟识意识与感受意识的综合体现,而控制能力则是自由意志的体现。在“自由意志”的奇点到来之前,手术机器人难以具有自主体地位,相应地,也不具有犯罪主体地位。

  应当明确的是,在当前较长的一段时期内,手术机器人尚处于非完全自主且无意识阶段。确切而言,目前手术机器人尚不能称作医疗人工智能,仅为医生辅助诊疗工具,属于医疗器材的范畴。对于非自主型、半自主型、全自主无意识型手术机器人,仅在操作技能(Operation/Motor Skills)上有所发展,而对认知技能(Cognition Skills)处于阙如状态,不具有意识和自由意志,仅能作为工具而无法成为犯罪主体。

  有医学专家预测机器人手术的未来是高度智能化,经由专门设计之程序,手术机器人能够主动识别疾病并自主拟定手术方案,经主要负责的医生审核后自动执行手术,在医疗认知与操作上均实现全自动化。也即前文所述的全自主弱意识型机器人:具备属于觉知意识范畴的感知、认知及表达能力,但尚未具备认知意识与感受意识。而该类机器人也属于学界对其主体地位争论最广泛的对象,本文对该类手术机器人的刑事主体地位持否认观点。

  其一,全自主弱意识型手术机器人成为犯罪主体缺乏妥当的哲理基础。科学实证主义和道德二元论是学界中人工智能成为犯罪主体的主要哲理基础,然二者均有落入结果主义陷阱、悖乎刑法的责任主义原则之嫌。责任主义的本质根据在于人的理性与自由意志,但若没有欲望,理性也就失去了价值,理性的主体必然同时也是欲望的主体。科学实证主义通过“法人类比说”认为刑法规制能减少人们对人工智能犯罪的恐惧,该观点忽略了法人的决策和担责实质上难离有自由意志的自然人这一事实;而目的道德论亦应当以行为主体具有自由意志为合理性前提。

  有些学者以智能机器人的“电子眼”“电子耳”具有超越人类的感知能力和预测能力,以及超强的数据采集、分析能力与反应速度为由,认为该类人工智能已经具备辨认与控制能力,并以AlphaGo基于深度学习技术超越研发者预测为由认为其具有独立意识。该类观点只关注到意识的“理性系统”,对“辨认和控制能力”与“独立意识”仅在觉知意识范畴作功能性的片面理解,而未注意到该类人工智能“前意识的体验系统”的缺失。申言之,在悟识意识与感受意识缺乏的情形下,该类人工智能难以形成自身欲望,其功能性意识始终为人类设定的目的服务,并不具有所谓的“自由意志”,“辨认能力”因悟识意识与感受意识的缺失而不完整,“控制能力”因“欲望”的阙如而无法体现自由支配性。该类人工智能仅能依照“实在论进路”遵循道德控制的规则导向体系,获得操作性的道德理性,其能力(自主性和伦理敏感性)仍然完全在工具设计者和用户的控制范围之内,难以借由“道德代理”获得犯罪资质。

  其二,全自主弱意识型手术机器人成为犯罪主体难以实现刑罚目的。从情感意识来看,其难以产生悔恨、痛苦、恐惧等感情,刑罚的威慑效果以及报复感情绥靖机能或者说报应机能难以发挥,被害人及其家属、社会一般的报复感情观得以和缓并满足,实则偏离刑法惩罚犯罪和保障人权的根本目的。有学者提出重构刑法体系,通过对智能机器人的编程进行调整来对其进行类人的定罪处罚,例如删除数据、修改编程、永久销毁。但是该方案实则难以实现刑法的,从悟识意识来看,其无法进行自我反思和作自由决定,刑罚的再社会化功能难以实现,即便修改程序也仅具有针对特定规范的特殊性,无法通过发挥其主观能动性主动避免再次犯罪,难以实现预防目的。

  其三,全自主弱意识型手术机器人并无成为保安措施主体的必要。该类人工智能似与完全丧失清醒意识意识的精神病患者有相似之处,都具有一定的行为能力,正常心智的人类与其相处时都可能基于“锚定效应”而认为对方亦有完备的意识,实则不然。现代刑法不谴责精神病人等不能辨认或控制自己行为的人,但有学者认为,未来刑法是以保安目的为主的预防刑法,对象可以纳入不具有自主意识的行为主体,包括没有辨认和控制能力的精神病人与没有完全自主意识的人工智能。本文认为,不具有自主意识的人工智能难以成为与精神病患者等同的保安处罚主体。首先,由于不具有自由意志,该类机器人与人类始终处于服从与命令的关系,在交往中难以实现平等尊重;而精神病人与一般人并不存在服从关系,仍具有主体尊严。其次,不具有感受意识的全自主弱机器意识型人工智能并不具有真正的“情商”,也难以通过“关系论进路”在与人类互动中形成道德伦理。从社会链接来看,该类机器人难以通过情感意识链接社会他人情感,而作为主体的人的本质是一切社会关系的总和,当机器人缺失社会属性,机器人被作何种处置并无其他社会主体在情感层面真实在意,完全可以交由技术管理规范或者前置法来进行调整,尚无动用具有最后手段性之刑罚的必要。

  全自主强机器意识型手术机器人具有完备的觉知意识、悟识意识与感受意识,具有情感、欲望、自由意志,能够与社会链接,理论上能够成为自主体。但其能否突破刑法的人类中心主义、成为刑事主体却是值得质疑的。

  首先,赋予全自主强机器意识型手术机器人刑事主体地位将产生二律背反现象:制造具有自由意志的机器人不符合人工智能“以人为本”的设计目的与法律定位需要,而不具有独立于人类的平等利益的机器人不具有法律评价的平等性前提,难以具备犯罪资质。换言之,当智能机器人具备自由意志而获得犯罪主体地位之时,也将突破人工智能的设计目的与法律定位,追求独立于人类的平等利益,从而对人类的中心主义产生冲击与威胁。

  其次,人类难以承受赋予该类机器人犯罪主体地位的后果:承认平等性、丧失支配地位。承认人工智能的主体性,将其与人类置于等同的法律地位,实质上意味着人类与人工智能应当各自独立、互不干涉。这从根本上要求人类放弃对人工智能的掌控权。从刑罚实施的正当性来看,对该类人工智能通过人类强制干预施加“修改程序”的刑罚措施,实质上是类似于“基因编辑”“化学”等侵犯主体尊严的措施,并不具有当然的正当性。此外,一旦人类失去对人工智能的控制,人工智能可能会毫无限制地进行自我优化、自我生产和自我复制。彼时,无论是体力还是智力,该类人工智能都将胜过人类,在失去绝对权威的情形下,基于资源掠夺的自然规律,人类必然会在资源逐渐受到挤兑的情形下走向式微。面对此类状况,即便人类采取应对措施,届时人工智能在刑法体系中的定位亦将失去其实际意义。

  应当认为,在“自由意志”的奇点之前,手术机器人不具有成为自主体的充分条件,不具备刑事主体地位;在具备强机器意识的奇点之后,赋予手术机器人与人类平等的犯罪主体地位将导致破除人类中心主义的伦理危机。在人类社会话语体系中,在刑法上手术机器人只能处于客体地位,是被利用、保护和管理的对象,若未来全自主强机器意识型机器人真的实现,或许可以考虑构建与刑法并行的、赋予该类机器人有限主体地位且受控于人类的制约管理规则。

  面对技术与医疗风险,简单地将手术机器人本身视为刑事责任承担者难以证立,需转而规制自然人主体的研发、生产和使用行为,重点是规制医务人员的使用行为。作为过失犯罪,医疗事故罪的核心要件之一是“严重不负责任”。关于该要件的认定,在司法实践与学理层面存在争议,而手术机器人的应用带来了新的问题:由于手术机器人医疗行为具有区别于传统医疗行为的数据化、自主性和风险复杂性等特征,医务人员无法完全依据既有经验和所掌握的知识达到传统人类医疗状态下的注意水平。无论在主观上的认知水平与结果预见能力,还是客观上的行为标准注意能力和结果避免能力,均受到一定程度的影响。

  根据民法典,判断医务人员过失实行行为应当以“当时的医疗水平”为客观参照标准。在适用医疗事故罪方面,注意义务的标准通常指临床诊疗规范中当时的医疗水平。日本学者松仓丰治对医疗水准进行了分类,将其划分为“学术上的医疗水准”和“实践上的医疗水准”。前者尚未在实践中广泛应用,因此不能作为判断注意义务的标准。然而,随着医学的不断发展,学术上的医疗水准有可能逐渐演变为实践上的医疗水准。换句话说,学术上的医学水准指的是“未来普遍化的目标下的重要基础研究水准”,而实践上的医疗水准则是指“当前实施目标下的一般普遍化医疗水准”。目前,大多数学者认为应当采用“实践上的医疗水准”。但是,在手术机器人技术尚未完全成熟和普及的阶段,当前其发展仅能影响学术上的医疗水准,而尚不足以改变实践中的医疗水准。尽管我国已经颁布了《人工智能辅助诊断技术管理规范》,但该规范内容较为宽泛概括,且规范对象不含具有人工智能的嵌入式临床诊断与治疗仪器设备,相关规范仍需进一步细化和完善。因此,在手术机器人介入下的医疗事故罪认定中,临床诊疗规范上“实践上的医疗水准”可能因手术机器人未“一般普遍化”、尚未纳入相关一般标准而失灵。

  一方面,医务人员在手术机器人介入下医务人员的部分注意义务减弱。在遵循相关法律法规、诊疗规范及医疗习惯的基础上,手术实施阶段中,主刀医生的注意义务主要涵盖准备义务、核查义务、操作义务、请示与告知义务等方面。在手术机器人介入的医疗场景中,医生的注意义务确实发生了变化,尤其在操作义务方面,医生的工作方式与传统方法存在较大区别。以达芬奇手术机器人为例,医生不再直接手持手术刀等传统器具,而是通过操纵控制杆来进行精确的操作。此外,交流方式也发生了变化,医生与助手、护士的沟通交流不再通过传统的直接对话方式,而是主要通过视频与音频等。此类注意义务的减弱可以适当解放医务人员的“肢体”劳动,赋予他们更多精力关注医疗方案等核心环节,因此,相应的医疗规范也具有调整的必要性。

  另一方面,在手术机器人介入下医务人员增加了对于机器人本身的注意义务。手术机器人应用场景中,医务人员注意义务的指涉对象不仅局限于患者、手术行为等通常范围,还包括了手术机器人本身,例如对于手术机器人的检查、监督义务等。由于手术机器人的非主体性,该注意义务难以通过信赖原则直接豁免。而当前手术机器人运行的核心技术基础是大数据与深度学习,其基于算法实施的医疗行为具有更高的不确定性和风险性。因此,普通医疗设备的临床诊疗规范对于手术机器人医疗水平的评估与注意程度的规范不具可参照性。此外,尽管手术机器人的学习原理与临床医生存在相似之处,但在诊断方法上前者采用的分析、归纳手段与后者采用的直观、演绎方式存在逻辑上的本质差异。因此,临床医生的诊疗标准对于手术机器人医疗水平的评估亦无参照价值,因而无法简单依据“实践上的医疗水准”认定医务人员在应用手术机器人医疗时是否具有过失实行行为。

  关于医生在主观上结果预见可能性的认定标准,医事刑法理论上存在两种观点:合理的医师标准和理性的医师标准。前者也被称为医疗常规标准,“以一般的医师在当时所知悉的医疗的‘一般水准’作为基准”;后者即“最佳判断标准”,指医生在作出关于特定病例的决策时,所依据的应当是一个理性且适格的医生所具备的最佳判断。当遵循医疗常规标准不足以规避医疗风险时,医生应当善用其最佳判断进行医疗决策。由于手术机器人具有高度的技术精密性和专业性,加之各地区发展水平、医生个人能力和经验的差异性影响,在手术机器人介入的医疗活动中医生对于医疗事故的结果预见能力差异增强,“一般水准”的形成难度增大、可参考性降低。

  一方面,手术机器人的算法“黑箱”影响医生的预见能力。在传统医疗事故中,由于手术过程可视化和可观察性,医用器材的缺陷或者医生的医疗行为与危害后果之间的因果关系往往较易发现和证明。然而,当前手术机器人的运行遵循程序和算法,可视环节仅限于指令输入和结果输出两端,而运行过程则属于难以知晓的“隐层”,亦即“黑箱”现象。医务人员在手术机器人的应用过程中伴随着医疗认知风险的“技术屏障”。而医务人员对于医疗人工智能设备的物理算法特性知识掌握并不深入,要求医务人员对设备故障概率及其后果具有超出专业能力范围的预见可能性并不现实。同时,医疗设备设施的安全标准严格,医务人员普遍认为其可靠性得到充分保障。因此,在手术机器人应用场景下,医生对诊疗结果的预见能力被客观削弱。另一方面,手术机器人普及程度影响医生的认知水平。我国疆域广袤,各地区经济发展不平衡,这从根本上决定了各地的医疗技术水平差异。在经济发展相对落后的地区,医疗器械较不先进,手术机器人的推广和使用受到制约。此外,这些地区的医疗人工智能技术和相关最新知识的普及程度也较低。由于医务人员缺乏足够的培训和实践机会,他们对于手术机器人运用场景下出现机器卡顿、失灵等情形如何采取最优方案介入监督和接管的水平可能受限。同时,在同一个地区的医生之间其医疗人工智能辅助诊疗经历和相应能力也千差万别,在面对手术机器人介入诊疗时,主刀医生对于手术机器人诊疗过失的结果预见能力由于经验差异而不尽相同。该情况下,医生在运用手术机器人辅助医疗时,“最佳判断标准”本身的认定或许就不具备客观参照。但是,鉴于手术机器人属于高尖技术,伴随着难以预料、不确定极强的科技风险,对使用手术机器人进行医疗的医生而言,科以较高的预见义务又具有其必要性和合理性。在此种冲突下,有必要进一步探讨手术机器人介入下主刀医生过失的认定标准。

  手术机器人介入情境下医疗事故罪认定的逻辑起点是责任主体的明确,在此基础上,应综合考量手术机器人应用场景下医务人员的结果预见能力与客观医疗水平差异,结合修正的旧过失论与新过失论的各自理论优势,在不同的技术与规范发展阶段,对“严重不负责任”的认定采用不同的过失犯理论路径,并完善配套措施。

  手术机器人运用场景中发生医疗事故造成患者严重伤亡的情形下,厘清刑事责任主体是医疗事故罪判定推演的起点。如前文所述,在“奇点”来临之前,手术机器人难以真正具备完备的意识与“自由意志”,无法成为医疗事故罪的责任主体。在手术机器人介入情境下的医疗事故罪认定,主体仍应落在人类社会生存状态下的相应的自然人。具体而言,司法实践中,我国刑法第三百三十五条对医疗事故罪所规定的犯罪主体——医务人员,专指那些直接参与诊疗和护理工作的医学专业人士。构成此罪的医务人员必须满足以下两个法定条件:取得相关执业资格证书;必须进行注册。从手术机器人操作失误导致医疗事故的场景而言,该“行医个体”应指对于机器人应用场景下该场治疗活动的主要负责医生,也即对手术机器人具有操控资格和监督义务的主刀医生。同时,在因其他医务人员的过失行为导致手术机器人操作未按既定程序进行时,该其他医务人员也能成为医疗事故罪的主体。

  倘若“奇点”能够到来,届时手术机器人具备强大的机器意识和独立自由意志,从而具有成为犯罪主体的可能性。我们不得不承认,具有完善意识、卓越认知和技术水平的全自主强机器意识型手术机器人,对医疗水平的提升具有显著优势。即便如此,笔者仍然坚持维护刑法的人类中心主义立场,认为人类对于该类手术机器人的管控权应当把握在前端——研发生产阶段。根据马斯洛的需要层次论,人类有生理需求、安全需求、爱和归属感、尊重和自我实现五类需求或欲望。拥有对世界较大自由掌控程度的情形下,人类文明在需要与理性的搏斗中诞生和延续。如若既想利用该类人工智能的强大功能,又想维护人类中心主义,或许只能考虑通过控制人工智能的核心需要来源,例如电源动力等,并通过技术规范、专门法规等赋予其有限的行动自由,遏制其形成群体优势,来实现不完全平等的共存局面。当然,这可能涉及奴隶社会历史演变相关的伦理争议,在此不作讨论。

  对于未来可能出现的全自主弱机器意识型、全自主强机器意识型手术机器人参与下的医疗事故责任分配,本文赞成风险自负论。鉴于此类人工智能在认知和操作水平方面均相当甚至优于普通医生,在患者知情同意的前提下,采用手术机器人所带来的风险与信任普通医生进行治疗的潜在风险并无实质性差异。若要避免因无法控制的风险而全面禁止智能代理,唯有依赖“社会”共同承担那些无法通过编程及负责任使用方式予以掌控的风险,即放弃对过失行为的刑事责任追究,将遭受损失的人群视为“非人类行为的受害者”。此举并非要求普遍性地免除智能代理背后人员的责任,而是在确保智能代理的一般社会效益符合法律法规的前提下,使公众能够接受其所带来的风险,从而避免刑法的干预。

  学理上,我国刑法学界对“严重不负责任”的定义从四要件犯罪构成体系的角度出发产生了三种主要类型的学说流派,即主观要件说、客观要件说和主客观综合要件说,这实质上是过失实行行为的否定论与肯定论之争,总体而言肯定论中的主客观综合要件说占据主流地位。而从阶层犯罪体系的角度出发,肯定论阵营还依据过失要素分属的不同阶层发展出了不同的过失犯理论:旧过失论、新过失论、修正的旧过失论以及超新过失论。其中,修正的旧过失论(基于结果无价值论)与新过失论(基于行为无价值论)在学术上形成了一定的抗衡态势。对于医疗事故罪判定中的核心问题“严重不负责任”之认定,本文赞成“主客观综合要件说”,持过失实行行为肯定论。但对于肯定论中的过失犯理论争议,在手术机器人介入情境下,应针对具体发展阶段作出相应倾向。

  当前手术机器人发展尚未足够成熟,在医务人员违反对于手术机器人的注意义务造成医疗事故时,对于过失犯认定可以暂时依据修正的旧过失论。

  修正的旧过失论与新过失论同属于二阶段考察模式:在构成要件阶段,考察行为是否偏离规范或者是否存在不被允许的危险;在责任阶段,考察行为人是否具备预见可能性。修正的旧过失论主张,过失行为本质上表现为一种能够引发不利结果的“实质不被允许的危险”。在采取了足以降低危险性的措施时,由于实质危险性较小,可以否定实行行为性。反之,在具有实质危险性的行为导致危险现实化并产生结果的情况下,满足过失犯的客观成立要件。

  从客观层面的认定标准上看,在手术机器人参与医疗活动仍未全面普及的阶段,临床诊疗规范尚未包括手术机器人的相关具体规定,“实践上的诊疗水准”不足以支撑医务人员客观注意义务的认定。由于对实行行为作“实质危险性”评价,修正的旧过失论不需要提前设定行为基准,在“客观行为基准”难以类型化明示的情形下,对过失实行行为采用旧过失论中的“实质性认定”具有较强的可行性与合理性。从主观层面的认定标准上看,相较于新过失论在第一考察阶段(结果避免义务的判定)以“一般人的预见可能性”为基准,修正的旧过失论采用的实质性认定并不强调必须以一般人为基准,有学者认为应当着眼于行为发生时行为人在规范上应答能力,全面考察可能影响该能力的所有事实。如前文所述,手术机器人介入下医务人员的结果预见可能性差异加强,导致“一般人的预见可能性”标准难以确立。而这一情形恰与修正的旧过失论相适配。

  手术机器人介入情形下医务人员的主观过失判定可采用合理医师标准和最佳判断标准结合之方式。人机协作环境下的医疗过失预见可能性认定标准主要受到医疗系统先进性的影响。对于遵循标准化程序并直接执行特定环节医疗操作的非自主型手术机器人,医务人员只要符合操作规程及传统合理医师标准,则应视为已充分履行注意义务。对于伴随高度风险的自主型手术机器人的应用,仅要求医务人员达到合理的医师标准是不够的。一方面,这可能会导致医务人员过于谨慎,不敢偏离常规,即使对患者和社会的健康福利有益。另一方面,该类手术机器人介入下的医疗活动具有技术不确定性带来的医疗风险,如果医务人员在此类手术机器人使用过程中未尽到最佳理性人标准,造成危害结果实则具有高度可预见性。因此,在此种情形下使用最佳理性人标准是合适的。要求医务人员在手术机器人的应用、检验、监督等环节中,根据具体案例善用最佳判断作出有利于患者的审慎医疗决策。在评估是否达到“最优决策标准”时,应充分考虑个案差异,综合考量当时当地的医疗条件、医院分级、医师分科以及医生执行业务之裁量性等因素。当然,患者同意该治疗方案往往是在别无他法或者两害相权之下出于对康复的期待而作出的选择,当临床共识等规范尚未形成,为了医学技术的发展,法律应当对医生的“最佳判断”决策风险采取适当包容的态度,在医生无其他过错时,手术风险由患者自负。

  为了克服“旧过失论”出现的结果责任倾向,新过失论依据“被允许的风险”与“信赖原则”理论,提出过失的判定不应依赖于心理过失的定义,而应依据是否遵循了外部结果预防措施的基准。新过失论并未忽略行为人在责任阶段的结果预见义务,而是在此基础上,进一步强调在不法阶段中行为人应履行一般人应尽的结果避免义务。对于违法性因素的客观行为评价,新过失论以事前设定行为标准的方式,呈现出更为明确具体的特征。相较之下,修正的过失论则依赖事后评价,其评判标准相对较为抽象和模糊。何种理论在医生实质性治病救人决策中更具优势仍存争议。在未来,随着医疗人工智能技术的发展成熟和普及,相应法律规章、诊疗规范、医疗习惯等逐渐完善,对于手术机器人介入下医生“严重不负责任”的认定采用新过失论具有显著优势。

  从心理学角度分析,评判标准的不确定性可能引发不同医生之间在模糊容忍度和认知灵活性方面的差异表现。在决策制定过程中,具有较高模糊容忍度和较强认知灵活性的医生,受客观标准模糊性的影响较小,甚至可能因此作出偏离常规但实质上对患者有利的医疗决策。反之,模糊容忍度较低或认知灵活性较差的医生在面对不确定的客观行为标准时,可能承受更大的压力而趋于保守,甚至避免使用手术机器人。因此,对于修正的旧过失论中的客观实质性认定标准,个人能力不同的医生可能发展出不同的结果预见和避免能力。然而,法治从来就不追求最优、最善的制度,而是超越个人立场的最不差、恶性最小的制度。因此,设定明确的规则,即新过失论中的“基准行为”,在整体上而言更有利于控制风险。

  从“宽严相济”的基本刑事政策分析,对于犯罪的处理应当依据具体情形做到“有宽有严、宽严适度”。医疗事故罪属于我国刑法体系中的轻罪范畴,其所涉及的行为往往呈现出相对较低的主观恶意和社会危害性。因此,在司法认定时,我们需特别强调“宽严相济”刑事政策中的“从宽”取向,以体现法律的公正与人性关怀。然而,尽管医疗事故罪在刑事司法实践中不常出现,但其刑事制裁的边界仍与积极刑罚的整体趋势保持一致。在风险社会背景下,手术机器人等医疗人工智能的应用导致医疗风险剧增。在医务人员承担高度职业风险的情况下,医疗事故罪犯罪圈的扩大无疑加剧了医疗行业的“寒蝉效应”,并间接导致防御性医疗的泛滥,这不仅不利于患者利益保障,更可能加剧医患信任危机。新过失论强调,为防止社会陷入停滞,有必要允许一定范围内的危险行为。这些危险行为,尽管存在侵害法益的可能性,但鉴于其对社会有益且不可或缺,在特定范围内,仍需承认其合法性。因此,在手术机器人技术成熟且相关行为规则完善阶段,适用“新过失论”、通过基准行为的设立能够提前明确结果回避义务,有助于提高医疗事故罪入罪门槛,有效限缩医疗过失犯罪的扩张,在保护患者人身权益的同时,防止医务人员和科研人员对于医疗人工智能的使用与研发畏缩不前。

  在手术机器人技术逐渐成熟的“过渡阶段”,有必要及时制定相应的规定和措施,以促进“实践医疗水平”的完善,并为其提供合法性指引。

  首先,建立手术机器人高安全标准的准入机制,严格把控手术机器人研发、生产和投入使用时的可控性、有益性标准。全自主弱机器意识及以下类型的手术机器人作为高风险人工智能产品,应划入欧盟人工智能法案的高风险类别,该法案将其归为“基本的私人和公共服务”范畴。针对此类高风险人工智能,法案规定了raybet最佳电子竞技平台从市场准入前至市场准入后的全流程风险管理措施,这无疑具有借鉴意义。关于全自主强机器意识型手术机器人,其技术可行性本身存有争议。人工智能过于强大的担忧在短期内乃至数百年内皆为误解。此类担忧源于对问题的局部视角,相较于构建具有自我意志的智能机器人的庞大工程和复杂程度,人工智能各领域近期的突破实属九牛一毛。因此,对于具有自由意志的手术机器人的开发,目前实际上并无法律强制干预的必要。进一步而言,正如前文所述,倘若“奇点”真的到来,可以在研发制造前端采用电源控制等维护人类中心主义的技术措施。

  其次,针对各类手术机器人辅助医疗活动场景,制定医务人员分级注意制度。手术机器人的应用并不改变医疗领域的高度专业性和医师行为的亲身性特征,因此,应分级完善医务人员的注意义务。对于非自主型手术机器人,医生具有完全的操作可控性,与使用传统手术器具具有本质上并无差异,因此注意义务并未降低。仅在操作义务方面存在轻微的差异,即医生不再需要亲自使用手术刀等传统器具。对于半自主型、全自主无意识型和全自主弱机器意识型手术机器人,医生虽未亲自参与操作,但具有随时接管的可能性,可能减弱的只有操作义务:半自主型手术机器人能独立完成大部分的手术操作,医生的操作任务大幅降低,而在全自主无意识型和全自主弱机器意识型手术机器人应用场景下,医生则无需进行任何手术操作工作,因此无需负担手术操作义务。然而,医务人员的准备义务、核查义务、请示与告知义务注意程度不仅没有降低,还因为人工智能的高度技术性在程度和内容上进一步负担注意义务。例如参与手术机器人介入医疗活动的医务人员负有接受手术前培训了解操作规范的准备义务;同时对于手术机器人设备及其操作负有更为仔细地核查与认真监督的义务;对患者具有更全面细致的告知沟通义务等。具体而言,医务人员在医疗实践中,应确保对机器人的持续控制,并对医疗活动进行实质性审查与监督。面对系统故障或错误,事前谨慎预防、事后及时补救,作好随时接管的准备。在面临疑难病症或手术机器人提出的可疑医疗方案时,务必亲自进行比对查验并组织会诊。在手术过程中,需全程监控并及时遏制潜在风险和纠正异常操作。对于半自主型和全自主无意识型手术机器人还负有规划义务,即对手术机器人的具体操作方式或者运行轨迹进行规划。对于患者或其家属应在术前充分告知手术机器人的医疗水平、运作风险和替代方案等,并取得明确同意。

  最后,加快医疗人工智能领域技术规范以及前置性法律法规的修订与完善,为手术机器人介入情境下医务人员医疗事故罪中“严重不负责任”的认定提供“实践上的医疗水准”参照依据。同时,在具有手术机器人应用客观条件的地区加强对于医务人员的人工智能技术讲解和行为规范培训,逐渐在医疗行业形成新的医疗惯例和准则。此外,当法律规范滞后,可以归纳该类医疗事故纠纷的过失实行行为类型、危害结果、因果关联性等,结合类案裁判解释和社会实际发展情况,对该类医疗事故责任认定标准作司法解释,指导司法的同时为医疗行业指引合法性方向。

  手术机器人能否成为犯罪主体的实质“奇点”界分依据是能否通过完备的觉知意识、悟识意识、感受意识产生欲望、形成自由意志。“奇点”前现有的无意识型手术机器人仍属于医疗活动中医务人员的辅助工具,而全自主弱机器意识型虽具有主体外观,但无实质主体资质,应当将其视为客体而否定其刑事责任主体地位;构想中“奇点”后的全自主强机器意识型手术机器人虽具有“自由意志”,但为了维护人类中心主义,赋予其与人类平等的犯罪主体地位难具妥当性,应在研发制造前端通过技术规范、使用后端通过前置性法律法规进行管控。

  医疗事故罪的认定在理论和实践上本就存有争议,而在应用手术机器人的过程中,医务人员的客观行为基准不确定性与结果预见能力差异性增强。在厘清医疗事故罪的犯罪主体的基础上,对于手术机器人介入情境下医疗事故罪“严重不负责任”的判定应当循序渐进、分阶段采用不同的过失犯理论和制度。具体而言,在手术机器人尚未成熟与普及、相应医疗规范尚未跟进的“过渡期”,可以采用主张对过失实行行为“实质性认定”的“修正的旧过失论”,其结果预见能力判定应采取“合理医师标准”和“最佳判断标准”结合之方式;而在未来仍应加快制定相应配套制度,建立不同类别手术机器人辅助医疗活动场景下医务人员的分级注意制度;跟进医疗法律法规规章等规范文件的修订,并形成新的医疗习惯,构建手术机器人应用生态下的“实践医疗水准”客观参照体系。在此基础上,形成手术机器人介入医疗活动中医务人员的“行为基准”,认定“严重不负责任”时采用以结果避免义务为核心的“新过失论”,对该要件作限缩解释,以此保护患者人身权益的同时,并兼顾医务人员的职业信心和医疗科技的创新发展。

  原标题:《许燕佳|手术机器人介入下医疗事故罪的认定——以“严重不负责任”的认定为核心》

  本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。


本文由:雷竞技raybet医疗器械医院诊断设备公司提供