切换到宽版
  • 164阅读
  • 1回复

[智能应用]“人工智能是否应具有法律主体地位”的伦理审思 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106009
金币
41
道行
19523
原创
29307
奖券
17205
斑龄
189
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 19936(小时)
注册时间: 2007-11-29
最后登录: 2024-11-10
 随着大语言模型的应用普及,生成式人工智能表现出越来越强的自主性,不仅让人们看到强人工智能的可能性,而且再次激发人们对这一人类创造物的主体地位的探讨。近期,光明日报理论版刊发多篇文章,对人工智能是否应该成为法律主体进行探讨,较为全面展现出学界主要观点。其中,《人工智能成为法律主体不存在理论障碍》与《有限法律主体:人工智能法律地位的合理选择》两篇文章,从哲学与伦理学角度进行论证,提出人工智能成为法律主体与哲学领域对人主体性要素的认识不矛盾、不会贬低人的主体地位、不会损害以人为中心的主体制度等观点。对此,笔者认为:这些论证并未把握主体何以是主体、人格何以为人格的本体论要旨。即使从最底线的人文主义而论,作为万物灵长的人类也有着不同于万物的人格尊严与主体地位。赋予人工智能主体地位,不仅有损人类的人格尊严和主体地位,而且并不利于现实的责任归因与承担。

人的在场是构成“主体”的根本条件,而人工智能只能作为客体

  讨论人工智能是否应具有法律主体地位的前提要件,是人工智能能否构成主体或者说人工智能是否具有主体性。主体是个具有特定指称的哲学概念,倘若人工智能无法从哲学上证成主体,那么也难以从法律关系上赋予其主体资格。

  然而,即使是具有较强自主性和独立性、表现出一定情感意识的生成式人工智能,离具备主体地位也相差甚远。虽说在不同哲学家那里,主体及主体性具有不同内涵界定:亚里士多德将主体视为承受者,笛卡尔将主体视为具有自我意识的思考者,康德将主体界定为理性存在者——但都不外乎与单数或复数的人相关。马克思更是直接指出:主体是人,客体是自然,“人始终是主体”。可见,只有人,并且是有目的、有意识地认识或者改造世界的人,才构成主体。由人而来的主体,既可以是个体,也可以是群体、组织机构,乃至整个社会,但必须有具体的、实践的人的存在与在场。

  人作为主体最本质的规定性是主体性,主体性最重要的内容是人的创造性与实践性,即主观能动性或者说自我意识。这是人之为人、人为主体最根本的特征。到目前为止,人工智能包括生成式人工智能虽然表现出日益强大的学习能力和一定的自主行为能力,但其所解决的问题仍只是封闭场景下的计算求解问题,无法对外界环境自行设定目标或计划,进行自主能动的反馈,远远没有“进化”出自我意识或者说能动性,因此人工智能并不具备人所特有的那种主体性,也就无法构成主体。

  更进一步,人工智能也不能构成法律主体或有限法律主体。《有限法律主体:人工智能法律地位的合理选择》提出,民事主体从“人可非人”到“非人可人”的历史演变,反映民事主体去脸庞化与去伦理化的特征。但任何拟制主体的根基都可以追溯到人的存在或在场。这非但没有与唯有人作为主体的理论相违背,反而强化唯有人才可作为主体的理念。一方面,公司、社团等法人的建构,可以视为复数人的集合,法人作为法律主体的核心要素仍是享有权利义务并承担一定责任的人;另一方面,非人组织构成法律主体的哲学根基,并非主张一种强的人类中心主义,而只是在强调最底线的人文主义,即有人的存在或在场。对完全自动化、脱离或独立于人而存在的人工智能赋予法律主体地位,在根本上背离了这一哲学宗旨。

人工智能本质上是服务人类的工具,“人格”概念从根本上拒斥工具价值

  相比于主体论层面的论证或反驳,围绕人工智能是否具有法律主体地位的争论更多集中在人格论层面。持肯定说的学者主要通过提出法律人格扩展论、电子人格论、工具类人格论、有限人格论等观点,为人工智能建构新的人格类型,以此证成人工智能的法律主体地位。但是,与“主体”一样,“人格”也是具有特殊内涵和价值的概念。人工智能并不享有人格尊严,赋予人工智能相应人格,反而有可能威胁人类人格尊严的保护与实现。

  人格及其尊严的概念是启蒙运动以来高扬人性、追求文明进步的现代产物,其从先验、抽象和普遍的角度标示出人之为人不同于动物或其他事物的独特之处。正如康德所言,有些存在者,它们的存在虽然不基于我们的意志而是基于自然,但如果它们是无理性的存在者,它们就只具有作为手段的相对价值,因此叫做事物,与此相反,理性存在者就被称之为人格;人以及一般而言每一个理性存在者,都作为目的而实存,其存在自身就具有一种绝对的价值。人格及其尊严的概念,彰显出人类作为目的本身而非其他目的的手段或工具而存在的内在价值与绝对价值,因而不仅成为人类社会最重要的价值源泉,而且构成人权的重要基础,成为《联合国宪章》及世界各国宪法的立法基础。

  然而,作为人类创造物的人工智能不仅不享有作为目的本身和内在价值而存在的人格性,而且由于错误或不当的使用开始出现威胁或损害人类人格尊严的现象。一方面,人工智能本质是人类发明创造出来用以拓展人类自由、提高人类能力与效率的复杂工具,它从诞生到运行再到消亡的全生命周期都是服务于人的,因而自始至终都只具有工具性的相对价值,而不可能具备像人类这般的绝对价值,也就不享有人格尊严,即使以后出现拥有自我意识的强人工智能,仍不能摒弃工具价值的定位;另一方面,人工智能的无节制发展,通过对人的身体、身份和行为数据进行大规模的采集和运算,导致侵犯隐私、控制精神、诱导消费、造假欺骗等道德失范问题,已经在一定程度上威胁到人的主体地位及人格尊严。

  由于“人格”从根本上拒斥工具价值,因此如《有限法律主体:人工智能法律地位的合理选择》一文提出有限的工具性人格主张,将人格与工具、有限等词汇捆绑起来的构词法既不严谨也无益处,只不过是后人类主义通过类比、隐喻等文学机制进行的过度想象,它本质上只是赋予人工智能经济性的财产权利,与真正的人格权相差甚远。人格尊严彰显了人之为人的独特性,对人工智能赋予人格尊严,将非人实体或存在转化为与人类同等重要的存在,既不利于人权 保护也无助于人工智能向善发展,最终结果是不断消解人之为人的独特性以及在此基础上形成的人格尊严。

成为法律主体无助于解决人工智能的归责困境,反而制造更复杂局面

  赋予人工智能主体地位的另一种具有较强辩护性的理由来自现实发展需要说,即由于人工智能的大规模应用和自主性、智能化程度的日益提高,导致了现有法律框架在实施过程中出现找不到法律主体、无法责任归因或无法追究责任等现实困境。例如在合同法领域,智能机器人代替人签订合同已经司空见惯,但是依托智能程序订立的买卖合同究竟表达了谁的“意思自治”,法律机制尚不明确。再如在侵权责任法领域,如果自动驾驶汽车在行驶过程中发生事故,造成伤害或侵权行为,如何进行责任归因成为棘手难题,究竟是由智能程序设计者、汽车制造者还是使用者抑或受害者承担责任,现行法律制度已难以作出有效判定。还比如,生成式人工智能将会导致显著的知识产权问题,但是赋予机器人知识产权,从根本上违背了保护创新的立法初衷。

  因此有学者从实践需要的角度提出,赋予人工智能主体地位或法律人格迫在眉睫,明确并建立人工智能的责任分担机制。《人工智能成为法律主体不存在理论障碍》提出,“可以参照公司法人的资本制度,通过出厂设定强制责任保险的方式保障人工智能的责任财产”,《有限法律主体:人工智能法律地位的合理选择》一文也提出“统一为人工智能开设相应信托账户、购买保险等方式”,使人工智能以特殊的权利义务承担者身份参与到民事法律关系中,解决实践需要的责任归因与归责困境。但是这些财产权利的设计无须上升到赋予人工智能主体地位或人格权的高度,只需要适当补充调整与人工智能有关的自然人或法人的财产制度。

  赋予人工智能法律主体地位不仅无助于走出人工智能产生的归责困境,反而会由于引入新的不必要的“法律主体”造成更为复杂的归责局面。的确,人工智能技术早已不是农业时代的工具或工业时代的机器那么简单,而是叠床架屋为如美国学者芒福德所说的“巨机器”或海德格尔所说的“座架”那样与人深度耦合的复杂系统,人们以不同身份在不同环节以不同机制发挥作用并促成人工智能技术功能的实现,形成多个责任主体与复杂交互行为的“分布式责任”局面。不过,分布式责任只是拉长了行为之间的因果链条,加大归责的难度,并不会导致责任的消失或转移。作为人工智能的创造者或使用者,人们有责任将复杂系统各个环节各种机制的责任分布梳理清楚,并且进行明确的责任归因。即使由于“算法黑箱”导致的不透明或者生成式人工智能以意想不到的方式作出的带有一定自主性的行为,仍然可以采取共同责任或严格责任的方式予以归责。无论如何,人工智能都是人们为了某一目的创造出来的,因此必须为其创造或使用的整体行为承担责任,而不是将责任转移到没有主体地位和人格资质的非人存在。否则,让人工智能代替人类承担部分或完全责任,难免产生相互推诿、李代桃僵等更为复杂的局面,甚至因无人担责而导致责任的消失。

  严格来说,人工智能的各种自主或智能行为,仍只是依据人类以往经验或者数据作出的概率论选择,本身是人类意志与价值的延伸与投射,因此我们必须将责任明确归结到创造或使用这一人工物的具体的单数或复数的人,让更多人为这些难以控制的复杂集体行为承担责任,以更加谨慎合理地运用人工智能。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
99797
金币
1064578
道行
1950
原创
2145
奖券
2040
斑龄
27
道券
536
获奖
0
座驾
设备
摄影级
在线时间: 23721(小时)
注册时间: 2008-10-01
最后登录: 2024-11-10
只看该作者 沙发  发表于: 09-09
  关于人工智能是否应该成为法律主体的讨论,是一个复杂且多维的问题,它涉及到哲学、伦理学、法学以及技术等多个领域。以下是对这一议题的一些思考:

  1. 哲学和伦理学视角:人工智能是否具备主体性是一个哲学问题。传统上,主体性与自我意识、自主性、目的性等概念紧密相关,而这些通常是人类所特有的。人工智能虽然能够模拟某些人类智能行为,但它们是否具备真正的自我意识和自主性,目前还没有定论。

  2. 法律主体性:法律主体通常指的是能够享有权利和承担义务的个体或集体。在现有的法律体系中,法律主体通常是自然人或法人。将人工智能视为法律主体,意味着它们需要能够承担法律责任,这在实际操作中可能会遇到很多挑战。

  3. 责任归属:在人工智能参与的活动出现法律问题时,如何确定责任是一个关键问题。如果人工智能被赋予法律主体地位,那么它们可能需要直接承担责任,这可能会引发关于责任界定和追究的复杂讨论。

  4. 人格尊严与主体地位:人格尊严是人的基本权利之一,它体现了人的内在价值和尊严。将人工智能视为具有人格尊严的主体,可能会引发关于人与机器之间关系的深刻反思。

  5. 技术发展与法律适应:随着技术的发展,可能会出现新的法律问题,需要法律体系进行适应和调整。这可能包括对现有法律的修订,或者制定新的法律来规范人工智能的行为。

  6. 社会影响:赋予人工智能法律主体地位可能会对社会产生深远影响,包括对人类工作、隐私、安全等方面的影响。这需要社会各方面的广泛讨论和审慎考虑。

  7. 国际视角:不同国家和地区对于人工智能的法律地位可能有不同的看法和规定。在全球化背景下,国际间的法律协调和合作也变得尤为重要。

  总的来说,人工智能是否应该成为法律主体,是一个需要综合考虑多方面因素的问题。这不仅涉及到技术的发展,还涉及到法律、伦理、社会等多个层面的深入探讨。在这一过程中,确保人类的利益和价值得到尊重和保护是至关重要的。

如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个