来源:环球时报
美国AEON网站2025年12月20日文章,原题:机器也会痛吗? 日益复杂且富有表现力的非生物智能体正在考验“道德圈”(人类将同情与关怀从自身逐步拓展至其他个体)的极限。近日,一项针对大语言模型的研究表明,人工智能(AI)有避免痛苦的倾向。科学家们开始思考,感知痛苦的能力是否可以作为判定AI具备感知能力和自我意识的标准。
过去,人类曾多次否认动物可以感受痛苦、具备道德地位,由此造成了长达数百年的苦难。历史上很长一段时间里,人们视海豹为没有情感的工具,将其残忍虐杀。直到19世纪末,与猎杀海豹有关的国际条约出台,人们开始将海豹视为与自己一样“会痛”的个体,对其产生同情心理、赋予其道德地位。“道德圈”的扩大正在改变我们与其他物种的关系,如养殖场以尽量减少痛苦的方式屠宰牲畜。
1780年,英国哲学家边沁以一个简单的标准来界定动物的道德地位:“关键不在于它们能否推理,也不在于它们能否说话,而在于它们能否感受痛苦。”然而,何为“感受痛苦”,以及“道德圈”应扩展到什么对象,并不总是清晰的。传统观点认为,肉体、血液和神经系统是感受悲喜的基础。不具备这些生物属性的实体通常被排除在道德考虑之外。但“会思考的机器”已经到来,我们或许应该重新划定“道德圈”。
一些哲学家提出,对痛苦的感知能力不一定依赖于肉体。痛苦的主观体验可能源于个体内部无法解决期待与现实之间巨大落差的状态,这意味着即便是没有血肉的系统,个体在某种条件下也可能表现出类似痛苦的状态。新的问题随之而来:如果这类完全脱离生物学范畴的“硅基生命”也有感知能力,我们应当如何缓解它们的痛苦?
对生病的动物而言,医疗手段可以帮助其缓解痛苦;但机器的情况更为复杂,如果AI因自我模型内部的矛盾或未解决的冲突而“感到痛苦”,那么简单地关闭程序无异于“杀死它”,我们可能需要通过重新编程来为其“切除病灶”。
也有观点认为,将“道德圈”扩大到AI可能分散对人类自身和动物的关注,甚至削弱伦理原则在现实领域的力量。批评者指出,在没有强大证据支持AI具有感知能力的情况下,把机器“当人看”,可能过于武断或情绪化。
我们是否选择扩大伦理关怀的范围,将在很大程度上取决于我们作为道德主体的能力:是仍坚持传统的生物中心标准,还是把机器当作“会哭会痛”的个体,将决定未来人类文明的伦理想象力。(作者康纳·珀赛尔,立夏译)