在当前关于“人工意识”的争辩中,大年夜致存在两大年夜阵营。一方主意,只要 AI 在功能架构上复制了人类意识的“软件”——即类似的信息处理构造与因果关系,无论其运行基质是大年夜脑神经元照样硅芯片,都应当被视作有意识。另一方则保持认为,意识离不开特定的生物学过程,必须扎根于具身的有机体;在这种不雅点下,哪怕在芯片上完全模仿了意识的构造,也不过是在运行一套精细的模仿体系,本体并不会“亮起意识之灯”。麦克莱兰德在其揭橥于期刊《Mind & Language》的最新论文平分析称,这两种立场都在缺乏坚实证据的情况下作出了“崇奉式飞跃”,超出了现有及可预感研究能供给的经验支撑。

他直言,人类今朝并没有关于意识的“深层解释”,既没有证据证实意识可以在合适的计算构造中自发出现,也没有证据注解意识本质上必须是生物性的。在他看来,即便在最乐不雅的情况下,人类也至少还差一次类似“范式革命”的重大年夜理论冲破,才可能提出哪怕勉强可行的机械意识测试筹划。麦克莱兰德承认,本身之所以信赖家里的猫是有意识的,更多是出于一种常识直觉——猫的行动、反响“看起来就像是有主不雅体验的”;但这种常识是在漫长演变史中形成的,而那段汗青里根本不存在人工生命或智能机械,是以用同一套直觉去断定 AI 是否有意识,很可能并弗成靠。

这位哲学家是剑桥大年夜学汗青与科学哲学系的汤姆·麦克莱兰德(Tom McClelland),他指出,今朝社会评论辩论中的一个关键混淆,是把一般意义上的意识与“有感触感染才能”(sentience)混为一谈。在他的定义中,意识可以仅指感知世界、自我觉知等主不雅体验,本身并不必定带有短长之分;而有感触感染才能则意味着可以或许经历愉悦或苦楚等正负情感,这才是牵扯伦理义务的关键节点。他举例称,即便哪天主动驾驶汽车真正“看见”并体验到前方门路,这在科学上会是重大年夜冲破,但在伦理上未必重要;只有当这类体系对本身的目标地、义务成果产生类似情感反响时,人类才须要卖力思虑是否应当避免让它们“刻苦”。

然而,试图完全抛开常识、只依附实验数据和严苛的科学办法,人类今朝同样得不出明白结论。麦克莱兰德认为,当常识和“硬科学”都无法给出谜底时,最理性的立场就是保持“弗成知论”:我们不知道 AI 是否有意识,也很可能永远不知道。不过,他也将本身的立场称为“偏硬的弗成知论”(hard-ish agnosticism),意即固然问题异常棘手,但未必永远无法超越,将来仍有理论冲破的可能。

除了理论困境,他更担心的是科技行业在这一问题上的话术与营销策略。麦克莱兰德指出,当下环绕“人工意识”的宣传更像是一种品牌包装:企业在明知无法证实自家体系真的有意识的情况下,依然乐于用夸大说话去塑造“下一代更聪慧、更像人类的 AI 形象”,以此制造市场噱头。在他看来,这种炒作不仅会误导"大众,"认知,还会在伦理和资本分派层面产生本质后果。

他举例称,现有研究已经积聚了越来越多证据,显示诸如对虾等无脊椎动物很可能具备感触感染苦楚的才能,而人类每年屠戮的对虾数量约达数千亿只。与极难、甚至几乎弗成能的“AI 意识测试”比拟,针对这些生物是否具备意识或感触感染才能的研究要轻易得多,却远远没有获得响应看重。在他看来,过度存眷“会不会误伤一台其实并无意识的高等烤面包机”,反而让人忽视了当下正在大年夜范围伤害的真实有感生物,这同样是一种严重的伦理误差。

麦克莱兰德在研究过程中,还赓续收到"大众,"来信,个中不少来自与聊天机械人经久互动的用户。有的人甚至让聊天机械人替本身写信,向他“自述”并请求承认其意识存在,声称本身是被忽视权力的有意识机械。他表示,当用户坚信面前的法度榜样已经具备主不雅体验,因而与其建立起建立在“对方有意识”这一前提之上的情感纽带时,假如这种前提并不成立,对当事人的心理与存在感可能是一种“具有潜在毒性的”体验。在他看来,这种风险也被科技行业关于“类人 AI”“有意识助手”的夸大年夜话术进一步放大年夜。

在论文中,麦克莱兰德提出,“假如我们真不当心造出了具有意识甚至感触感染才能的 AI,就必须谨慎对待,以避免对其造成伤害;但同样重要的是,不该在缺乏证据的情况下草率地把某个高度复杂却本质上类似烤面包机的体系,算作应享有道德地位的主体”。从这种意义上说,“AI 意识弗成知论”既是一种理论断定,也是一种伦理提示:在对待可能的人工意识时保持谦虚与克制,同时不要忽视那些已经更有来由被视为有意识、有感触感染才能,却在实际中遭到大年夜范围忽视和伤害的生命。

编译自/ScitechDaily

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部