算法偏见‌ 问题|张霄:算法只是工具,不能把责任都推卸给算法

默认分类21小时前发布 admin
2,992 0
ChatGPT国内版

文章图片

资料图 。 图片来源:

新京报讯(采访人员 郑伟彬)智能技术正在极大地提高社会生产力水平 , 并催生人类从认知到行为上的许多变革 。 以算法为核心的智能技术在推动人类社会的进步上发挥了重要作用;不过也同时暴露出一些问题、矛盾和伦理困境 。

为此 , 6月18日 , 清华大学新闻与传播学院智媒研究中心、新京智库联合举办了“算法善用 智能人文:智能信息的多学科融汇”的线上高端论坛 , 与会专家就算法等技术对价值创造、裨益人类、社会发展的积极意义展开讨论 。

会上 , 中国人民大学哲学院副院长、中国人民大学伦理学与道德建设研究中心副主任张霄表示 , 我们对算法的使用应该是有限度的 , 因为由算法搭建的人工智能其实是有限智能 , 不是人类智能 。 同时 , 算法只是工具 , 不能把责任全部推卸给算法 。

智能的三种模式

张霄首先介绍了目前三种人工智能模式 。 一是深度学习模式 。 这是目前流行的人工智能工作模式 , 也是比较成熟的一种模式 。 它的两端是输入层和输出层 , 中间则是隐藏层 。 信息被输入层获取后 , 通过几道隐藏层的甄别 , 最终在输出层得出结论 。 由于隐藏层在数据加工过程中不出现值 , 所以 , 其工作流程无从得知 。 正因为如此 , 这个中间处理过程也被视为“黑箱” 。

张霄表示 , 这样的工作模式并非人类的思维(智能)方式 。 在通过感性经验形成知性进而达于概念的过程中 , 人的自我意识不但自觉这个过程 , 同时也能意识到这个自觉过程就是自我意识的活动本身 。 但在深度学习模型中 , 所谓的智能其实根本没有自觉意识 。

二是类脑模式 。 张霄介绍 , 现在有很多科学家试图将人类大脑上百亿个神经元再造出来 , 通过复制大脑生物结构还原人类的智能活动 。 张霄认为 , 这种模式不仅耗资巨大 , 且自身也存在问题 。 他认为 , 即使我们能重建人类的生物脑结构 , 也不意味着我们就能由此找到人类智能的工作机理 。 人类的精神活动方式不可能简单还原成物理、化学形式 。 人类的思维活动自有其奥秘所在 。

算法偏见‌ 问题|张霄:算法只是工具,不能把责任都推卸给算法

三是黑格尔模式 。 张霄认为 , 黑格尔对人类精神现象的深入研究是对人类思维活动的内在探索 。 张霄引用黑格尔在《逻辑学》中的一段话表明 , 人类的意识有其特殊的活动方式 。 思维会在自己的活动过程中把自己当做对象、中介和环节 。 在经历不同的对象、中介和环节后 , 思维会得到锻炼和升级 , 进而形成更高阶的存在形式 。 这就是黑格尔所说的哲学的圆圈 。 黑格尔的逻辑学就是他对人类思维活动的理解 。

张霄指出 , 黑格尔对人类精神现象的理解 , 不同于物理学家、生物学家和计算机科学家 。 关键就在于 , 他是从思维活动本身去探究思维的工作原理 。 而这里所说的思维 , 就是我们今天讲的智能 。 黑格尔对人类智能的理解未必都对 。 但他坚持从人类精神活动本身出发探索思维的方式或是可以借鉴的 。

谈论算法伦理不能脱离应用场景

因此 , 在张霄看来 , 由算法搭建的所谓人工智能 , 实际上跟人的智能关系不大 。 因为它并没有把握人类思维的本质 。

张霄认为 , 算法在原初意义上是一个数学结构 , 是一个有限的、抽象的、有效的、复合的控制结构 。 它能够在给定的条件下实现给定的目的 。

文章图片

资料图 。 图片来源:

同时 , 算法又必然和计算机科学联系在一起 。 因为抽象的数学结构只有接受借助信息化手段才能真正实现 。

【问题|张霄:算法只是工具,不能把责任都推卸给算法】张霄强调 , 当我们在谈论算法的时候 , 特别是在谈论算法伦理时 , 不能脱离算法应用去谈论算法伦理问题 。 而这也就意味着算法涉及到的伦理问题 , 必然是在算法运行的三个环节中出现:(1)数据转换成结论的环节;(2)结论转化成行动的环节;(3)行动过程中的问责环节 。

算法偏见‌ 问题|张霄:算法只是工具,不能把责任都推卸给算法

在这三个环节中 , 张霄表示 , 算法伦理问题将涉及到已有文献提及的6个道德关注点 。 一是不确定性证据 。 也就是在数据计算过程中的统计学方法只能提供相关关系 , 不能表达因果关系 。

二是不可解读的证据 。 在从数据到结论的过程中 , 需要有对数据的解读工具 。 对数据使用知识的缺乏会造成我们实际上无法解读数据 。 无法解读意味着不真实 , 而不真实的数据自然意味着不正确的结论 。

三是误导性证据 。 人类在设计算法时 , 要避免人类本身具有的某种价值观念可能会产生某些误导性的算法 。

四是不公平的结果 。 算法在场景中使用就会面临操作者的在使用算法过程中的伦理问题 。 如果说误导性证据是算法设计者价值观可能引起的偏见或歧视 , 那么这里指的就是使用算法的操作者的价值观可能引起的偏见或歧视问题 。

五是变革影响 。 张霄认为 , 算法会概念化我们的世界 。 在这一过程中会使我们主体决策的自主权受到影响 , 要尊重大众的决策权 。

六是可追溯问题 。 可追溯性就是当算法行为导致某种结果后需要在上述五个方面进行原因追溯 。

算法的大规模使用要坚持封闭性原则

基于以上分析 , 张霄总结认为 , 首先 , 由算法建构的有限智能体 , 不应该承担任何道德责任 , 因为它并不是一个道德主体(moral ) 。 是一种主体性 , 能够自主、自律、自控 , 具有某种自我意识 , 这是道德意志根本特征 。 所以 , 由算法所构成人工智能体不需要对某些算法构成的行为负责 。 因为这在伦理上说不通 。

其次 , 算法的大规模使用 , 一定要坚持封闭性原则 , 在封闭化场景中使用 。 封闭性原则也就是在特定情形下完成特定的事 , 所有的工作任务、标准都是明确的 , 能够达成目的的路径、条件、手段都是明确的 。 而在封闭化场景中 , 道德风险是最小的 。

最后 , 要对算法设计价值观念进行评估与审查 。 误导性证据和不公平结果 , 一个和证据有关 , 一个和操作有关 , 都会影响到算法在设计和应用过程中人为价值观念先入为主的问题 。 因此 , 张霄表示 , 有限使用算法 , 也意味着要在算法的设计和操作过程当中进行全面的价值观评估和伦理审查 。

323AI导航网发布

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...