弹性的推理

科技工作者之家 2021-08-10

    虽然现有的问答系统在简单问答任务中,在很多数据集上达到了与人类相当的水平,但是在复杂问答任务中,和人类还相差甚远。

    有人认为原因是:复杂问题的答案,不仅需要多“跳”的推理,可能还需要需要进行计数、比较,甚至是逻辑运算的操作。

    这个回答虽然有合理的成分,但还没有抓住“跳”推理的本质。

    对于“跳”而言,除了认知域、物理域、信息域、社会域的事实性上下文之外,还有动机域、目的域、随动域、预测域的价值性按需组合,更有众多的非逻辑(对现有逻辑体系而言)运算的责任性操作,比如类比的归纳、演绎的隐喻、感性的计算、理性的算计、非逻辑的逻辑等等。

    不但有静态的代数计算+几何/集合算计,还可以生成许多动态的代数计算+几何/集合算计。

    例如类比性质的加减乘除、与或非等如何定义呢?

     有人提出了基于图的可解释认知推理框架。

    即框架以图结构数据为基础,将逻辑表达用作对复杂问题的分析过程,从而表示成显式的推理路径。

    “图结构既可以是文本中的实体或实体之间的关系的表示的图结构,可以是图片的场景图的图结构,也可以是知识图谱的图结构。

    ” 客观而言,首先,无论是文本、图片还是知识图谱,图结构都有许多好处,如易于形成确定对象、属性之间多体、多侧面的关系,方便进行逻辑推理等等,但是这些优点恰恰是形成“硬解释”、“伪认知”的根因。

    如在认知推理框架中,虽可将提问的对象描述为图的结构化数据,其中必然会过滤掉许多非结构化的数据和非图化的信息,如果这些数据信息正是提问对象的关键,那么从一开始就是“伪图”、“错图”、“假图”了(具体详见昨天微信公众号文章:动态的表征)。

    其次,在理解问题的过程中,将问题转化为模块化的描述,模块化过程是一个可编程的函数组合,可以把它分解为图上的最小粒度的操作函数序列;推理过程可以通过神经网络实现,为每一个元函数构建了对应的神经模块网络。

    上述每一个过程虽然都可以展示出来,但这并不意味着能够清晰地解释推理过程,尽管可以输出相应的答案,但这答案并不意味着是正确答案,模块化最大的缺点就是割裂各模块之间的内在隐性联系,是还原论思想的延续,即整体等于部分之和的思想,而真实的问题常常具有系统性,即整体不等于部分之和的思想。

    至于可编程的函数组合,是否真能把它分解为图上的最小粒度的操作函数序列;客观的推理过程是否可以通过神经网络实现,进而为每一个元函数构建对应的神经模块网络,在此就暂请大家结合其优缺点各自理解吧!

     还有是否可以通过场景图表征一张图片,是否可以利用现有的已生成的场景图感知物体,进而构建场景图;对于用户提出的问题而言,是否通过对问题进行予以解析得到函数序列的表征;是否可以在推理过程中将各个神经模块网络应用于场景图,一并请大家思考完善!

     虽然知识驱动和数据驱动相结合的表征和推理是机器智能研究的重要基础,但若不解决动态的表征和弹性的推理问题,即使提出了基于图的可解释认知推理框架,未来能否构建出可扩展的通用推理函数库,找到构建推理过程所需的基本函数,并构建这些函数的模块神经网络呢?

    即使考虑多模态的认知推理,是否能够真正实现增量性学习的推理过程呢?

    这些思路的缺点在于:某某数据集包含了多少种概念、多少个实体,实体具有多少种关系型的属性、多少种数值型/字符串型属性,以及多少个三元组并不重要,毕竟都还是映射关系,这也是没有出现真正的“跳”—漫射、散射、影射关系之根因,即如何在映射之外建立合适的漫射、散射、影射之算计的核心之处!

     符号(专家系统)、联结(深度学习)、行为(强化学习)主义的共同缺点都在于对一个或多个事物不能产生动态的适当(right)表征机理和弹性的推理机制。

    这是当前人工智能的瓶颈和难点,同时也是未来人机混合智能的挑战和机遇。

    文:白驹本文来源:人机与认知实验室C2如何加入学会注册学会会员:个人会员:关注学会微信:关注学会微信:中国指挥与控制学会(c2_china),回复“个人会员”获取入会申请表,按要求填写申请表即可,如有问题,可在公众号内进行留言。

    通过学会审核后方可在线进行支付宝缴纳会费。

    单位会员:关注学会微信:中国指挥与控制学会(c2_china),回复“单位会员”获取入会申请表,按要求填写申请表即可,如有问题,可在公众号内进行留言。

    通过学会审核后方可缴纳会费。

    长按下方学会二维码,关注学会微信

来源:c2_china 中国指挥与控制学会

原文链接:http://mp.weixin.qq.com/s?__biz=MzA4ODcwOTExMQ==&mid=2655626273&idx=4&sn=75917c191eeeb67ce4911299085e623f

版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。

电话:(010)86409582

邮箱:kejie@scimall.org.cn