这楼是从 http://tieba.baidu.com/p/3339353021#58627092474l 分支出来,目的是方便大家讨论如何将人工神经网络(ANN) 跟推理(reasoning)整合的问题。
要把人工神经网络(ANN)跟高级推理整合起来的话,下面是必须解决的一些问题。能够解决这些问题的话该就可以把两者大致整合起来。需要处理的其他细节当然还很多,不过这样至少可以把问题的思路理清楚些。
一个训练完毕的ANN用来做识别的时候基本上等于是单一一步的演绎推理。所以基本的推理单元是已经有了。其他课题如下。
1. forward rule chainning。 要解决这个可以把多个训练好的神经网络并行使用,让一个网络的输出可以变成其他网络的输入即可。
2. backward inference, 即如何从ANN输出反推到输出的问题。在某些领域如图像识别的训练会需要多层的ANN,训练好了以后用来做反向推理时只能推到最高隐藏层的特征,不过或许这样也够了(横竖人脑搞不好也是一样)。比较抽象观念的学习或许不需要多层ANN,所以没有这个问题。
3. backward rule chainning. 这个类似forward rule chainning,就是反过来做。
4. 如何用ANN表示个体,个体属性,和个体间关系。这是个大课题,有了这个才能表示复杂高级的结构。
5. 如何用ANN表示一阶逻辑里头for all 和 there exists 的观念。有了这个才能做一阶逻辑推理。
6. 如何表示operator. 例如如果操作的目标是个字串的话,能够取出字串倒数第二个字母的那种operator该如何以基本操作单元来表示。
7. 如何表示操作逻辑,如 for while if 之类的
要把人工神经网络(ANN)跟高级推理整合起来的话,下面是必须解决的一些问题。能够解决这些问题的话该就可以把两者大致整合起来。需要处理的其他细节当然还很多,不过这样至少可以把问题的思路理清楚些。
一个训练完毕的ANN用来做识别的时候基本上等于是单一一步的演绎推理。所以基本的推理单元是已经有了。其他课题如下。
1. forward rule chainning。 要解决这个可以把多个训练好的神经网络并行使用,让一个网络的输出可以变成其他网络的输入即可。
2. backward inference, 即如何从ANN输出反推到输出的问题。在某些领域如图像识别的训练会需要多层的ANN,训练好了以后用来做反向推理时只能推到最高隐藏层的特征,不过或许这样也够了(横竖人脑搞不好也是一样)。比较抽象观念的学习或许不需要多层ANN,所以没有这个问题。
3. backward rule chainning. 这个类似forward rule chainning,就是反过来做。
4. 如何用ANN表示个体,个体属性,和个体间关系。这是个大课题,有了这个才能表示复杂高级的结构。
5. 如何用ANN表示一阶逻辑里头for all 和 there exists 的观念。有了这个才能做一阶逻辑推理。
6. 如何表示operator. 例如如果操作的目标是个字串的话,能够取出字串倒数第二个字母的那种operator该如何以基本操作单元来表示。
7. 如何表示操作逻辑,如 for while if 之类的