分类:知识多层网络上的学习

来自Big Physics


研究背景

学习是怎么回事,如何促进学习,是整个教育学的核心问题。有了知识的多层网络模型这个一般框架之后,我们就有了研究学习过程的基础。

原则上,我们应该直接在精确模型上开展学习研究。但是,由于精确模型需要的细节——各个条件概率——太多了,先做一个示例性的粗糙模型的研究,把多层网络可以促进学习这个论点提出来,也是可以的。受樊京芳老师启发,把这个粗糙模型的工作单独做一下。

学习模型:Bayesian网络和扩散

我们把学习看作是知识网络上扩散现象,其中从当前的已知的顶点和边——通过学习——走到把未知的顶点和边也变成已知的过程,我们可以通过Bayesian条件概率来描述。例如,我们的待学习的目标顶点[math]\displaystyle{ T }[/math]有同层内的前置基础顶点[math]\displaystyle{ T^{b}_{1}, T^{b}_{2} }[/math]和后置顶点[math]\displaystyle{ T^{f} }[/math],有上层顶点[math]\displaystyle{ T^{u} }[/math],有下层顶点[math]\displaystyle{ T^{d} }[/math],于是[math]\displaystyle{ T }[/math]的状态[math]\displaystyle{ L\left(T\right)=0 \longrightarrow L\left(T\right)=1 }[/math]的概率依赖于[math]\displaystyle{ T^{b}_{1}, T^{b}_{2}, T^{f}, T^{u}, T^{d} }[/math]等顶点的状态,也就是

[math]\displaystyle{ P\left(L\left(T\right)=0 \longrightarrow L\left(T\right)=1\right)=F\left(L\left(T^{b}_{1}\right), L\left(T^{b}_{2}\right), L\left(T^{f}\right), L\left(T^{u}\right), L\left(T^{d}\right)\right) }[/math]

这个[math]\displaystyle{ F }[/math]函数可以被表达为条件概率的形式。例如,当一种可能的形式是:

[math]\displaystyle{ P\left(L\left(T\right)=1\right)=1-\left[1-P(L\left(T\right)=1|L\left(T^{b}_{1}\right)=1, L\left(T^{b}_{2}\right)=1)\right]P(L\left(T^{b}_{1}\right)=1, L\left(T^{b}_{2}\right)=1) \\ \times \left[1-P(L\left(T\right)=1|L\left(T^{u}\right)=1)\right]P(L\left(T^{u}\right)=1) \\ \times \left[1-P(L\left(T\right)=1|L\left(T^{d}\right)=1)\right]P(L\left(T^{d}\right)=1) }[/math]

然后,我们把这个转变概率当作学习成本。这样给定一个学习顺序,我们就可以计算出来一个这个学习过程中的每一步的学习成本。然后,我们来讨论这个成本下更好的学习顺序的问题。

粗糙的学习模型:渗流

上面的问题,原则上需要针对每一个顶点、每一条连边来决定学习成本——有的联系很好懂成本低有的高,因此一个更加粗糙的学习模型是完全忽略这样的细致差别,构建一个固定的条件概率的形式。例如,只要下层和同层内前置概念都学会了,则以某个概率学会当前概念;如果上层概念也学会了,则以更大的概率学会当前的概念。这时候,整个学习就成了一个渗流模型。然后,我们来考虑在什么条件下,渗流态可以形成。

在实际作的时候,我们可能可以作进一步的简化,仅仅考虑两层网络模型:学科概念层[math]\displaystyle{ C }[/math]和超越学科概念的思维层[math]\displaystyle{ T }[/math]。然后,我们考虑以下三种渗流模型:

  1. 仅仅考虑[math]\displaystyle{ C }[/math]层的渗流:随机把某些顶点或者某些边改成已学习的状态,看整个[math]\displaystyle{ C }[/math]层形成渗流的相变点。
  2. 压扁了来同时考虑[math]\displaystyle{ C+T }[/math]层渗流:把[math]\displaystyle{ C }[/math]层和[math]\displaystyle{ T }[/math]层看作单层网络(也就是不区分层间渗流和层内渗流),随机把某些顶点或者某些边改成已学习的状态,看整个[math]\displaystyle{ C }[/math]层形成渗流的相变点,或者看看整个[math]\displaystyle{ C+T }[/math]层形成渗流的相变点。
  3. [math]\displaystyle{ C\&T }[/math]双层渗流:区分层间渗流和层内渗流,随机把某些顶点或者某些边改成已学习的状态,看整个[math]\displaystyle{ C }[/math]层形成渗流的相变点,或者看看整个[math]\displaystyle{ C\&T }[/math]层形成渗流的相变点。

合起来,这里有五个相变点,或者说相转变曲线,如果这五条曲线存在定性差别,并且,加入了[math]\displaystyle{ T }[/math]层的实际上更容易发生相变,就足以说明多层网络有利于学习。

具体层内和层间渗流的机制

本分类目前不含有任何页面或媒体文件。