分类:知识多层网络上的学习

来自Big Physics


研究背景

学习是怎么回事,如何促进学习,是整个教育学的核心问题。有了知识的多层网络模型这个一般框架之后,我们就有了研究学习过程的基础。

学习模型:Bayesian网络和扩散

我们把学习看作是知识网络上扩散现象,其中从当前的已知的顶点和边——通过学习——走到把未知的顶点和边也变成已知的过程,我们可以通过Bayesian条件概率来描述。例如,我们的待学习的目标顶点[math]\displaystyle{ T }[/math]有同层内的前置基础顶点[math]\displaystyle{ T^{b}_{1}, T^{b}_{2} }[/math]和后置顶点[math]\displaystyle{ T^{f} }[/math],有上层顶点[math]\displaystyle{ T^{u} }[/math],有下层顶点[math]\displaystyle{ T^{d} }[/math],于是[math]\displaystyle{ T }[/math]的状态[math]\displaystyle{ L\left(T\right)=0 \longrightarrow L\left(T\right)=1 }[/math]的概率依赖于[math]\displaystyle{ T^{b}_{1}, T^{b}_{2}, T^{f}, T^{u}, T^{d} }[/math]等顶点的状态,也就是

[math]\displaystyle{ P\left(L\left(T\right)=0 \longrightarrow L\left(T\right)=1\right)=F\left(L\left(T^{b}_{1}\right), L\left(T^{b}_{2}\right), L\left(T^{f}\right), L\left(T^{u}\right), L\left(T^{d}\right)\right) }[/math]

这个[math]\displaystyle{ F }[/math]函数可以被表达为条件概率的形式。例如,当一种可能的形式是: [math]\displaystyle{ P\left(L\left(T\right)=0 \longrightarrow L\left(T\right)=1\right)=1-\left[1-P(L\left(T\right)=1|L\left(T^{b}_{1}\right)=1, L\left(T^{b}_{2}\right)=1)\right]\left[1-P(L\left(T\right)=1|L\left(T^{u}\right)=1)\right]\left[1-P(L\left(T\right)=1|L\left(T^{d}\right)=1)\right] }[/math]

粗糙的学习模型:渗流

我们把

本分类目前不含有任何页面或媒体文件。