在基本上脑海中已经可以独自完成很大一部分计算了。
不得不说,写数学的时候就是比较省笔油,也省时间,相比前两天马哲、艺概铺满整个卷面的大量的文字废了他好几只笔,今天的数学就和善了很多。基本上就是一堆的填空题,写个结果就行。
教室前面正中央挂着的时钟才过去不到十分钟,陈默已经换了来两张卷子了。草稿纸上连一个草稿都没有,直到倒数第二张卷子有道计算量确实比较大的,才在草稿纸上划了两笔。
又是五分钟过去后,已然写完了除了最后两道大题外的所有题目。
看着最后两道题。
bp神经网络和apriori算法激活函数和代价函数,考察极坐标系和椭圆坐标系下薛定谔方程及其解的可能性。
陈默转了下笔,用笔帽挠了挠脑袋,其实有些无奈,考试的时候碰到这种题,特别是这两天真的写了不知道多少字之后,看到这种又要大量文字赘述的题也挺无奈的,太费笔了。他知道自己要考的试多,考试之前提前准备了不少笔,晃了晃,看了看自己手里的这个大管的黑色签字笔刻度条上已经空了三分之一的笔墨。
“唉。”
叹了口气,怕是这两题写完后,又得去小卖部拿两支笔,才能再去赶去下个考场。
看了眼第一道题:人工神经网络来源于生理学的人脑神经网络,最早指的是生物的大脑神经元,控制着生物的行为,人们模仿大脑神经元的功能建立了人工神经网络……‘神经网络是一种并行的分布式信息处理结构,由处理元件与单向信号通道互连而成,能够处理信息的计算机系统。’”
卷面上的大量介绍,陈默只是简单地扫了下,这些都是他研究的领域,看了眼设定的条件,便直接写了起来。
“人工神经元基本模型:如图1所示,人工神经网络由多个神经元组成,一般由多个输入一个输出,x1,x2,xn代表输入信号,yj代表神经元的输出,wij代表输入信号x1和神经元j之间的权重。bj代表神经元的偏移量,f(.)为激活函数。设第j个神经元的净输入值为sj:则有以下……可证f(.)是单调递增函数,且是有界函数……
bp神经网络算法由正向传播和误差反向传播两个过程组成。正向传播时,由输入层到隐含层再到输出层,每层神经元只影响下一层的神经元的状态……反向传播是根据误差函数、利用梯度下降法进行的,所以反向传播中最重要的是误差函数……”
陈默一边计算,一边阐述,不用说试卷上留有的空白根本不够写的,一面考卷就被写满了。好在之前陈默写前面的题目的时候,没有怎么用草稿纸。两张空白的a3的稿纸便被他拿来当答题卡了。
“激活函数的主要作用是提高神经网络的非线性建模能力,因为涉及非线性建模,缺少激活函数,神经网络只能表达线性映射,即使有再多的隐藏层,整个神经网络跟单层神经网络是等价的。加入激活函数,神经网络才具备了分层的非